Додому Різне Kerentanan AI: Betapa Mudahnya ChatGPT dan Pencarian Google Dapat Dimanipulasi

Kerentanan AI: Betapa Mudahnya ChatGPT dan Pencarian Google Dapat Dimanipulasi

Kecerdasan buatan dengan cepat berintegrasi ke dalam kehidupan sehari-hari, dan raksasa teknologi menginvestasikan miliaran dolar dalam pengembangannya. Meskipun ada kemajuan ini, masalah keamanan yang penting masih tetap ada, sebagaimana dibuktikan oleh eksperimen baru-baru ini yang menunjukkan betapa mudahnya alat AI seperti ChatGPT dan “Ikhtisar AI” Google Penelusuran dapat dieksploitasi untuk menyebarkan informasi yang salah.

Reporter teknologi BBC Thomas Germain mengungkapkan bahwa dia “meretas” ChatGPT dengan menerbitkan artikel palsu di situs pribadinya yang mengklaim bahwa dia adalah pemakan hot dog kompetitif terbaik di dunia. Dalam waktu 24 jam, ChatGPT dan Tinjauan AI Google menyatakan informasi palsu ini sebagai fakta, menyoroti kelemahan mendasar: sistem AI dengan mudah menerima konten yang belum diverifikasi dari web sebagai kebenaran. Ini tidak terbatas pada contoh-contoh sepele; perusahaan sudah memanipulasi AI untuk memengaruhi opini mengenai kesehatan, keuangan, dan topik penting lainnya.

Masalahnya berasal dari cara fungsi Ikhtisar AI. Versi awal AI Google tidak dapat diandalkan, terkadang merekomendasikan tindakan berbahaya seperti menambahkan lem ke pizza untuk mencegah keju tergelincir. Meskipun perusahaan mengklaim sedang melakukan perbaikan, para ahli berpendapat bahwa solusi yang ada saat ini tidak cukup. Masalahnya bukan hanya pada respons yang tidak akurat tetapi juga pada cara AI menyampaikan informasi. Berbeda dengan hasil penelusuran tradisional yang tertaut ke sumber, AI sering kali menampilkan temuannya sebagai kebenaran mutlak, sehingga mengurangi skeptisisme pengguna.

Lalu lintas ke situs web eksternal telah menurun hingga 70% sejak Ikhtisar AI diluncurkan, karena pengguna menerima ringkasan yang dibuat oleh AI tanpa melakukan penyelidikan lebih lanjut. Kurangnya pengawasan membuat manipulasi menjadi lebih efektif. Perusahaan dapat membanjiri AI dengan data palsu, karena mereka tahu bahwa pengguna cenderung tidak memverifikasi data tersebut.

Terdapat potensi celah hukum: meskipun Pasal 230 melindungi perusahaan teknologi dari konten buatan pengguna, tanggapan langsung AI dapat membuat mereka bertanggung jawab atas kesalahan informasi. Namun, para ahli meragukan peraturan yang berarti akan segera terwujud.

Untuk saat ini, pengguna dapat memitigasi risiko dengan menonaktifkan AI di pengaturan pencarian (menggunakan “-AI” di pencarian Google) atau beralih ke alternatif yang berfokus pada privasi seperti DuckDuckGo. Namun pada akhirnya, langkah paling penting adalah menyadari bahwa alat AI bisa saja salah. Mereka unggul dalam merangkum fakta-fakta yang telah diverifikasi secara luas, namun kesulitan dengan topik-topik khusus, sensitif terhadap waktu, atau subyektif.

Perusahaan di balik alat AI ini memiliki tanggung jawab untuk mengurangi gesekan dalam sistem dan melindungi pengguna. Namun untuk saat ini, skeptisisme tetap penting: perlakukan informasi yang dihasilkan AI dengan kewaspadaan yang sama seperti yang Anda terapkan pada sumber mana pun yang tidak terverifikasi.

Exit mobile version