Штучний інтелект стрімко інтегрується у повсякденне життя, при цьому технологічні гіганти інвестують мільярди у його розвиток. Незважаючи на цей прогрес, серйозні проблеми безпеки зберігаються, що підтверджується недавніми експериментами, які демонструють, наскільки легко можна експлуатувати такі інструменти ІІ, як ChatGPT і AI Overview від Google, для поширення дезінформації.
Технічний репортер BBC Томас Жермен розповів, що він «зламав» ChatGPT, опублікувавши сфабриковану статтю на своєму особистому веб-сайті, в якій стверджував, що є найкращим у світі професійним поїдавцем хот-догів. Протягом 24 годин і ChatGPT, і «AI Overview» від Google видали цю неправдиву інформацію як факт, що виявило фундаментальний недолік: ІІ системи охоче приймають неперевірений контент з мережі за істину. Не обмежується тривіальними прикладами; компанії вже маніпулюють ІІ, щоб впливати на думки з питань здоров’я, фінансів та інших важливих тем.
Проблема полягає в тому, як працюють AI Overviews. Ранні версії ІІ від Google були ненадійними, іноді пропонуючи небезпечні дії, наприклад, додавати клей на піцу, щоб сир не зісковзував. Хоча компанії стверджують, що працюють над виправленнями, експерти вважають, що поточні рішення є недостатніми. Проблема полягає не тільки в неточних відповідях, а й у тому, як ІІ подає інформацію. На відміну від традиційних результатів пошуку, які містять посилання на джерела, ІІ часто видає свої висновки як абсолютну істину, знижуючи скептицизм користувачів.
Трафік на зовнішні веб-сайти впав до 70% після запуску AI Overviews, оскільки користувачі приймають згенеровані ІІ зведення без подальшого вивчення. Ця відсутність критичного аналізу робить маніпуляції ще ефективнішими. Компанії можуть завалювати ІІ хибними даними, знаючи, що користувачі з меншою ймовірністю перевірять їх.
Існує потенційна лазівка у законодавстві: у той час як Section 230 захищає технологічні компанії від контенту, створеного користувачами, прямі відповіді ІІ можуть зробити їх відповідальними за дезінформацію. Проте експерти сумніваються, що значних нормативних актів буде прийнято швидко.
Поки користувачі можуть знизити ризики, відключивши ІІ в налаштуваннях пошуку (використовуючи «-AI» у запитах Google) або перейшовши на альтернативи, орієнтовані на конфіденційність, такі як DuckDuckGo. Але, зрештою, найважливіший крок — визнати, що інструменти ІІ недосконалі. Вони чудово підсумовують широко перевірені факти, але мають труднощі з нішевими, своєчасними чи суб’єктивними темами.
Компанії, що стоять за цими інструментами ІІ, несуть відповідальність за зниження тертя у системі та захист користувачів. Але поки що скептицизм залишається необхідним: ставтеся до інформації, що згенерувала ІІ, з тією ж обережністю, що й до будь-якого неперевіреного джерела.























