Искусственный интеллект стремительно интегрируется в повседневную жизнь, при этом технологические гиганты инвестируют миллиарды в его развитие. Несмотря на этот прогресс, серьёзные проблемы безопасности сохраняются, что подтверждается недавними экспериментами, демонстрирующими, насколько легко можно эксплуатировать такие инструменты ИИ, как ChatGPT и «AI Overview» от Google, для распространения дезинформации.
Технический репортёр BBC Томас Жермен рассказал, что он «взломал» ChatGPT, опубликовав сфабрикованную статью на своём личном веб-сайте, в которой утверждал, что является лучшим в мире профессиональным поедателем хот-догов. В течение 24 часов и ChatGPT, и «AI Overview» от Google выдали эту ложную информацию как факт, что выявило фундаментальный недостаток: системы ИИ охотно принимают непроверенный контент из сети за истину. Это не ограничивается тривиальными примерами; компании уже манипулируют ИИ, чтобы влиять на мнения по вопросам здоровья, финансов и другим важным темам.
Проблема заключается в том, как работают AI Overviews. Ранние версии ИИ от Google были ненадежными, иногда предлагая опасные действия, например, добавлять клей на пиццу, чтобы сыр не соскальзывал. Хотя компании утверждают, что работают над исправлениями, эксперты считают, что текущие решения недостаточны. Проблема заключается не только в неточных ответах, но и в том, как ИИ представляет информацию. В отличие от традиционных результатов поиска, которые содержат ссылки на источники, ИИ часто выдаёт свои выводы как абсолютную истину, снижая скептицизм пользователей.
Трафик на внешние веб-сайты упал до 70% после запуска AI Overviews, поскольку пользователи принимают сгенерированные ИИ сводки без дальнейшего изучения. Это отсутствие критического анализа делает манипуляции ещё более эффективными. Компании могут заваливать ИИ ложными данными, зная, что пользователи с меньшей вероятностью проверят их.
Существует потенциальная лазейка в законодательстве: в то время как Section 230 защищает технологические компании от контента, созданного пользователями, прямые ответы ИИ могут сделать их ответственными за дезинформацию. Однако эксперты сомневаются, что значимые нормативные акты будут приняты быстро.
Пока пользователи могут снизить риски, отключив ИИ в настройках поиска (используя «-AI» в запросах Google) или перейдя на альтернативы, ориентированные на конфиденциальность, такие как DuckDuckGo. Но в конечном итоге самый важный шаг — признать, что инструменты ИИ несовершенны. Они превосходно суммируют широко проверенные факты, но испытывают трудности с нишевыми, своевременными или субъективными темами.
Компании, стоящие за этими инструментами ИИ, несут ответственность за снижение трений в системе и защиту пользователей. Но пока скептицизм остаётся необходимым: относитесь к информации, сгенерированной ИИ, с той же осторожностью, что и к любому непроверенному источнику.























