Umělá inteligence se rychle integruje do každodenního života a techničtí giganti do jejího vývoje investují miliardy. Navzdory tomuto pokroku přetrvávají vážné obavy o bezpečnost, jak dokazují nedávné experimenty, které demonstrovaly, jak snadno lze nástroje umělé inteligence, jako je ChatGPT a „AI Overview“ od Googlu, zneužít k šíření dezinformací.
Technický reportér BBC Thomas Germain odhalil, že „hacknul“ ChatGPT zveřejněním vymyšleného článku na své osobní webové stránce, v němž tvrdil, že je nejlepším profesionálním pojídačem párků v rohlíku na světě. Během 24 hodin ChatGPT i „Přehled AI“ společnosti Google nahlásily tyto nepravdivé informace jako fakt a odhalily zásadní chybu: systémy AI ochotně přijímají neověřený obsah z webu jako pravdu. Toto není omezeno na triviální příklady; společnosti již manipulují AI, aby ovlivnily názory na zdraví, finance a další důležitá témata.
Problém je v tom, jak fungují přehledy AI. Dřívější verze umělé inteligence Google byly nespolehlivé a někdy naznačovaly nebezpečné akce, jako je přidání lepidla na pizzu, aby sýr nesklouzl. Přestože firmy tvrdí, že na opravách pracují, podle odborníků jsou současná řešení nedostatečná. Problémem nejsou jen nepřesné odpovědi, ale také způsob, jakým AI prezentuje informace. Na rozdíl od tradičních výsledků vyhledávání, které obsahují odkazy na zdroje, AI často prezentuje svá zjištění jako absolutní pravdu, což snižuje skepsi uživatelů.
Návštěvnost externích webů klesla od spuštění přehledů AI až o 70 %, protože uživatelé přijímají souhrny generované umělou inteligencí bez dalšího zkoumání. Tento nedostatek kritické analýzy činí manipulaci ještě efektivnější. Společnosti mohou zaplavit AI falešnými daty, protože vědí, že uživatelé je budou méně pravděpodobně kontrolovat.
V zákoně existuje potenciální mezera: zatímco § 230 chrání technologické společnosti před obsahem vytvářeným uživateli, přímé reakce umělé inteligence by je mohly učinit odpovědnými za dezinformace. Odborníci však pochybují, že významná nařízení budou přijata rychle.
Prozatím mohou uživatelé snížit rizika vypnutím AI v nastavení vyhledávání (pomocí „-AI“ v dotazech Google) nebo přechodem na alternativy zaměřené na soukromí, jako je DuckDuckGo. Ale nakonec je nejdůležitějším krokem uznat, že nástroje AI jsou nedokonalé. Vynikají ve shrnutí široce ověřených faktů, ale bojují s úzce specializovanými, aktuálními nebo subjektivními tématy.
Společnosti stojící za těmito nástroji umělé inteligence mají odpovědnost za snížení tření v systému a ochranu uživatelů. Zatím však zůstává nezbytný skepticismus: zacházejte s informacemi generovanými umělou inteligencí se stejnou opatrností, jako byste zacházeli s jakýmkoli neověřeným zdrojem.























