Sam Altman, az OpenAI vezérigazgatója, a héten Washingtonban tárgyalt amerikai tisztviselőkkel az MI jövőjéről, és miközben nyíltan beszélt arról, hogy félelmetesnek tartja az emberi hangot és arcot imitáló mesterséges intelligenciát, a cég nem szigorítást, hanem lazább szabályozási környezetet szeretne. A paradoxon szándékos: az OpenAI szerint túlzott törvénykezés csak a kínai versenytársaknak kedvezne.
Altman az amerikai jegybank előtt is megszólalt, ahol konkrét példákkal illusztrálta az aggodalmait: egyre több MI képes valósághű hívásokra, amelyek már nemcsak hangban, hanem videón, akár FaceTime-on is megtévesztően élethűek. Mindez azért különösen problémás, mert sok pénzügyi intézmény még mindig hangalapú azonosítást használ, amely az MI által gyakorlatilag kikerülhetővé vált. Altman szerint az ilyen támadások nem jövőbeli lehetőségek, hanem már zajló események.
Mindezek ellenére az OpenAI nem támogatja a szigorúbb jogszabályokat. Inkább egy rugalmas, iparági önszabályozáson alapuló modellt sürget, amely segíti az amerikai technológiai cégek versenyképességét. A javaslataik között szerepel:
- szerzői joggal védett adatok legális hozzáférhetősége az MI-modellek képzéséhez
- egységesített, világos exportkorlátozások az MI-technológiákra
- állami infrastrukturális beruházások a modellek működtetéséhez szükséges erőforrásokra
A háttérben ott van az OpenAI új terméke, a ChatGPT Agent, amely képes feladatokat végrehajtani a felhasználók nevében. Noha beépített védelmekkel rendelkezik, nem védett a rosszindulatú felhasználástól – ezzel az OpenAI is tisztában van.
Altman az MI társadalmi hatásait is szóba hozta, főleg a fiatalabb generációkra nézve. Egy podcastban kifejtette, hogy az olyan appok, mint a TikTok vagy YouTube Shorts „dopaminbombaként” hathatnak a gyerekekre, negatívan befolyásolva a kognitív fejlődést. Azt is megemlítette, hogy miközben a fiatalok könnyebben alkalmazkodnak az új technológiákhoz, veszélyesnek tartja, ha életvezetési döntéseket egy MI-alapú chatbotra bíznak.