V pondělí 22. května 2023 sdílel ověřený twitterový účet s názvem „Bloomberg Feed“ tweet, který tvrdil, že byl výbuch v Pentagonu doprovázený obrázkem. Pokud vás zajímá, co to má společného s umělou inteligencí (AI), obrázek byl vytvořený umělou inteligencí, přičemž tweet se rychle stal virálním a vyvolal krátký pokles akciového trhu. Věci mohly být mnohem horší – ostrá připomínka nebezpečí umělé inteligence.
Nebezpečí umělé inteligence
Nemusíme se obávat jen falešných zpráv. S umělou inteligencí je spojeno mnoho bezprostředních nebo potenciálních rizik, od těch, která se týkají soukromí a bezpečnosti, až po zaujatost a otázky autorských práv. Ponoříme se do některých z těchto nebezpečí umělé inteligence, uvidíme, co se nyní i v budoucnu dělá pro jejich zmírnění, a zeptáme se, zda rizika AI převažují nad výhodami.
Falešné zprávy
Když se deepfakes poprvé objevily, vyvstaly obavy, že by mohly být použity se zlým úmyslem. Totéž lze říci o nové vlně AI generátory obrázků, jako je DALL-E 2, Midjourney nebo DreamStudio. 28. března 2023 se falešný Snímky papeže Františka vytvořené umělou inteligencí v bílé bundě Balenciaga a užívající si několik dobrodružství, včetně skateboardingu a hraní pokeru, stal virálním. Dokud jste obrázky důkladně neprostudovali, bylo těžké tyto obrázky odlišit od skutečné věci.
Zatímco příklad s papežem byl nepochybně trochu zábavný, obrázek (a doprovodný tweet) o Pentagonu nebyl nic jiného než. Falešné obrázky generované umělou inteligencí mají moc poškodit pověst, ukončit manželství nebo kariéru, vyvolat politické nepokoje a dokonce rozpoutat války, pokud je ovládají nesprávní lidé – zkrátka tyto obrázky vytvořené umělou inteligencí mají potenciál být velmi nebezpečné, pokud jsou zneužity.
S generátory obrázků AI, které jsou nyní volně dostupné pro kohokoli, a Photoshop přidává generátor obrázků AI jeho oblíbený software je možnost manipulovat s obrázky a vytvářet falešné zprávy větší než kdy dříve.
Ochrana soukromí, zabezpečení a hackování
Ochrana soukromí a zabezpečení jsou také velké obavy, pokud jde o rizika AI, přičemž řada zemí již zakazuje ChatGPT OpenAI. Itálie tento model zakázala kvůli obavám o soukromí a věří, že není v souladu s evropským obecným nařízením o ochraně osobních údajů (GDPR), zatímco vlády Číny, Severní Koreje a Ruska jej zakázaly kvůli obavám, že by šířil dezinformace..
Proč se tedy tolik zajímáme o soukromí, pokud jde o umělou inteligenci? aplikace AI a systémy shromažďují velké množství dat, aby se mohli učit a předpovídat. Jak se ale tato data ukládají a zpracovávají? Existuje reálné riziko narušení dat, hackerů a informací, které se dostanou do nesprávných rukou.
Ohrožení nejsou jen naše osobní údaje. Hackování umělé inteligence je skutečné riziko – zatím se to nestalo, ale pokud by se ti se zlými úmysly mohli nabourat do systémů AI, mohlo by to mít vážné následky. Hackeři by například mohli ovládat vozidla bez řidiče, hackovat bezpečnostní systémy AI, aby se dostali do vysoce zabezpečených míst, a dokonce hackovat zbraňové systémy s AI zabezpečením.
Odborníci z Agentury pro pokročilé výzkumné projekty obrany (DARPA) Ministerstva obrany USA si tato rizika uvědomují a již pracují na projektu DARPA Garanting AI Robustness Against Deception (GARD), který tento problém řeší od základů. Cílem projektu je zajistit, aby do algoritmů a umělé inteligence byla zabudována odolnost vůči hackingu a neoprávněné manipulaci.
Porušení autorských práv
Dalším nebezpečím umělé inteligence je porušení autorských práv. To nemusí znít tak vážně jako některá další nebezpečí, která jsme zmínili, ale vývoj modelů umělé inteligence, jako je GPT-4, vystavuje každého zvýšenému riziku porušení.
Pokaždé, když požádáte ChatGPT, aby pro vás něco vytvořil – ať už je to blogový příspěvek o cestování nebo nový název vaší firmy – dodáváte mu informace, které pak použije k zodpovězení budoucích dotazů. Informace, které vám poskytuje, by mohly porušovat autorská práva někoho jiného, a proto je tak důležité používat detektor plagiátorství a upravovat jakýkoli obsah vytvořený umělou inteligencí před jeho zveřejněním.
Společenské a datové zkreslení
AI není člověk, takže nemůže být zaujatá, že? Špatně. Lidé a data se používají k trénování modelů umělé inteligence a chatboty, což znamená, že neobjektivní data nebo osobnosti povedou ke zkreslené umělé inteligenci. V AI existují dva typy zkreslení: společenská zkreslení a zkreslení dat.
S mnoha předsudky přítomnými v každodenní společnosti, co se stane, když se tyto předsudky stanou součástí umělé inteligence? Programátoři zodpovědní za trénování modelu mohou mít zkreslená očekávání, která se pak dostanou do systémů umělé inteligence..
Nebo data použitá k výcviku a vývoji AI mohou být nesprávná, neobjektivní nebo shromážděná ve zlé víře. To vede k zkreslení dat, které může být stejně nebezpečné jako společenské zkreslení. Pokud je například systém pro rozpoznávání obličejů trénován s použitím převážně tváří bělochů, může mít potíže s rozpoznáním těch z menšinových skupin, což udrží útlak.
Roboti berou naši práci
Vývoj chatbotů, jako je ChatGPT a Google Bard, otevřel zcela nové starosti kolem AI: Riziko, že robotů nám vezme práci. Už jsme svědky toho, jak spisovatele v technologickém průmyslu nahrazuje umělá inteligence, vývojáři softwaru se obávají, že přijdou o práci kvůli robotům, a společnosti, které používají ChatGPT k vytváření obsahu blogů a obsahu sociálních médií, místo aby najímaly lidské spisovatele.
Podle Zpráva Světového ekonomického fóra The Future of Jobs Report 2020 se očekává, že umělá inteligence nahradí 85 milionů pracovních míst po celém světě do roku 2025. I když umělá inteligence nenahrazuje spisovatele, mnozí ji již jako nástroj používají. Ti, kteří mají zaměstnání, u nichž hrozí, že budou nahrazeni umělou inteligencí, se možná budou muset přizpůsobit, aby přežili – například spisovatelé se mohou stát rychlými inženýry umělé inteligence, což jim umožní pracovat s nástroji, jako je ChatGPT pro tvorbu obsahu, místo aby byli nahrazeni těmito modely.
Budoucí potenciální rizika AI
Toto všechno jsou bezprostřední nebo hrozící rizika, ale co některá méně pravděpodobná, ale stále možná nebezpečí AI, která bychom mohli v budoucnu vidět? Patří mezi ně věci, jako je umělá inteligence naprogramovaná tak, aby ubližovala lidem, například autonomní zbraně vycvičené k zabíjení během války.
Pak existuje riziko, že by se umělá inteligence mohla cílevědomě soustředit na svůj naprogramovaný cíl a vyvinout destruktivní chování, když se bude snažit tohoto cíle dosáhnout za každou cenu, i když se tomu lidé snaží zabránit.
Skynet nás naučil, co se stane, když se AI stane vnímavou. I když se inženýr společnosti Google Blake Lemoine v červnu 2022 možná snažil všechny přesvědčit, že LaMDA, uměle inteligentní generátor chatbotů od Googlu, byl vnímavý, naštěstí zatím neexistují žádné důkazy, které by naznačovaly, že je to pravda.
Výzvy regulace umělé inteligence
V pondělí, 15. května 202, Generální ředitel OpenAI Sam Altman se zúčastnil prvního slyšení v Kongresu o umělé inteligenci, varování: „Pokud se tato technologie pokazí, může se pokazit docela.“ Ředitel OpenAI dal jasně najevo, že upřednostňuje regulaci, a na slyšení přinesl mnoho svých vlastních nápadů. Problém je v tom, že AI se vyvíjí takovou rychlostí, že je těžké vědět, kde začít s regulací..
Kongres se chce vyhnout stejným chybám, jaké se staly na začátku éry sociálních sítí, a tým odborníků spolu s vůdcem senátní většiny Chuckem Schumerem již pracuje na předpisech, které by od společností vyžadovaly, aby odhalily, jaké zdroje dat používaly k školení modely a kdo je trénoval. Může to chvíli trvat, než bude jasné, jak přesně bude umělá inteligence regulována, a nepochybně dojde k odporu ze strany společností zabývajících se umělou inteligencí.
Hrozba umělé obecné inteligence
Existuje také riziko vytvoření umělé obecné inteligence (AGI), která by mohla plnit jakékoli úkoly, které by mohla vykonávat lidská bytost (nebo zvíře). Často zmiňované ve sci-fi filmech, od takového stvoření nás pravděpodobně dělí ještě desítky let, ale pokud a až vytvoříme AGI, mohlo by to představovat hrozbu pro lidstvo.
Mnoho veřejných osobností již podporuje přesvědčení, že umělá inteligence představuje pro lidi existenční hrozbu, včetně Stephena Hawkinga, Billa Gatese a dokonce bývalého generálního ředitele společnosti Google Erica Schmidta, který prohlásil: „Umělá inteligence může představovat existenční rizika a vlády potřebují vědět, jak abychom zajistili, že technologii nezneužijí zlí lidé.“
Je tedy umělá inteligence nebezpečná a převažuje její riziko nad výhodami? Porota je stále mimo, ale už teď vidíme důkazy o některých rizicích kolem nás. Jiná nebezpečí se s menší pravděpodobností v brzké době naplní, pokud vůbec. Jedna věc je však jasná: nebezpečí AI by se nemělo podceňovat. Je nanejvýš důležité, abychom zajistili, že umělá inteligence je od počátku řádně regulována, abychom minimalizovali a snad i zmírnili veškerá budoucí rizika.
.