AI chyby podkopávají důvěru
Společnost Alphabet (Google), gigant v oblasti vyhledávání na internetu, se během rušného víkendu Memorial Day ocitl v nepříjemné situaci. Jeho nová funkce AI Overview, která má poskytovat generativní AI odpovědi na vyhledávací dotazy, se stala terčem kritiky poté, co uživatelům poskytla několik bizarních a nepravdivých doporučení.
Mezi nejvýraznější chyby patřily rady, jak použít netoxické lepidlo k udržení sýra na pizzy, konzumovat jeden kámen denně a tvrzení, že Barack Obama byl prvním muslimským prezidentem. Také šokovalo tvrzení asistenta, že vše, co je na internetu, je reálné.
Google AI overview suggests adding glue to get cheese to stick to pizza, and it turns out the source is an 11 year old Reddit comment from user F*cksmith 😂 pic.twitter.com/uDPAbsAKeO
— Peter Yang (@petergyang) May 23, 2024
another crazy Google AI Overview result lol pic.twitter.com/PeUfMsgzlk
— Jane Manchun Wong (@wongmjane) May 24, 2024
Z doporučení dát lepidlo do pizzy vznikly dokonce i vtipné parodie.
People are mad at Google AI Overview for suggesting the use of glue and gasoline in various kitchen recipes. We need to blame the food ad industry for making food look delicious…by using glue and gas products. pic.twitter.com/dv9J7EjKZk
— Trung Phan (@TrungTPhan) May 26, 2024
Google reagoval odstraněním těchto odpovědí a přislíbil zlepšení svých systémů.
Tyto incidenty však spolu s předchozími problémy, jako například neúspěšný start Gemini AI obrázkového generátoru, který generoval historicky nepřesné obrázky, vážně vážně poškozují důvěryhodnost společnosti.
Opakované chyby v AI
Problémy s AI Overview nejsou prvním případem, kdy se Google setkal s problémy v oblasti generativní AI.
V únoru 2023 se jeho chatbot Bard, později přejmenovaný na Gemini, stal známým kvůli promo videu, které způsobilo pokles akcií společnosti. Google v něm totiž prezentoval funkce, které daný chatbot v té době vůbec neovládal. Později společnost kostrbatě vysvětlila, že jde jen o ukázku funkcí, které budou dostupné „někdy v budoucnosti“.
Další incident se týkal Gemini image generatora, který generoval obrázky různých etnických skupin v nepřesných historických kontextech, včetně německých vojáků z roku 1943.
Google se snažil překonat problémy s obrázky tím, že zahrnul širší diverzitu etnik při generování obrázků. Tento krok se ukázal jako přehnaný a software začal odmítat požadavky na obrázky lidí z konkrétních prostředí.
Google musel proto dočasně stáhnout celý software a omluvit se.
Proč dochází k chybám?
Chinmay Hegde z NYU Tandon School of Engineering se domnívá, že Google se snaží příliš rychle uvádět nové produkty na trh, aby předčil konkurenty jako Microsoft a OpenAI. Tento rychlý postup však vede k povrchovým problémům, které podkopávají důvěru uživatelů v jejich AI.
OpenAI nejnovější nemilo překvapila Google tím, že den před jejich I/O vývojářskou konferencí představila nový model GPT4-o.
Důsledky pro Google
Pokud Google bude pokračovat v uvádění produktů, které generují chyby nebo škodlivé informace, riskuje, že uživatelé začnou pochybovat o důvěryhodnosti jejich umělé inteligence.
Jak vysvětlil Derek Leben z University of Carnegie Mellon Tepper School of Business, společnost nemůže neustále omlouvat své chyby a očekávat, že uživatelé budou nadále důvěřovat jejím produktům.
Top brokeři