„60 Minutes“ udělalo docela ošklivé tvrzení o chatbotovi Google AI

„60 Minutes“ udělalo docela ošklivé tvrzení o chatbotovi Google AI

Od té doby, co OpenAI rozpoutalo ChatGPT do světa, viděli jsme, že bere lidi, kterým byste nevěřili. Někteří lidé tvrdili, že chatboti mají probuzenou agendu. Americký senátor Chris Murphy tweetoval, že ChatGPT se „učil“ pokročilé chemii. Dokonce i zkušení tech novináři napsali příběhy o tom, jak to funguje Chatbot se do nich zamiloval. Zdá se, jako by svět reagoval na AI stejným způsobem, jakým pravděpodobně reagovali jeskynní lidé, když poprvé viděli oheň: naprostým zmatkem a nesouvislým blábolením.

Jeden z nejnovějších příkladů pochází z 60 minut, který hodil svůj hlas do ringu s novou epizodou zaměřenou na inovace v oblasti umělé inteligence, kterou odvysílala v neděli CBS. Epizoda obsahovala rozhovory s lidmi, jako je Sundar Pichai, generální ředitel společnosti Google, a obsahovala sporný obsah Tvrzení o jednom z velkých jazykových modelů společnosti (LLM).

Segment je o emergentním chování, které popisuje neočekávaný vedlejší efekt systému umělé inteligence, který nebyl nutně zamýšlen vývojáři modelu. Objevující se chování jsme již viděli v jiných nedávných projektech AI. Například vědci nedávno použili ChatGPT k vytvoření digitálních osobností s cíli a pozadím ve studii zveřejněné minulý týden online. Poznamenávají, že systém provádí různé naléhavé chování, jako je sdílení nových informací od jedné postavy k druhé a dokonce i vytváření vzájemných vztahů – něco, co autoři původně se systémem neplánovali.

Objevující se chování je jistě užitečné téma k diskusi ve zpravodajském pořadu. kde je 60 minut Video však nabere obrátky, když se dozvíme o tvrzeních, že chatbot společnosti Google byl ve skutečnosti schopen naučit se jazyk, který předtím neznal, poté, co byl požádán v tomto jazyce. „Například jeden program umělé inteligence Google se přizpůsobil sám poté, co mu bylo řečeno, aby to udělal v jazyce Bangladéše, který nebyl vycvičen, aby znal,“ řekl ve videu reportér CBS News Scott Pelley.

READ  Nintendo spustilo nový systém misí pro uživatele Nintendo Switch Online

Odborníci na AI tvrdí, že se jedná o plnohodnotný bakalářský titul. Nejen, že se robot nemohl naučit cizí jazyk, který „nikdy nenaučil znát“, ale také se nikdy nenaučil nové dovednosti. Celý klip přiměl výzkumníky a odborníky AI, aby na Twitteru kritizovali zavádějící rámování zpravodajského pořadu.

„Určitě doufám, že někteří novináři zhodnotí celý segment @60Minute na Google Bard jako případovou studii o tom, jak *ne*zakrývat AI,“ řekla Melanie Mitchell, výzkumnice AI a profesorka na Santa Fe Institute, napsal v tweetu.

„Přestaňte myslet na technologii magicky! Není možné, aby #AI reagovala v bengálštině, pokud tréninková data nebyla kontaminována bengálštinou nebo trénována v jazyce, který se překrývá s bengálštinou, jako je asámština, urijština nebo hindština,“ řekla paní. Alex O. výzkumník na Massachusetts Institute of Technology, Přidáno v jiném příspěvku.

Stojí za povšimnutí 60 minut Klip přesně neříkal, jakou AI použili. Mluvčí CBS řekl The Daily Beast, že tento segment nebyl diskusí o Bardovi, ale samostatným pořadem o umělé inteligenci. Důvodem, proč je tato část pro tyto odborníky tak frustrující, je však to, že ignoruje a pohrává si s realitou toho, co generativní AI vlastně dokáže. Nemůže se „naučit“ jazyk, pokud k němu vůbec nemá přístup. Bylo by to jako snažit se naučit se mandarínsky, ale slyšeli jste to až poté, co se vás někdo jednou zeptal na mandarínštinu.

Koneckonců, jazyk je neuvěřitelně složitý — s nuancemi a pravidly, které k porozumění a komunikaci vyžadují neuvěřitelnou míru kontextu. Ani ten nejpokročilejší LLM nemá žádný způsob, jak to všechno zvládnout a naučit se to pomocí několika výzev.

Navíc software AI mohl být již vyškolen, aby znal bengálštinu, dominantní jazyk Bangladéše. Margaret Mitchellová (bez vztahu), výzkumnice v Startup Lab ve společnosti AT HuggingFace a dříve ve společnosti Google, to vysvětlila v Téma tweetu Argumentujte proč 60 minut Pravděpodobně to byla chyba.

READ  Je toto audit ochrany osobních údajů aplikace pro Android, prosím

Mitchell poznamenal, že Bard – nedávno představený veřejně dostupný chatbot společnosti Google – zahrnuje práci z rané iterace svého modelu zvaného PaLM. V demonstraci v roce 2022 Google ukázal, že PaLM dokáže komunikovat a reagovat na výzvy v bengálštině. a Papír za PaLM V datovém listu se ukázalo, že model byl ve skutečnosti trénován na jazyce s přibližně 194 miliony symbolů v bengálské abecedě.

Ačkoli nevíme, jaký byl samostatný tajemný program AI, pravděpodobně se spoléhal na stejnou práci od PaLM – což by vysvětlovalo přítomnost bengálštiny v datovém souboru.

Není jasné, proč Pichai, generální ředitel společnosti Google, usedl k rozhovoru a dovolil, aby tato obvinění pokračovala bez odporu. (Google na žádosti o komentář nereagoval.) Od odvysílání epizody mlčel, přestože odborníci poukazovali na zavádějící a nepravdivá tvrzení v klipu. Na Twitteru Margaret Mitchell Návrh Důvodem může být kombinace vedoucích představitelů společnosti Google, kteří nevědí, jak jejich produkty fungují, a také to, že umožňuje šíření špatných zpráv, aby bylo možné řešit současný humbuk kolem generativní umělé inteligence.

„Mám podezření [Google executives] Doslova nechápu, jak to funguje, Mitchelle cvrlikání. „To, co jsem napsal výše, je pro ně s největší pravděpodobností novinka. A jsou motivováni tomu nerozumět (PROMLUVTE SVÉ OČI NA TENTO DATOVÝ LIST!!).“

Druhá polovina videa může být také vnímána jako problematická, protože Pichai a Billy diskutují o povídce, kterou vytvořil Bard a která „zněla velmi lidsky“, takže oba muži byli poněkud otřeseni.

Pravdou je, že tyto produkty nejsou kouzelné. Nejsou schopni být „lidmi“, protože nejsou lidmi. Jsou to textové prediktory, jako jsou ty na vašem telefonu, vycvičené k tomu, aby po sérii slov ve frázích vymýšlely nejpravděpodobnější slova a fráze. Říci, že existují, by jim mohlo dát úroveň moci, která by mohla být neuvěřitelně nebezpečná.

READ  Pověst: Hry pro více lidí možná přicházejí na konzole

Koneckonců, uživatelé mohou tyto generativní systémy umělé inteligence používat k takovým věcem, jako je šíření dezinformací. Už jsme viděli, jak to manipuluje s podobiznami lidí a dokonce i s jejich hlasy.

Dokonce i chatbot sám o sobě může způsobit škodu, pokud skončí s předpojatými výsledky – něco, co jsme již viděli u takových jako ChatGPT a Bard. Když znají sklon těchto chatbotů k halucinacím a vymýšlení výsledků, mohou být schopni šířit dezinformace nic netušícím uživatelům.

Výzkum to také potvrzuje. Nedávná studie Publikováno v Vědecké zprávy Zjistil, že lidské reakce na etické otázky mohou být snadno ovlivněny argumenty ChatGPT – a dokonce i to, že uživatelé velmi podcenili, jak moc je boti ovlivnili.

Zavádějící tvrzení o 60 minut Je to skutečně jen příznak větší potřeby digitální gramotnosti v době, kdy ji nejvíce potřebujeme. Mnoho odborníků na umělou inteligenci říká, že nyní, více než kdy jindy, je čas, kdy si lidé musí být vědomi toho, co umělá inteligence umí a co ne. Tato základní fakta o robotice musí být také efektivně sdělována široké veřejnosti.

To znamená, že lidé s největšími platformami a nejhlasitějšími hlasy (tj. média, politici a generální ředitelé Big Tech) nesou největší odpovědnost za zajištění bezpečnější a vzdělanější budoucnosti AI. Pokud to neuděláme, mohli bychom skončit jako výše zmínění jeskynní lidé, hrát si s magií ohně – a přitom se spálit.

Poznámka editora: Předchozí verze tohoto příběhu říkala, že umělou inteligencí, o které se diskutovalo v segmentu 60 minut, byl Bard, když šlo o samostatnou umělou inteligenci Google.

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *