Jak poznám obrázky generované AI? – DW – 04/09/2023

Jak poznám obrázky generované AI?  – DW – 04/09/2023

Nikdy nebylo jednodušší cVytvářejte znovu obrázky, které vypadají neuvěřitelně realisticky, ale ve skutečnosti jsou falešné.

Každý, kdo má připojení k internetu a přístup k nástroji, který využívá umělou inteligenci (AI), může vytvářet realistické obrázky během několika sekunda pak jej mohou zveřejňovat na sociálních sítích závratnou rychlostí.

V posledních dnech se takových fotek objevilo mnoho Stalo se to virální: Vladimir Putin se zjevně nechal chytit nebo Elon Musk přilnul k generální ředitelce GM Mary Barra, abychom jmenovali alespoň některé.

Problém je v tom, že bOba obrázky AI ukazují události, které se nikdy nestaly. až do Paparazzi zveřejnili selfie což se ukázalo být obrázky generované AI.

A i když některé z těchto obrázků mohou být vtipné, mohou podle expertů, s nimiž DW konzultoval, představovat také skutečná rizika z hlediska dezinformací a propagandy.

Tento virální snímek generovaný umělou inteligencí má zobrazovat Elona Muska s generální ředitelkou General Motors Mary Barra. je to falešné

Zemětřesení se nikdy nestalo

Snímky zachycující zatčení politiků, jako je ruský prezident Vladimir Putin resp Bývalý americký prezident Donald Trump Uživatelé je mohou poměrně rychle ověřit, pokud zkontrolují renomované mediální zdroje.

Jiné obrázky jsou obtížnější, například ten, na kterém lidé na obrázku nejsou rozpoznatelní, řekl DW expert na umělou inteligenci Henry Ader.

Jeden takový příklad: německý krajně pravicový poslanec Alternativní strany a Obraz křičících mužů vytvořený umělou inteligencí na svém instagramovém účtu, aby ukázal, že je proti příchodu uprchlíků.

A podle Ajdera to nejsou jen obrázky lidí generované AI, které mohou šířit dezinformace.

Říká, že existují příklady uživatelů, kteří vytvářejí události, které se nikdy nestaly.

Tak tomu bylo v případě silného zemětřesení, které údajně otřáslo tichomořským severozápadem Spojených států a Kanady v roce 2001.

Ale toto zemětřesení se nikdy nestalo, a Obrázky sdílené na Redditu Vytvořeno umělou inteligencí.

READ  Netgear rozšiřuje řadu routerů WiFi 6E o dvě nové možnosti pro rok 2022

A podle Ádera to může být problém. „Pokud vytváříte spíše krajinu než portrét lidské bytosti, může být těžké ji odhalit,“ vysvětluje.

Nástroje umělé inteligence však dělají chyby, i když se rychle vyvíjejí. Aktuálně, od dubna 2023, programy jako Midjourney, Dall-E a DeepAI trpí závadami, zejména s obrázky, které ukazují lidi.

Tým pro kontrolu faktů DW dal dohromady několik návrhů, které vám mohou pomoci posoudit, zda je fotografie falešná. Ale první upozornění: nástroje umělé inteligence se vyvíjejí tak rychle, že tato rada odráží pouze aktuální stav věcí.

1. Přibližte a pozorně se podívejte

Mnoho obrázků vytvořených umělou inteligencí vypadá na první pohled jako skutečné.

Proto je naším prvním návrhem podívat se na obrázek pozorně. udělat toto, Najděte obrázek v nejvyšším možném rozlišení a poté si přibližte detaily.

Zvětšení obrázku odhalí nesrovnalosti a chyby, které nemusely být na první pohled odhaleny.

2. Najděte obrázek zdroj

Pokud si nejste jisti, zda je obrázek skutečný nebo vytvořený AI, zkuste najít jeho zdroj.

Některé informace o tom, kde byla fotografie poprvé zveřejněna, můžete vidět přečtením komentářů ostatních uživatelů pod fotografií.

Nebo můžete provést reverzní vyhledávání obrázků. Chcete-li to provést, nahrajte obrázek do nástrojů, jako je Google Image Reverse Search, TinEye nebo Yandex a možná najdete původní zdroj obrázku.

Výsledky těchto vyhledávání mohou také obsahovat odkazy na ověření faktů provedené renomovanými médii, které poskytují další kontext.

Na této fotografii má být Putin na kolenou před Si Ťin-pchingem.
Putin se má poklonit Si Ťin-pchingovi, ale bližší pohled ukazuje, že fotografie je falešnáfoto: Twitter/DW

3. Dbejte na tělesné proporce

Mají osoby na obrázku správné tělesné proporce?

Není neobvyklé, že obrázky generované umělou inteligencí vykazují nekonzistence, pokud jde o proporce. Ruce mohou být příliš malé nebo prsty příliš dlouhé. Nebo že hlava a nohy neladí se zbytkem těla.

READ  Odhalují se rizika změny tvaru srážek rizika střídání srážek a návratů páry

To je případ výše uvedené fotografie, na které má být Putin Poklekl před Si Ťin-pchingem. Boty klečící osoby jsou neúměrně velké a široké. Lýtko se zdá protáhlé. Polokrytá hlava je také velmi velká a nepřiměřená zbytku těla.

Více o tomto padělku v naší specializované kontrole faktů.

4. Pozor na typické chyby AI

Ruce jsou v současnosti hlavním zdrojem chyb v AI obrazovém softwaru jako např Midjourney nebo DALL-E.

sLidé mají často šestý prst, jako policista po Putinově levici na naší fotce výše.

nebo také v Toto jsou obrázky papeže Františka, které jste možná viděli.

Uvědomili jste si ale, že papež František má na správné fotografii pouze čtyři prsty? A všimli jste si, že jeho levé prsty jsou nezvykle dlouhé? Tyto obrázky jsou falešné.

Mezi další běžné chyby v obrázcích generovaných umělou inteligencí patří lidé se spoustou zubůnebo Rámy brýlí jsou podivně zdeformovanénebo uši s nereálnými tvary, jako na zmíněné falešné fotografii Si a Putina.

Odrážející se povrchy, jako jsou hledí helmy, také způsobují problémy programům AI, někdy se zdá, že se rozpadnou, jako v případě údajného Putinova zatčení.

Henry je expert na umělou inteligenci Ajder však varuje, že novější verze programů, jako je Midjourney, jsou v generování hand stále lepší, což znamená, že uživatelé se nebudou moci déle spoléhat na zachycení těchto druhů chyb.

5. Vypadá obrázek uměle a jemně?

aplikace Zvláště Midjourney vytváří mnoho obrazů, které se zdají být příliš dobré na to, aby byly pravdivé.

Sledujte svůj vnitřní pocit zde: Mohl by být tento dokonalý obrázek s bezchybnými lidmi skutečně skutečný?

„Tváře jsou velmi čisté a vystavené textilie jsou velmi harmonické,“ řekl DW Andreas Dingel z německého výzkumného centra pro umělou inteligenci.

READ  Tato chyba Chromebooku brání uživatelům v odhlášení ze svých notebooků

Kůže objektů na mnoha snímcích AI je často hladká a bez podráždění a dokonce i jejich vlasy a zuby jsou bezchybné. V reálném životě to tak většinou není.

Mnoho snímků má také umělecký, lesklý a lesklý vzhled, který je pro profesionální fotografy při studiové fotografii těžko dosažitelný.

Zdá se, že nástroje AI často vytvářejí dokonalé obrázky, které mají být dokonalé a uspokojit co nejvíce lidí.

6. Kontrola pozadí

Pozadí fotografie často prozrazuje, zda s ní nebylo manipulováno.

I zde se věci mohou jevit zkreslené; Například, Sloupy veřejného osvětlení.

V několika případech programy AI klonují lidi a objekty a používají je dvakrát. Není neobvyklé, že pozadí obrázků AI je rozmazané.

Ale i toto mlžení může obsahovat chyby. Stejně jako výše uvedený příklad, který má za cíl ukázat naštvaného Willa Smithe na udílení cen Akademie. Pozadí je nejen neostré, ale vypadá uměle rozmazané.

Závěr

Mnoho obrázků generovaných umělou inteligencí existuje dodnes Odhalte s malým průzkumem. Technologie se však zlepšuje a chyby budou v budoucnu pravděpodobně vzácnější. Umět Detektory AI jako Hugging Face Pomůžete nám odhalit manipulaci?

Na základě našich zjištění poskytují detektory stopy, ale nic víc.

Odborníci, s nimiž jsme se dotazovali, mají tendenci je nedoporučovat s tím, že nástroje nejsou dostatečně vyvinuté. I původní fotografie byly prohlášeny za falešné a naopak.

Proto v případě pochybností je nejlepší, co mohou uživatelé udělat, aby rozlišili mezi skutečnými a falešnými událostmi, používat zdravý rozum, spoléhat se na renomovaná média a vyhýbat se sdílení obrázků.

Grafický seznam toho, jak můžete rozpoznat falešné fotografie

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *