Tito lidé mohou připadat povědomý, jako ty, které jste viděli na Facebook nebo Twitter.
nebo lidé, jejichž recenze produktů jste četli na Amazonu, nebo seznamovací profily, které jste viděli na Tinderovi.
na první pohled vypadají úžasně reálně.
ale neexistují.
narodili se z mysli počítače.,
a technologie, která je činí, se zlepšuje překvapivým tempem.
nyní existují podniky, které prodávají falešné lidi. Na webových stránkách generované.Fotografie, můžete si koupit“ jedinečný, bezstarostný “ falešný člověk za $2.99, nebo 1,000 Lidé za $1,000., Pokud potřebujete jen pár falešných lidí — pro postavy ve hře, nebo vytvořit webové stránky vaší společnosti se objeví více rozmanité — můžete si své fotky zdarma na ThisPersonDoesNotExist.com. Upravit jejich podobu podle potřeby, aby jim starý nebo mladý nebo etnický původ vašeho výběru. Pokud chcete, aby vaše falešná osoba byla animována, společnost s názvem Rosebud.AI může to udělat a může je dokonce přimět mluvit.,
Tyto simulované lidí se začíná projevovat až kolem internetu, který se používá jako masky skuteční lidé s zločinný záměr: špioni, kteří si atraktivní tvář ve snaze proniknout do zpravodajské komunity; pravicoví propagandisté, kteří se schovávají za falešné profily, fotografie a všechny, online harassers, kteří troll své cíle s přátelskou vizáží.
vytvořili jsme vlastní systém AI, abychom pochopili, jak snadné je generovat různé falešné tváře.
systém a. i. vidí každou tvář jako komplexní matematickou postavu, rozsah hodnot, které lze posunout., Výběr různých hodnot — jako ty, které určují velikost a tvar očí — může změnit celý obraz.
Pro další vlastnosti, náš systém používá jiný přístup., Místo posunu hodnoty, které určují konkrétní části obrazu, systém nejprve generovány dva obrázky stanovit počáteční a koncové body pro všechny hodnoty, a potom vytvořil obrazy v mezi.
Vytvoření těchto typů falešné obrazy bylo možné v posledních letech díky novým typem umělé inteligence nazývá generativní sporné sítě. V podstatě krmíte počítačový program spoustou fotografií skutečných lidí., Studuje je a snaží se přijít s vlastními fotografiemi lidí, zatímco jiná část systému se snaží zjistit, která z těchto fotografií je falešná.
back-and-forth činí konečný produkt stále nerozeznatelnějším od skutečné věci. Portréty v tomto příběhu byly vytvořeny The Times pomocí softwaru GAN, který byl veřejně dostupný počítačovou grafickou společností Nvidia.,
Vzhledem k tomu, tempo zlepšení, je snadné si představit ne-tak-vzdálené budoucnosti, v níž jsme konfrontováni s ne jen jeden portréty falešné lidi, ale celou kolekcí z nich — na párty s falešnými přáteli, visí ven s jejich falešný psy, drží své falešné děti. Bude stále obtížnější zjistit, kdo je skutečný online a kdo je výplodem představivosti počítače.
“ když se technologie poprvé objevila v roce 2014, bylo to špatné — vypadalo to jako Sims,“ řekla Camille François, dezinformační výzkumnice, jejímž úkolem je analyzovat manipulaci se sociálními sítěmi., „Je to připomínka toho, jak rychle se technologie může vyvíjet. Detekce bude jen těžší v průběhu času.“
pokroky v facial fakery byly částečně umožněny, protože technologie se stala mnohem lepší při identifikaci klíčových rysů obličeje. Můžete použít svou tvář k odemknutí smartphonu, nebo řekněte svému fotografickému softwaru, aby třídil tisíce obrázků a ukázal vám pouze fotografie vašeho dítěte., Rozpoznávání obličeje programy jsou používány vymáhání práva k identifikaci a zatčení trestní podezřelých (a také podle některých aktivistů odhalit totožnost policisté, kteří pokrývají jejich název kategorie, ve snaze zůstat v anonymitě). Společnost s názvem Clearview AI škrabal web miliard veřejné fotografie — mimochodem sdílené on-line tím, že každodenní uživatelé — vytvořit aplikaci schopnou rozpoznávat cizí od jen jednu fotografii. Technologie slibuje velmoci: schopnost organizovat a zpracovávat svět způsobem, který dříve nebyl možný.,
ale algoritmy rozpoznávání obličeje, stejně jako jiné systémy a.I., nejsou dokonalé. Díky základní zaujatosti v datech používaných k jejich školení, některé z těchto systémů nejsou tak dobré, například, při rozpoznávání barevných lidí. V roce 2015, brzy obraz-detekční systém vyvinutý společností Google označeno dvěma černochy jako „gorily,“ s největší pravděpodobností, protože systém byl fed mnoho další fotky goril než lidé s tmavou kůží.,
kromě toho, kamery — oči z obličeje-rozpoznávání systémy — nejsou tak dobré na zachycení lidí s tmavou kůží; ten nešťastný standardní termíny na počátcích filmu vývoje, kdy fotografie byly kalibrovány na nejlepší show, tváře, lidé se světlou pletí. Důsledky mohou být závažné. V lednu, Černoch v Detroitu jménem Robert Williams byl zatčen za zločin, který nespáchal kvůli nesprávnému zápasu rozpoznávání obličeje.
Umělá inteligence může usnadnit náš život, ale nakonec je stejně Chybná jako my, protože jsme za tím vším., Lidé si vybírají, jak jsou A.i. systémy vytvářeny a jaká data jsou vystavena. Vybíráme hlasy, které učí virtuální asistenty slyšet, což vede k tomu, že tyto systémy nerozumí lidem s akcenty. Jsme design počítačový program předpovědět, člověk je kriminální chování krmení údaje o minulých rozhodnutích, která z lidských soudců — a v procesu pečení v těch soudců předsudky. Označujeme obrázky, které trénují počítače k vidění; pak spojují brýle s „dweebs“ nebo „nerds.“
můžete si všimnout některých chyb a vzorů, které jsme zjistili, že naše A. I., systém se opakoval, když vykouzlil falešné tváře.
Módní doplňky může způsobit problémy.například náušnice
mohou vypadat podobně, ale často se nemusí přesně shodovat.
GANs obvykle trénovat na reálných fotografiích, které byly na střed, měřítko a oříznutí.
v důsledku toho může být každé oko stejné vzdálenosti od středu.
brýle jsou běžným doplňkem mnoha falešných obrázků.,
mají tendenci mít tenké rámy, s koncovými kusy, které se nemusí shodovat.
Většina z nás nemá dokonale symetrické rysy, a systém je dobrý na jejich znovuvytvoření.
ale v důsledku toho může produkovat hluboké zářezy v jednom uchu, které nemusí být přítomny v druhém.
pak existují podivnější artefakty, které se mohou objevit z ničeho.
nejčastěji jsou pouze v jedné části obrazu, ale pokud se podíváte dostatečně pozorně, je těžké jej odepřít.,
někdy stopy o tom, zda je obraz falešný, nejsou ve vlastnostech člověka.
abstraktní nebo rozmazané pozadí jsou často dárky.
Lidé se mýlit, samozřejmě: ignorujeme nebo glazura minulosti nedostatky v těchto systémech, příliš rychle věřit, že počítače jsou hyper-racionální, objektivní, vždy pravdu., Studie ukázaly, že v situacích, kdy lidé a počítače, musí spolupracovat se rozhodnout — identifikovat otisky prstů nebo lidské tváře — lidé konzistentně špatné identifikace, kdy počítač šťouchl jim, aby tak učinily. V počátcích palubní desky GPS systémy, řidiči skvěle sledovali pokyny zařízení k poruše, posílat auta do jezer, off cliffs a do stromů.
je to pokora nebo arogance? Klademe příliš malou hodnotu do lidské inteligence-nebo ji překonáváme, za předpokladu, že jsme tak chytří, že můžeme stále vytvářet věci chytřejší?,
algoritmy Google a Bing třídí světové znalosti pro nás. Facebook newsfeed filtruje aktualizace z našich sociálních kruhů a rozhoduje, které jsou dostatečně důležité, aby nám to ukázaly. Se samořídícími funkcemi v automobilech dáváme naši bezpečnost do rukou (a očí) softwaru. Vkládáme do těchto systémů velkou důvěru, ale mohou být stejně omylné jako my.
Další články o umělé inteligenci:
trénink rozpoznávání obličeje u některých nových chlupatých přátel: medvědi
protilátky dobré. Strojově Vyrobené Molekuly Lepší?,
tyto algoritmy by mohly ukončit Nejsmrtelnějšího vraha na světě