Disse menneskene ser kjent ut, som de du har sett på Facebook eller Twitter.

Eller personer som produkt anmeldelser du har lese på Amazon, eller dating profiler du har sett på Knusk.

De ser utrolig ekte ved første øyekast.

Men de finnes ikke.

De var født fra sinnet til en datamaskin.,

Og den teknologien som gjør dem bedre i et forbløffende tempo.

Designet for å Lure: Gjøre Disse Menneskene Ser Virkelig for Deg? Av Kashmir Hill og Jeremy Hvit Nov. 21, 2020

Det er nå bedrifter som selger falske mennesker. På nettstedet Generert.Bilder, kan du kjøpe en «unik, worry-free» falsk person for $2.99, eller 1000 personer for $1,000., Hvis du bare trenger et par av falske folk — for-tegn i et tv-spill eller gjøre din bedrift nettsted fremstår som mer variert — du kan få sine bilder gratis på ThisPersonDoesNotExist.com. Justere sin lignelse som nødvendig, og gjøre dem gamle eller unge eller etnisk bakgrunn av ditt valg. Hvis du vil at falske person animerte, et selskap som heter Rosebud.AI kan gjøre det, og kan til og med få dem til å snakke.,

Disse simulerte folk begynner å vise seg rundt på internett, brukt som masker av virkelige mennesker med ond hensikt: spioner som trenger et attraktivt ansikt i et forsøk på å infiltrere intelligens samfunnet, høyre-fløyen propagandister som gjemmer seg bak falske profiler, foto og alle; online harassers som troll sine mål med et vennlig visage.

Vi laget våre egne A. I. system for å forstå hvor lett det er å generere ulike falske ansikter.

A. I. systemet ser hver ansikt som en kompleks matematisk figur, en rekke verdier som kan bli forskjøvet., Ved å velge forskjellige verdier, som de som bestemmer størrelsen og formen på øynene — kan forandre hele bildet.

Alder

Øyne

Perspektiv

Humør

For andre kvaliteter vårt system brukt en annen tilnærming., I stedet for skiftende verdier som fastsetter spesifikke deler av bildet, systemet først generert to bilder for å etablere en start-og sluttpunkter for alt av verdier, og deretter laget bilder i mellom.

– Kjønn

Rase og Etnisitet

Etableringen av disse typer falske bilder som bare ble mulig i de siste årene, takket være en ny type kunstig intelligens kalt en generativ alternative nettverk. I hovedsak, du mate en datamaskin programmet en haug av bilder av ekte mennesker., Det studier dem og prøver å komme opp med sine egne bilder av mennesker, mens en annen del av systemet prøver å avgjøre hvilken av disse bildene er falske.

Det rygg-og-tilbake gjør sluttproduktet stadig mer umulig å skille fra den ekte varen. Bildene i denne historien ble skapt av Tid ved hjelp av GAN-programvaren som ble gjort offentlig tilgjengelig av datagrafikk selskapet Nvidia.,

Gitt tempoet, det er lett å forestille seg at en ikke så fjern fremtid, som vi er konfrontert med ikke bare ett enkelt portretter av falske mennesker, men hele samlinger av dem — på en fest med falske venner, henge ut med sine falske hunder, som holder sin falske babyer. Det vil bli stadig vanskeligere å fortelle hvem som er ekte online og som er et utslag av en datamaskin er fantasi.

«Når tech først dukket opp i 2014, det var ille det så ut som the Sims,» sa Camille François, en desinformasjon forsker som har som jobb å analysere manipulering av sosiale nettverk., «Det er en påminnelse om hvor raskt teknologien kan utvikle seg. Deteksjon vil bare bli vanskeligere over tid.»

Fremskritt innen ansikts-fakery har blitt gjort mulig i en del fordi teknologien har blitt så mye bedre på å identifisere viktige ansiktstrekk. Du kan bruke ansiktet ditt til å låse opp din smarttelefon, eller fortelle dine bilde-programvare for å sortere gjennom tusenvis av bilder og vise dere bare de av barnet., Ansiktsgjenkjenning programmer brukes av politiet til å identifisere og arrestere mistenkte kriminelle (og også ved noen aktivister til å avsløre identiteten til politiet som dekker sine navnelapper i et forsøk på å forbli anonym). Et selskap som heter Clearview AI skrapet nettet av milliarder av offentlige bilder — tilfeldig felles online av daglige brukere — å lage en app i stand til å gjenkjenne en fremmed fra bare ett bilde. Teknologien lover supermaktene: evnen til å organisere og behandle verden på en måte som ikke var mulig før.,

Men ansikts-anerkjennelse algoritmer, som andre A. I. systemer, er ikke perfekt. Takk til underliggende skjevhet i dataene brukes til å trene dem, noen av disse systemene er ikke så god, for eksempel, ved å gjenkjenne folk av farge. I 2015, et tidlig bilde-detection system utviklet av Google merket to Svarte mennesker som «gorillaer, mest sannsynlig fordi systemet hadde blitt foret med mange flere bilder av gorillaer enn av mennesker med mørk hud.,

Videre, kameraer — øynene for ansikts-anerkjennelse systemer — er ikke så god på å fange folk med mørk hud; som uheldig standard dateres til begynnelsen av filmen utvikling, når bildene ble kalibrert til beste vis ansiktene av lys mørkhudede mennesker. Konsekvensene kan bli alvorlige. I januar, en Svart mann i Detroit heter Robert Williams ble arrestert for en forbrytelse han ikke har begått på grunn av en feil ansikts-anerkjennelse kampen.

Kunstig intelligens kan gjøre livene våre lettere, men til syvende og sist det er så feil som vi er, fordi vi er bak det hele., Mennesker velge hvordan A. I. systemer som er gjort og hvilke data de er utsatt for. Vi velger det stemmer som underviser virtual assistenter til å høre, fører disse systemene er ikke å forstå mennesker med aksenter. Vi lager et dataprogram for å forutsi en persons kriminell atferd ved å mate det data om tidligere avgjørelser gjort av menneskelig dommere — og i prosessen baking i de dommere’ skjevheter. Vi label bilder som tog datamaskiner til å se; de deretter knytte briller med «dweebs» eller «nerder.»

Du kan se noen av feilene og mønstrene vi fant at våre A. I., systemet igjen når det var tryllekunster falske ansikter.

Mote tilbehør kan føre til problemer.

Øredobber, for eksempel, kan se like ut, men ofte kan ikke stemme nøyaktig overens.

GANs vanligvis trene på reelle bilder som har vært sentrert, skaleres og beskåret.

Som et resultat, hvert øye kan være den samme avstanden fra sentrum.

Briller er vanlig tilbehør i mange av de falske bilder.,

De har en tendens til å ha tynne rammer, med bitene som ikke passer.

de Fleste av oss ikke har perfekt symmetrisk funksjoner, og systemet er god på å gjenskape dem.

Men som et resultat, kan den produsere dype avtrykk i det ene øret som ikke kan være til stede i den andre.

Så er det odder gjenstander som kan dukke opp ut av intet.

de Fleste ofte de er bare en del av bildet, men hvis du ser nøye nok, er det vanskelig å unsee det.,

noen Ganger, ledetråder om et bilde er falske, ikke i en persons funksjoner.

Abstrakt eller uskarpe bakgrunner er ofte trekninger.

Mennesker feile, selvfølgelig: Vi overser eller glasur siste feilene i disse systemene, alt for rask til å stole på at datamaskiner er hyper-rasjonell, objektiv, alltid har rett., Studier har vist at i situasjoner hvor mennesker og datamaskiner må samarbeide for å ta en avgjørelse — å identifisere fingeravtrykk eller menneskelige ansikter — folk konsekvent gjort feil identifikasjon når en datamaskin dyttet dem til å gjøre det. I de tidlige dagene av dashbordet GPS-systemer, drivere kjent fulgt enheter veibeskrivelse til en feil, kan du sende biler i innsjøer, av klipper og i trær.

Er dette ydmykhet eller overmot? Vi legger for liten verdi i menneskelig intelligens — eller gjør vi overrate det, forutsatt at vi er så smart at vi kan lage ting smartere fortsatt?,

algoritmene som Google og Bing sortere verdens kunnskap for oss. Facebook sin newsfeed filtre oppdateringer fra våre sosiale sirkler, og bestemmer seg for noe som er viktig nok til å vise oss. Med self-driving funksjoner i biler, vi setter vår sikkerhet i hendene (og øyne) av programvare. Vi legger stor tillit i disse systemene, men de kan være så ufeilbarlige som oss.

Flere Artikler om Kunstig Intelligens:

Trening Facial Anerkjennelse på Noen Nye Pelskledde Venner: Bjørn

Antistoffer God. Maskin-Laget Molekyler Bedre?,

Disse Algoritmene Kan Få en Slutt på «World’ s Deadliest Killer

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *