dessa personer kan se bekanta ut, som de du har sett på Facebook eller Twitter.

eller personer vars produktrecensioner du har läst på Amazon, eller dejting profiler du har sett på Tinder.

de ser fantastiskt verkliga vid första anblicken.

men de finns inte.

de föddes ur minnet av en dator.,

och tekniken som gör dem förbättras i en häpnadsväckande takt.

utformad för att lura: ser dessa människor verkliga ut för dig? Av Kashmir Hill och Jeremy White Nov. 21, 2020

det finns nu företag som säljer falska människor. På webbplatsen genereras.Foton, du kan köpa en ”unik, bekymmersfri” falsk person för $ 2,99, eller 1,000 personer för $1,000., Om du bara behöver ett par falska människor-för tecken i ett videospel, eller för att göra ditt företags hemsida visas mer varierande – Du kan få sina bilder gratis på ThisPersonDoesNotExist.com. justera deras likhet efter behov; gör dem gamla eller unga eller etnicitet som du väljer. Om du vill ha din falska person animerad, ett företag som heter Rosebud.AI kan göra det och kan även få dem att prata.,

dessa simulerade människor börjar dyka upp runt internet, används som masker av riktiga människor med skändlig avsikt: spioner som gör ett attraktivt ansikte i ett försök att infiltrera underrättelsesamhället; högerpropagandister som gömmer sig bakom falska profiler, foto och allt; Online trakasserare som trollar sina mål med en vänlig visage.

vi skapade vårt eget A. I.-system för att förstå hur lätt det är att generera olika falska ansikten.

AI-systemet ser varje ansikte som en komplex matematisk figur, ett antal värden som kan flyttas., Att välja olika värden — som de som bestämmer ögonens storlek och form-kan förändra hela bilden.

ålder

Ögon

perspektiv

humör

för andra egenskaper använde vårt system ett annat tillvägagångssätt., Istället för att flytta värden som bestämmer specifika delar av bilden genererade systemet först två bilder för att fastställa start-och slutpunkter för alla värden och skapade sedan bilder däremellan.

kön

ras och etnicitet

skapandet av dessa typer av falska bilder blev bara möjligt under de senaste åren tack vare en ny typ av artificiell intelligens som kallas ett generativt motståndarnätverk. I huvudsak matar du ett datorprogram en massa bilder av riktiga människor., Det studerar dem och försöker komma med egna bilder av människor, medan en annan del av systemet försöker upptäcka vilka av dessa bilder som är falska.

fram och tillbaka gör slutprodukten ännu mer omöjlig att skilja från den äkta varan. Porträtten i den här historien skapades av tiderna med hjälp av gan-programvara som gjordes offentligt tillgänglig av datorgrafikföretaget Nvidia.,

med tanke på förbättringstakten är det lätt att föreställa sig en inte så avlägsen framtid där vi konfronteras med inte bara enstaka porträtt av falska människor utan hela samlingar av dem-på en fest med falska vänner, umgås med sina falska hundar och håller sina falska barn. Det blir allt svårare att berätta vem som är riktig online och vem som är en bild av en dators fantasi.

”När tekniken först dök upp i 2014 var det dåligt — det såg ut som The Sims”, säger Camille François, en disinformation forskare vars jobb är att analysera manipulation av sociala nätverk., ”Det är en påminnelse om hur snabbt tekniken kan utvecklas. Upptäckt kommer bara att bli svårare med tiden.”

framsteg i ansiktsfakeri har gjorts möjliga delvis eftersom tekniken har blivit så mycket bättre på att identifiera viktiga ansiktsdrag. Du kan använda ditt ansikte för att låsa upp din smartphone, eller berätta ditt foto programvara för att sortera igenom dina tusentals bilder och visa dig bara de av ditt barn., Ansiktsigenkänningsprogram används av brottsbekämpning för att identifiera och arrestera kriminella misstänkta (och även av vissa aktivister för att avslöja identiteterna hos poliser som täcker deras namntaggar i ett försök att förbli anonyma). Ett företag som heter Clearview AI skrapade webben av miljarder offentliga bilder-tillfälligt delas online av vardagliga användare – för att skapa en app som kan känna igen en främling från bara ett foto. Tekniken lovar supermakter: förmågan att organisera och bearbeta världen på ett sätt som inte var möjligt tidigare.,

men algoritmer för ansiktsigenkänning, liksom andra A. I.-system, är inte perfekta. Tack vare underliggande bias i de data som används för att träna dem, är några av dessa system inte lika bra, till exempel att känna igen människor av färg. I 2015, ett tidigt bilddetekteringssystem utvecklat av Google märkt två svarta människor som ”gorillor”, troligen eftersom systemet hade matats många fler bilder av gorillor än människor med mörk hud.,

dessutom är kameror — ögonen på ansiktsigenkänningssystem-inte lika bra på att fånga människor med mörk hud; de olyckliga standarddatumen till de tidiga dagarna av filmens utveckling, när bilder kalibrerades för att bäst visa ansikten av ljushyade människor. Konsekvenserna kan vara allvarliga. I Januari arresterades en svart man i Detroit som heter Robert Williams för ett brott som han inte begått på grund av en felaktig ansiktsigenkänningsmatch.

artificiell intelligens kan göra våra liv enklare, men i slutändan är det lika bristfälligt som vi är, eftersom vi ligger bakom allt., Människor väljer hur AI-system görs och vilka data de utsätts för. Vi väljer de röster som lär virtuella assistenter att höra, vilket leder till att dessa system inte förstår människor med accenter. Vi utformar ett datorprogram för att förutsäga en persons kriminella beteende genom att mata den data om tidigare domar som gjorts av mänskliga domare-och i processen bakning i domarnas fördomar. Vi märker de bilder som tränar datorer för att se; de associerar sedan glasögon med” dweebs ”eller” nördar.”

du kan upptäcka några av de misstag och mönster som vi fann att vår A. I., systemet upprepas när det var trolla falska ansikten.

modeaccessoarer kan orsaka problem.

örhängen, Till exempel, kan se liknande men ofta kanske inte exakt matchar.

GANs tränar vanligtvis på riktiga fotografier som har centrerats, skalats och beskärts.

som ett resultat kan varje öga vara samma avstånd från mitten.

glasögon är vanliga tillbehör i många av de falska bilderna.,

de tenderar att ha tunna ramar, med ändstycken som kanske inte matchar.

de flesta av oss har inte helt symmetriska funktioner, och systemet är bra på att återskapa dem.

men som ett resultat kan det producera djupa fördjupningar i ett öra som kanske inte finns i det andra.

då finns det odder artefakter som kan visas från ingenstans.

oftast är de bara i en del av bilden, men om du tittar tillräckligt noga är det svårt att unsee det.,

ibland finns inte ledtrådarna om huruvida en bild är falsk i en persons funktioner.

abstrakta eller suddiga bakgrunder ges ofta.

människor fel, naturligtvis: vi förbise eller glasyr förbi bristerna i dessa system, alltför snabbt att lita på att datorer är hyper rationell, objektiv, alltid rätt., Studier har visat att i situationer där människor och datorer måste samarbeta för att fatta ett beslut — att identifiera fingeravtryck eller mänskliga ansikten — människor konsekvent gjort fel identifiering när en dator knuffade dem att göra det. I början av dashboard GPS-system följde förarna famously apparaternas anvisningar till ett fel, skickade bilar till sjöar, av klippor och in i träd.

är detta ödmjukhet eller hybris? Lägger vi för lite värde i mänsklig intelligens — eller överskattar vi det, förutsatt att vi är så smarta att vi kan skapa saker smartare fortfarande?,

algoritmerna för Google och Bing sorterar världens kunskap för oss. Facebook: s newsfeed filtrerar uppdateringarna från våra sociala kretsar och bestämmer vilka som är viktiga nog att visa oss. Med självkörande funktioner i bilar sätter vi vår säkerhet i händerna (och ögonen) av programvara. Vi förlitar oss mycket på dessa system, men de kan vara lika svaga som vi.

fler artiklar om artificiell intelligens:

utbildning ansiktsigenkänning på några nya lurviga vänner: björnar

antikroppar bra. Maskintillverkade Molekyler Bättre?,

dessa algoritmer kan få ett slut på världens dödligaste mördare

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *