Aceste persoane pot arata familiar, ca și cum le-ați văzut pe Facebook sau Twitter.sau persoane ale căror recenzii despre produse le-ați citit pe Amazon sau profiluri de întâlniri pe care le-ați văzut pe Tinder.
arată uimitor de real la prima vedere.dar ele nu există.ei s-au născut din mintea unui computer.,și tehnologia care le face se îmbunătățește într-un ritm uimitor.
acum există întreprinderi care vând oameni falsi. Pe site-ul generat.Fotografii, puteți cumpăra o persoană falsă” unică, fără griji” pentru 2,99 USD sau 1,000 de persoane pentru 1,000 USD., Dacă aveți nevoie doar de câteva persoane false — pentru personaje într-un joc video, sau pentru a face site-ul companiei apar mai diverse — puteți obține fotografii gratuit pe ThisPersonDoesNotExist.com. Reglați asemănarea lor după cum este necesar; le face bătrân sau tânăr sau etnie de alegerea ta. Dacă doriți ca persoana dvs. falsă să fie animată, o companie numită Rosebud.AI poate face asta și poate chiar să-i facă să vorbească.,
Aceste simulat oamenii încep să apară în jurul valorii de internet, folosit ca măști de oameni reali, cu nefaste intenție: spioni care să o față atractivă, într-un efort de a se infiltra în comunitatea de informații; dreapta propagandiști care se ascund în spatele profile false, foto și toate; online agresorilor care troll obiectivele lor cu un amical visage.
am creat propriul nostru sistem AI pentru a înțelege cât de ușor este să generezi diferite fețe false.
sistemul A. I. vede fiecare față ca o figură matematică complexă, o serie de valori care pot fi schimbate., Alegerea diferitelor valori — precum cele care determină dimensiunea și forma ochilor — poate modifica întreaga imagine.
Pentru alte calități, sistemul nostru a folosit o abordare diferită., În loc să schimbe valorile care determină anumite părți ale imaginii, sistemul a generat mai întâi două imagini pentru a stabili punctele de început și de sfârșit pentru toate valorile și apoi a creat imagini între ele.
Crearea acestor tipuri de false imagini a devenit posibil în ultimii ani, datorită unui nou tip de inteligență artificială numit un generator contradictorialității rețea. În esență, alimentați un program de calculator o grămadă de fotografii de oameni reali., Le studiază și încearcă să vină cu propriile fotografii ale oamenilor, în timp ce o altă parte a sistemului încearcă să detecteze care dintre aceste fotografii sunt false.
înainte și înapoi face ca produsul final să fie din ce în ce mai indistinguizabil de lucrul real. Portretele din această poveste au fost create de The Times folosind software-ul GAN care a fost pus la dispoziția publicului de către compania de grafică computerizată Nvidia.,având în vedere ritmul de îmbunătățire, este ușor să ne imaginăm un viitor nu atât de îndepărtat în care ne confruntăm nu doar cu portrete unice ale oamenilor falși, ci cu colecții întregi ale acestora-la o petrecere cu prieteni falși, care stau cu câinii lor falși, ținându-și copiii falși. Va deveni din ce în ce mai dificil să spui cine este real online și cine este o plăsmuire a imaginației unui computer.
„când tehnologia a apărut pentru prima dată în 2014, a fost rău — arăta ca The Sims”, a spus Camille François, un cercetător de dezinformare a cărui sarcină este de a analiza manipularea rețelelor sociale., „Este o reamintire a cât de repede poate evolua tehnologia. Detectarea va primi doar mai greu în timp.”
progresele în falsificarea facială au fost posibile în parte, deoarece tehnologia a devenit mult mai bună în identificarea caracteristicilor faciale cheie. Puteți să vă folosiți fața pentru a debloca smartphone-ul sau să spuneți software-ului dvs. foto să sorteze mii de imagini și să vă arate doar cele ale copilului dvs., Programele de recunoaștere facială sunt utilizate de forțele de ordine pentru a identifica și aresta suspecții criminali (și, de asemenea, de unii activiști pentru a dezvălui identitatea ofițerilor de poliție care își acoperă etichetele de nume în încercarea de a rămâne anonimi). O companie numită Clearview AI a răzuit Web-ul a miliarde de fotografii publice — distribuite ocazional online de utilizatorii de zi cu zi — pentru a crea o aplicație capabilă să recunoască un străin dintr-o singură fotografie. Tehnologia promite superputeri: capacitatea de a organiza și procesa lumea într-un mod care nu era posibil înainte.,dar algoritmii de recunoaștere facială, ca și alte sisteme AI, nu sunt perfecți. Datorită prejudecăților care stau la baza datelor folosite pentru a le antrena, unele dintre aceste sisteme nu sunt la fel de bune, de exemplu, la recunoașterea oamenilor de culoare. În 2015, un sistem timpuriu de detectare a imaginilor dezvoltat de Google a etichetat doi oameni negri drept „gorile”, cel mai probabil pentru că sistemul a fost hrănit cu mai multe fotografii cu gorile decât cu oameni cu piele întunecată.,mai mult decât atât, camerele — ochii sistemelor de recunoaștere facială-nu sunt la fel de buni la capturarea oamenilor cu pielea întunecată; acel standard nefericit datează din primele zile ale dezvoltării filmului, când fotografiile au fost calibrate pentru a arăta cel mai bine fețele oamenilor cu piele deschisă. Consecințele pot fi grave. În ianuarie, un bărbat Negru Din Detroit pe nume Robert Williams a fost arestat pentru o crimă pe care nu a comis-o din cauza unui meci incorect de recunoaștere facială.inteligența artificială ne poate face viața mai ușoară, dar în cele din urmă este la fel de defectuoasă ca și noi, pentru că suntem în spatele tuturor., Oamenii aleg modul în care sunt fabricate sistemele AI și la ce date sunt expuse. Alegem vocile care îi învață pe asistenții virtuali să audă, conducând aceste sisteme să nu înțeleagă oamenii cu accente. Proiectăm un program de calculator pentru a prezice comportamentul infracțional al unei persoane prin furnizarea de date despre hotărârile anterioare ale judecătorilor umani — și în procesul de coacere în prejudecățile acelor judecători. Etichetăm imaginile pe care le antrenează calculatoarele pentru a le vedea; apoi asociază ochelarii cu „dweebs” sau „tocilari.”
puteți observa unele dintre greșelile și modelele pe care le-am constatat că ai-ul nostru, sistemul s-a repetat când evoca chipuri false.
Accesorii de moda pot cauza probleme.Cercei, de exemplu, ar putea arata similar, dar de multe ori nu se potrivesc exact.GANs de obicei tren pe fotografii reale, care au fost centrate, scalate și trunchiate.ca urmare, fiecare ochi poate fi la aceeași distanță de centru.
ochelarii sunt accesorii comune în multe dintre imaginile false.,ele tind să aibă cadre subțiri, cu piese de capăt care nu se potrivesc.cei mai mulți dintre noi nu au caracteristici perfect simetrice, iar sistemul este bun la recrearea lor.dar, ca rezultat, poate produce indentări profunde într-o ureche care nu pot fi prezente în cealaltă.
apoi, există artefacte odder care pot apărea de nicăieri.cel mai adesea sunt doar într-o parte a imaginii, dar dacă te uiți destul de atent, este greu să o vezi.,uneori, indicii despre dacă o imagine este fals nu sunt în caracteristicile unei persoane.
fundalurile abstracte sau neclare sunt adesea cadouri.oamenii greșesc, desigur: trecem cu vederea sau trecem cu vederea defectele din aceste sisteme, prea repede pentru a avea încredere că computerele sunt hiper-raționale, obiective, întotdeauna corecte., Studiile au arătat că, în situațiile în care oamenii și computerele trebuie să coopereze pentru a lua o decizie — pentru a identifica amprentele digitale sau fețele umane — oamenii au făcut în mod constant identificarea greșită atunci când un computer le-a împins să facă acest lucru. În primele zile ale sistemelor GPS de bord, șoferii au urmat în mod faimos indicațiile dispozitivelor până la o defecțiune, trimițând mașini în lacuri, de pe stânci și în copaci.
este această umilință sau orgoliu? Punem prea puțină valoare în inteligența umană — sau o depășim, presupunând că suntem atât de inteligenți încât putem crea lucruri mai inteligente?,algoritmii Google și Bing sortează cunoștințele lumii pentru noi. Newsfeed-ul Facebook filtrează actualizările din cercurile noastre sociale și decide care sunt suficient de importante pentru a ne arăta. Cu funcții de auto-conducere în mașini, ne punem siguranța în mâinile (și ochii) software-ului. Punem multă încredere în aceste sisteme, dar ele pot fi la fel de failibile ca noi.mai multe articole despre inteligența artificială:
formarea recunoașterii faciale pe niște prieteni noi cu blană: Urșii
anticorpi buni. Moleculele Fabricate De Mașini Sunt Mai Bune?,
acești algoritmi ar putea pune capăt celui mai mortal criminal din lume