Queste persone possono sembrare familiari, come quelle che hai visto su Facebook o Twitter.

O persone le cui recensioni di prodotti che hai letto su Amazon, o incontri profili che hai visto su Tinder.

Sembrano incredibilmente reali a prima vista.

Ma non esistono.

Sono nati dalla mente di un computer.,

E la tecnologia che li rende sta migliorando ad un ritmo sorprendente.

Progettato per ingannare: queste persone ti sembrano reali? Con Kashmir Hill e Jeremy Bianco Novembre. 21, 2020

Ora ci sono aziende che vendono persone false. Sul sito web generato.Foto, è possibile acquistare un” unico, worry-free ” persona falso per $2.99, o 1.000 persone per $1.000., Se hai solo bisogno di un paio di persone false – per i personaggi di un videogioco o per rendere il tuo sito Web aziendale più diversificato-puoi ottenere le loro foto gratuitamente su ThisPersonDoesNotExist.com. Regola la loro somiglianza secondo necessità; rendili vecchi o giovani o l’etnia di tua scelta. Se vuoi che la tua persona falsa sia animata, una società chiamata Rosebud.AI può farlo e può anche farli parlare.,

Queste persone simulate stanno iniziando a comparire su Internet, usate come maschere da persone reali con intenti nefasti: spie che indossano un volto attraente nel tentativo di infiltrarsi nella comunità di intelligence; propagandisti di destra che si nascondono dietro falsi profili, foto e tutto; molestatori online che troll i loro obiettivi con un volto amichevole.

Abbiamo creato il nostro sistema A. I. per capire quanto sia facile generare diversi volti falsi.

Il sistema A. I. vede ogni faccia come una figura matematica complessa, un intervallo di valori che può essere spostato., La scelta di valori diversi — come quelli che determinano la dimensione e la forma degli occhi-può alterare l’intera immagine.

Età

Occhi

Prospettiva

Umore

Per altre qualità, il nostro sistema utilizzato un approccio diverso., Invece di spostare i valori che determinano parti specifiche dell’immagine, il sistema ha prima generato due immagini per stabilire i punti iniziali e finali per tutti i valori e quindi creato le immagini intermedie.

Genere

la Razza e l’Etnia

La creazione di questi tipi di immagini false sono stati resi possibili solo negli ultimi anni grazie ad un nuovo tipo di intelligenza artificiale chiamato generativa contraddittorio rete. In sostanza, si alimenta un programma per computer un sacco di foto di persone reali., Li studia e cerca di trovare le proprie foto di persone, mentre un’altra parte del sistema cerca di rilevare quali di quelle foto sono false.

L’avanti e indietro rende il prodotto finale sempre più indistinguibile dalla cosa reale. I ritratti in questa storia sono stati creati dal Times utilizzando il software GAN che è stato reso disponibile al pubblico dalla società di computer grafica Nvidia.,

Dato il ritmo di miglioramento, è facile immaginare un futuro non così lontano in cui ci troviamo di fronte non solo a singoli ritratti di persone finte ma a intere collezioni di loro-a una festa con amici finti, in giro con i loro falsi cani, tenendo i loro finti bambini. Diventerà sempre più difficile dire chi è reale online e chi è frutto dell’immaginazione di un computer.

“Quando la tecnologia è apparsa per la prima volta nel 2014, era cattiva — sembrava the Sims”, ha detto Camille François, un ricercatore di disinformazione il cui compito è analizzare la manipolazione dei social network., “È un promemoria di quanto velocemente la tecnologia può evolvere. Rilevamento sarà solo ottenere più difficile nel tempo.”

I progressi nella falsificazione facciale sono stati resi possibili in parte perché la tecnologia è diventata molto migliore nell’identificare le caratteristiche facciali chiave. È possibile utilizzare il viso per sbloccare lo smartphone, o dire al vostro software foto per ordinare attraverso le migliaia di immagini e vi mostrerà solo quelli del vostro bambino., I programmi di riconoscimento facciale sono utilizzati dalle forze dell’ordine per identificare e arrestare sospetti criminali (e anche da alcuni attivisti per rivelare le identità degli agenti di polizia che coprono i loro tag nome nel tentativo di rimanere anonimi). Una società chiamata Clearview AI ha raschiato il web di miliardi di foto pubbliche-casualmente condivise online dagli utenti di tutti i giorni — per creare un’app in grado di riconoscere un estraneo da una sola foto. La tecnologia promette superpoteri: la capacità di organizzare ed elaborare il mondo in un modo che non era possibile prima.,

Ma gli algoritmi di riconoscimento facciale, come altri sistemi IA, non sono perfetti. Grazie al pregiudizio sottostante nei dati utilizzati per addestrarli, alcuni di questi sistemi non sono così buoni, ad esempio, nel riconoscere le persone di colore. Nel 2015, un primo sistema di rilevamento delle immagini sviluppato da Google etichettato due persone di colore come “gorilla”, molto probabilmente perché il sistema era stato alimentato molte più foto di gorilla che di persone con la pelle scura.,

Inoltre, le telecamere — gli occhi dei sistemi di riconoscimento facciale-non sono così bravi a catturare le persone con la pelle scura; quello sfortunato standard risale ai primi giorni dello sviluppo del film, quando le foto sono state calibrate per mostrare al meglio i volti delle persone dalla pelle chiara. Le conseguenze possono essere gravi. A gennaio, un uomo di colore a Detroit di nome Robert Williams è stato arrestato per un crimine che non ha commesso a causa di una corrispondenza di riconoscimento facciale errata.

L’intelligenza artificiale può rendere la nostra vita più facile, ma alla fine è imperfetto come siamo, perché siamo dietro tutto questo., Gli esseri umani scelgono come i sistemi A. I. sono fatti e quali dati sono esposti a. Scegliamo le voci che insegnano agli assistenti virtuali a sentire, portando questi sistemi a non capire le persone con accenti. Progettiamo un programma per computer per prevedere il comportamento criminale di una persona alimentando i dati sulle sentenze passate fatte da giudici umani — e nel processo di cottura nei pregiudizi di quei giudici. Etichettiamo le immagini che addestrano i computer a vedere; poi associano gli occhiali a “dweebs” o ” nerds.”

È possibile individuare alcuni degli errori e modelli che abbiamo trovato che il nostro A. I., sistema ripetuto quando evocava volti falsi.

Gli accessori moda possono causare problemi.

Gli orecchini, ad esempio, potrebbero sembrare simili ma spesso potrebbero non corrispondere esattamente.

I GAN in genere si allenano su fotografie reali che sono state centrate, ridimensionate e ritagliate.

Di conseguenza, ogni occhio può essere alla stessa distanza dal centro.

Gli occhiali sono accessori comuni in molte delle immagini false.,

Tendono ad avere cornici sottili, con pezzi finali che potrebbero non corrispondere.

La maggior parte di noi non ha caratteristiche perfettamente simmetriche e il sistema è bravo a ricrearle.

Ma di conseguenza, può produrre profonde rientranze in un orecchio che potrebbero non essere presenti nell’altro.

Poi ci sono artefatti più strani che possono apparire dal nulla.

Molto spesso sono solo in una parte dell’immagine, ma se si guarda abbastanza da vicino, è difficile non vederlo.,

A volte, gli indizi sul fatto che un’immagine sia falsa non sono nelle caratteristiche di una persona.

Gli sfondi astratti o sfocati sono spesso omaggi.

Gli esseri umani errano, naturalmente: trascuriamo o glaze passato i difetti di questi sistemi, fin troppo veloce per fidarsi che i computer sono iper-razionale, obiettivo, sempre ragione., Gli studi hanno dimostrato che, in situazioni in cui gli esseri umani e computer devono cooperare per prendere una decisione — per identificare le impronte digitali o volti umani — persone costantemente fatto l’identificazione sbagliata quando un computer li spingeva a farlo. Nei primi giorni dei sistemi GPS del cruscotto, i conducenti seguivano notoriamente le indicazioni dei dispositivi verso un guasto, inviando le auto nei laghi, sulle scogliere e sugli alberi.

Questa è umiltà o arroganza? Diamo troppo poco valore all’intelligenza umana-o la sopravvalutiamo, supponendo che siamo così intelligenti da poter creare ancora cose più intelligenti?,

Gli algoritmi di Google e Bing ordinano la conoscenza del mondo per noi. Il newsfeed di Facebook filtra gli aggiornamenti dai nostri circoli sociali e decide quali sono abbastanza importanti da mostrarci. Con le funzioni di guida autonoma nelle auto, stiamo mettendo la nostra sicurezza nelle mani (e negli occhi) del software. Riponiamo molta fiducia in questi sistemi, ma possono essere fallibili quanto noi.

Altri articoli sull’Intelligenza artificiale:

Formazione del riconoscimento facciale su alcuni nuovi amici pelosi: Orsi

Anticorpi buoni. Molecole fatte a macchina meglio?,

Questi algoritmi potrebbero porre fine al killer più letale del mondo

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *