deze mensen komen u bekend voor, net als degenen die u op Facebook of Twitter hebt gezien.

of mensen van wie je productrecensies hebt gelezen op Amazon, of datingprofielen die je hebt gezien op Tinder.

ze zien er op het eerste gezicht verbluffend echt uit.

maar ze bestaan niet.

ze zijn geboren uit de geest van een computer.,

en de technologie die hen maakt, verbetert in een verrassend tempo.

ontworpen om te misleiden: lijken deze mensen echt? Door Kashmir Hill en Jeremy White Nov. 21, 2020

Er zijn nu bedrijven die nep-mensen verkopen. Op de website gegenereerd.Foto ‘ s, kunt u een “unieke, zorgeloze” nep persoon te kopen voor $2,99, of 1.000 mensen voor $ 1,000., Als je gewoon een paar nep — mensen-voor personages in een video game, of om uw bedrijf website lijken meer divers – kunt u hun foto ‘ s gratis op ThisPersonDoesNotExist.com. pas hun gelijkenis naar behoefte aan; maak ze oud of jong of de etniciteit van uw keuze. Als u wilt dat uw nep persoon geanimeerd, een bedrijf genaamd Rosebud.AI kan dat doen en kan ze zelfs laten praten.,

deze gesimuleerde mensen beginnen te verschijnen op het internet, gebruikt als maskers door echte mensen met snode bedoelingen: spionnen die een aantrekkelijk gezicht dragen in een poging om de inlichtingengemeenschap te infiltreren; rechtse propagandisten die zich verbergen achter valse profielen, foto ‘ s en alles; online pesterijen die hun doelwitten trollen met een vriendelijk gezicht.

we hebben ons eigen AI-systeem gemaakt om te begrijpen hoe gemakkelijk het is om verschillende nep-gezichten te genereren.

Het A. I.-systeem ziet elk gezicht als een complexe wiskundige figuur, een bereik van waarden die kunnen worden verschoven., Het kiezen van verschillende waarden — zoals die welke de grootte en vorm van de ogen bepalen-kan het hele beeld veranderen.

leeftijd

mood

voor andere kwaliteiten gebruikte ons systeem een andere benadering., In plaats van waarden te verschuiven die specifieke delen van de afbeelding bepalen, genereerde het systeem eerst twee afbeeldingen om begin-en eindpunten vast te stellen voor alle waarden, en creëerde vervolgens afbeeldingen daartussen.

geslacht

ras en etniciteit

het creëren van dit soort nep-beelden werd pas in de afgelopen jaren mogelijk dankzij een nieuw type kunstmatige intelligentie, een generatief tegendraadsnetwerk genaamd. In essentie geef je een computerprogramma een hoop foto ‘ s van echte mensen., Het bestudeert hen en probeert te komen met zijn eigen foto ’s van mensen, terwijl een ander deel van het systeem probeert op te sporen welke van die foto’ s zijn nep.

het heen-en-weer maakt het eindproduct steeds meer niet te onderscheiden van het echte ding. De portretten in dit verhaal zijn gemaakt door The Times met behulp van Gan-software die publiekelijk beschikbaar werd gemaakt door het Computer graphics bedrijf Nvidia.,

gezien het tempo van de verbetering, is het gemakkelijk om je een niet zo verre toekomst voor te stellen waarin we worden geconfronteerd met niet alleen enkele portretten van nep mensen, maar hele collecties van hen-op een feestje met nep vrienden, opknoping met hun nep honden, het vasthouden van hun nep baby ‘ s. Het zal steeds moeilijker worden om te zeggen wie echt online is en wie een verzinsel is van de verbeelding van een computer.”toen de technologie voor het eerst verscheen in 2014, was het slecht — het leek op De Sims,” zei Camille François, een desinformatieonderzoeker wiens taak het is om manipulatie van sociale netwerken te analyseren., “Het is een herinnering aan hoe snel de technologie kan evolueren. Detectie zal na verloop van tijd alleen maar moeilijker worden.”

vooruitgang in facial fakery zijn mogelijk gemaakt voor een deel omdat technologie is zo veel beter in het identificeren van belangrijke gezichtskenmerken. U kunt uw gezicht gebruiken om uw smartphone te ontgrendelen, of vertel uw foto-software om te sorteren door uw duizenden foto ‘ s en toon u alleen die van uw kind., Gezichtsherkenningsprogramma ‘ s worden gebruikt door rechtshandhaving om criminele verdachten te identificeren en te arresteren (en ook door sommige activisten om de identiteit van politieagenten te onthullen die hun naamplaatjes bedekken in een poging om anoniem te blijven). Een bedrijf genaamd Clearview AI schraapte het web van miljarden openbare foto ‘ s — terloops online gedeeld door alledaagse gebruikers-om een app te maken die in staat is om een vreemdeling te herkennen van slechts één foto. De technologie belooft superkrachten: het vermogen om de wereld te organiseren en te verwerken op een manier die voorheen niet mogelijk was.,

maar gezichtsherkenningsalgoritmen, zoals andere AI-systemen, zijn niet perfect. Dankzij de onderliggende vooringenomenheid in de gegevens die worden gebruikt om hen te trainen, zijn sommige van deze systemen niet zo goed in het herkennen van mensen met een kleur. In 2015, een vroege beelddetectie systeem ontwikkeld door Google gelabeld twee zwarte mensen als “gorilla’ s, “waarschijnlijk omdat het systeem had gevoed veel meer foto’ s van gorilla ‘ s dan van mensen met een donkere huid.,bovendien zijn camera ’s — de ogen van gezichtsherkenningssystemen-niet zo goed in het vastleggen van mensen met een donkere huid; die ongelukkige standaard dateert uit de vroege dagen van de filmontwikkeling, toen foto’ s werden gekalibreerd om de gezichten van mensen met een lichte huid het beste te laten zien. De gevolgen kunnen ernstig zijn. In januari, een zwarte man in Detroit genaamd Robert Williams werd gearresteerd voor een misdaad die hij niet heeft begaan als gevolg van een onjuiste gezichtsherkenning match.

kunstmatige intelligentie kan ons leven gemakkelijker maken, maar uiteindelijk is het net zo gebrekkig als wij, omdat we achter alles zitten., Mensen kiezen hoe AI-systemen worden gemaakt en aan welke gegevens ze worden blootgesteld. We kiezen de stemmen die virtuele assistenten leren te horen, waardoor deze systemen mensen met accenten niet begrijpen. We ontwerpen een computerprogramma om het criminele gedrag van een persoon te voorspellen door gegevens te verstrekken over eerdere uitspraken van menselijke rechters — en in het proces bakken in de vooroordelen van die rechters. We labelen de beelden die computers trainen om te zien; ze associëren bril met ” dweebs “of” nerds.”

u kunt een aantal van de fouten en patronen vinden die we vonden dat onze A. I., het systeem herhaalde zich toen het nepgezichten toverde.

modeaccessoires kunnen problemen veroorzaken.

Oorbellen, bijvoorbeeld, lijken misschien op elkaar, maar komen vaak niet precies overeen.

GANs trainen meestal op echte foto ‘ s die gecentreerd, geschaald en bijgesneden zijn.

hierdoor kan elk oog op dezelfde afstand van het midden liggen.

brillen zijn veel voorkomende accessoires in veel van de nepfoto ‘ s.,

ze hebben meestal dunne frames, met eindstukken die mogelijk niet overeenkomen.

De meesten van ons hebben geen perfect symmetrische functies, en het systeem is goed in het herscheppen ervan.

maar als gevolg daarvan kan het diepe inkepingen in het ene oor produceren die mogelijk niet in het andere oor aanwezig zijn.

dan zijn er odder artefacten die uit het niets kunnen verschijnen.

meestal zijn ze slechts in een deel van de afbeelding, maar als je goed genoeg kijkt, is het moeilijk om het niet te zien.,

soms staan de aanwijzingen over het feit of een afbeelding nep is niet in de kenmerken van een persoon.

Abstracte of wazige achtergronden worden vaak weggegeven.

mensen vergissen zich natuurlijk: we vergeten of glaze voorbij de fouten in deze systemen, maar al te snel om te vertrouwen dat computers hyper-rationeel, objectief, altijd goed zijn., Studies hebben aangetoond dat in situaties waarin mensen en computers moeten samenwerken om een beslissing te nemen — om vingerafdrukken of menselijke gezichten te identificeren — mensen consequent de verkeerde identificatie hebben gemaakt wanneer een computer hen daartoe duwt. In de vroege dagen van dashboard GPS-systemen, bestuurders beroemde volgde de apparaten’ aanwijzingen naar een fout, het sturen van auto ‘ s in meren, van kliffen en in bomen.

Is dit nederigheid of overmoed? Hechten we te weinig waarde aan menselijke intelligentie — of overschatten we die, ervan uitgaande dat we zo slim zijn dat we dingen nog slimmer kunnen maken?,

de algoritmen van Google en Bing sorteren de kennis van de wereld voor ons. Facebook ‘ s newsfeed filtert de updates uit onze sociale kringen en beslist welke belangrijk genoeg zijn om ons te laten zien. Met zelfrijdende functies in auto ‘ s leggen we onze veiligheid in de handen (en ogen) van software. We stellen veel vertrouwen in deze systemen, maar ze kunnen net zo feilbaar zijn als wij.

Meer artikelen over kunstmatige intelligentie:

training gezichtsherkenning op enkele nieuwe harige vrienden: Beren

antilichamen goed. Machinaal Gemaakte Moleculen Beter?,

deze algoritmen kunnen een einde maken aan ‘ s werelds dodelijkste Killer

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *