Diese Leute können vertraut aussehen, wie diejenigen, die Sie auf Facebook oder Twitter gesehen haben.

Oder Personen, deren Produktbewertungen Sie bei Amazon gelesen haben, oder Dating-Profile, die Sie bei Tinder gesehen haben.

Sie sehen auf den ersten Blick atemberaubend echt aus.

Aber sie existieren nicht.

Sie wurden aus dem Kopf eines Computers geboren.,

Und die Technologie, die sie macht, verbessert sich in einem erstaunlichen Tempo.

Entworfen, um zu täuschen: Sehen diese Leute für dich echt aus? Von Kashmir Hill und Jeremy White Nov. 21, 2020

Es gibt jetzt Unternehmen, die gefälschte Personen verkaufen. Auf der website Generiert.Fotos, können Sie eine „einzigartige, sorgenfreie“ gefälschte Person für $2,99 oder 1.000 Personen für $1.000 kaufen., Wenn Sie nur ein paar gefälschte Personen benötigen — für Charaktere in einem Videospiel oder um Ihre Firmenwebsite vielfältiger erscheinen zu lassen — können Sie ihre Fotos kostenlos auf ThisPersonDoesNotExist.com. Passen Sie ihre Ähnlichkeit nach Bedarf an; Machen Sie alt oder jung oder die ethnische Zugehörigkeit Ihrer Wahl. Wenn Sie möchten, dass Ihre gefälschte Person animiert wird, eine Firma namens Rosebud.AI kann das tun und kann sie sogar zum Reden bringen.,

Diese simulierten Personen tauchen im Internet auf und werden von echten Menschen mit schändlicher Absicht als Masken verwendet: Spione, die ein attraktives Gesicht zeigen, um die Geheimdienstgemeinschaft zu infiltrieren; rechte Propagandisten, die sich hinter gefälschten Profilen, Fotos und allem verstecken; Online-Belästiger, die ihre Ziele mit einem freundlichen Gesicht trollen.

Wir haben unsere eigene A. I. system, um zu verstehen, wie einfach es ist, erzeugen unterschiedliche gefälschten Gesichter.

Das A. I.-System sieht jede Fläche als komplexe mathematische Figur, einen Wertebereich, der verschoben werden kann., Die Wahl verschiedener Werte — wie diejenigen, die die Größe und Form der Augen bestimmen-kann das gesamte Bild verändern.

Alter

Augen

Perspektive

Stimmung

Für andere Qualitäten verwendete unser System einen anderen Ansatz., Anstatt Werte zu verschieben, die bestimmte Teile des Bildes bestimmen, generierte das System zuerst zwei Bilder, um Start-und Endpunkte für alle Werte festzulegen, und erstellte dann Bilder dazwischen.

Gender

Rasse und ethnische Zugehörigkeit

Die Erstellung dieser Arten von gefälschten Bildern wurde erst in den letzten Jahren dank einer neuen Art künstlicher Intelligenz möglich, die als generatives gegnerisches Netzwerk bezeichnet wird. Im Wesentlichen füttern Sie ein Computerprogramm mit einer Reihe von Fotos von echten Menschen., Es untersucht sie und versucht, eigene Fotos von Personen zu erstellen, während ein anderer Teil des Systems versucht zu erkennen, welche dieser Fotos gefälscht sind.

Das Hin und Her macht das Endprodukt immer ununterscheidbarer von der realen Sache. Die Porträts in dieser Geschichte wurden von der Times mit GAN-Software erstellt, die von der Computergrafik-Firma Nvidia öffentlich zugänglich gemacht wurde.,

Angesichts des Tempos der Verbesserung ist es leicht, sich eine nicht allzu ferne Zukunft vorzustellen, in der wir nicht nur mit einzelnen Porträts gefälschter Menschen, sondern mit ganzen Sammlungen von ihnen konfrontiert werden-auf einer Party mit gefälschten Freunden, die mit ihren gefälschten Hunden rumhängen und ihre gefälschten Babys halten. Es wird immer schwieriger zu sagen, wer online real ist und wer eine Erfindung der Vorstellungskraft eines Computers ist.

„Als die Technologie 2014 zum ersten Mal erschien, war sie schlecht — sie sah aus wie die Sims“, sagte Camille François, eine Desinformationsforscherin, deren Aufgabe es ist, die Manipulation sozialer Netzwerke zu analysieren., „Es ist eine Erinnerung daran, wie schnell sich die Technologie entwickeln kann. Die Erkennung wird mit der Zeit nur schwieriger.“

Fortschritte in der Gesichtsfälschung wurden zum Teil ermöglicht, weil die Technologie die wichtigsten Gesichtsmerkmale so viel besser identifizieren kann. Sie können Ihr Gesicht verwenden, um Ihr Smartphone zu entsperren, oder Ihre Fotosoftware anweisen, Ihre Tausenden von Bildern zu sortieren und Ihnen nur die Ihres Kindes zu zeigen., Gesichtserkennungsprogramme werden von Strafverfolgungsbehörden verwendet, um kriminelle Verdächtige zu identifizieren und zu verhaften (und auch von einigen Aktivisten, um die Identität von Polizeibeamten aufzudecken, die ihre Namensschilder abdecken, um anonym zu bleiben). Ein Unternehmen namens Clearview AI kratzte das Netz von Milliarden öffentlicher Fotos — die von alltäglichen Benutzern beiläufig online geteilt wurden—, um eine App zu erstellen, mit der ein Fremder von nur einem Foto erkannt werden kann. Die Technologie verspricht Supermächte: die Fähigkeit, die Welt so zu organisieren und zu verarbeiten, wie es vorher nicht möglich war.,

Aber Gesichtserkennungsalgorithmen, wie andere A. I. Systeme, sind nicht perfekt. Dank der zugrunde liegenden Voreingenommenheit in den Daten, die zum Trainieren verwendet werden, sind einige dieser Systeme beispielsweise nicht so gut darin, farbige Menschen zu erkennen. Im Jahr 2015 bezeichnete ein von Google entwickeltes frühzeitiges Bilderkennungssystem zwei Schwarze als „Gorillas“, höchstwahrscheinlich, weil das System viel mehr Fotos von Gorillas als von Menschen mit dunkler Haut aufgenommen hatte.,

Darüber hinaus sind Kameras — die Augen von Gesichtserkennungssystemen-nicht so gut darin, Menschen mit dunkler Haut einzufangen; Dieser unglückliche Standard stammt aus den frühen Tagen der Filmentwicklung, als Fotos kalibriert wurden, um die Gesichter hellhäutiger Menschen am besten zu zeigen. Die Folgen können schwerwiegend sein. Im Januar, Ein schwarzer Mann in Detroit namens Robert Williams wurde wegen eines Verbrechens verhaftet, das er wegen eines falschen Gesichtserkennungsspiels nicht begangen hatte.

Künstliche Intelligenz kann unser Leben erleichtern, aber letztendlich ist sie so fehlerhaft wie wir, weil wir hinter all dem stehen., Menschen entscheiden, wie A. I.-Systeme hergestellt werden und welchen Daten sie ausgesetzt sind. Wir wählen die Stimmen aus, die virtuellen Assistenten das Hören beibringen, was dazu führt, dass diese Systeme Menschen mit Akzenten nicht verstehen. Wir entwerfen ein Computerprogramm, um das kriminelle Verhalten einer Person vorherzusagen, indem wir ihm Daten über frühere Urteile von Menschenrichtern zuführen-und dabei die Voreingenommenheit dieser Richter berücksichtigen. Wir beschriften die Bilder, die Computer zum Sehen trainieren; Sie assoziieren dann Gläser mit“ Dweebs „oder“ Nerds.“

Sie können Ort einige Fehler und Muster, die wir gefunden, dass unsere A. I., system wiederholt, wenn es gefälschte Gesichter beschwört.

Mode-Zubehör, Probleme verursachen können.

Ohrringe zum Beispiel könnten ähnlich aussehen, aber oft nicht genau übereinstimmen.

GANs trainieren normalerweise auf realen Fotos, die zentriert, skaliert und zugeschnitten wurden.

Als Ergebnis kann jedes Auge den gleichen Abstand vom Zentrum haben.

Gläser sind häufig zubehör in viele der gefälschte bilder.,

Sie neigen dazu, dünne Rahmen zu haben, mit Endstücken, die möglicherweise nicht übereinstimmen.

Die meisten von uns haben keine perfekt symmetrischen Funktionen, und das System ist gut darin, sie neu zu erstellen.

Aber als Ergebnis kann es tiefe Vertiefungen in einem Ohr erzeugen, die möglicherweise nicht im anderen vorhanden sind.

Dann gibt es seltsame Artefakte, die aus dem Nichts erscheinen können.

Meistens befinden sie sich nur in einem Teil des Bildes, aber wenn Sie genau genug hinschauen, ist es schwierig, sie zu entsiegeln.,

Manchmal sind die Hinweise darauf, ob ein Bild gefälscht ist, nicht in den Merkmalen einer Person enthalten.

Abstrakte oder verschwommene Hintergründe sind oft Werbegeschenke.

Menschen irren natürlich: Wir übersehen oder verglasen die Fehler in diesen Systemen, nur zu schnell, um darauf zu vertrauen, dass Computer hyper-rational, objektiv, immer richtig sind., Studien haben gezeigt, dass Menschen in Situationen, in denen Menschen und Computer zusammenarbeiten müssen, um eine Entscheidung zu treffen — Fingerabdrücke oder menschliche Gesichter zu identifizieren — konsequent die falsche Identifizierung getroffen haben, als ein Computer sie dazu gedrängt hat. In den frühen Tagen von Dashboard-GPS-Systemen folgten die Fahrer bekanntermaßen den Anweisungen der Geräte zu einem Fehler und schickten Autos in Seen, vor Klippen und in Bäume.

Ist das Demut oder Hybris? Legen wir zu wenig Wert auf die menschliche Intelligenz — oder überschätzen wir sie, vorausgesetzt, wir sind so schlau, dass wir die Dinge noch klüger gestalten können?,

Die algorithmen von Google und Bing Sortieren, das wissen der Welt für uns. Der Newsfeed von Facebook filtert die Updates aus unseren sozialen Kreisen und entscheidet, welche wichtig genug sind, um uns zu zeigen. Mit selbstfahrenden Funktionen in Autos legen wir unsere Sicherheit in die Hände (und Augen) von Software. Wir setzen viel Vertrauen in diese Systeme, aber sie können so fehlbar sein wie wir.

Weitere Artikel über künstliche Intelligenz:

Training Gesichtserkennung auf einige neue pelzige Freunde: Bären

Antikörper Gut. Maschinell hergestellte Moleküle besser?,

Diese Algorithmen könnten dem tödlichsten Killer der Welt ein Ende setzen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.