Ces gens peut sembler familier, comme celles que vous avez vu sur Facebook ou Twitter.

ou des personnes dont vous avez lu les critiques de produits sur Amazon, ou des profils de rencontres que vous avez vus sur Tinder.

ils ont l’air incroyablement réels à première vue.

Mais ils n’existent pas.

Ils étaient nés de l’esprit d’un ordinateur.,

Et la technologie qui les rend est l’amélioration à une surprenante rythme.

conçu pour tromper: ces personnes vous semblent-elles réelles? Par Kashmir Hill et Jeremy White Nov. 21, 2020

Il y a des entreprises qui vendent des faux gens. Sur le site Web généré.Photos, vous pouvez acheter une fausse personne” unique, sans souci  » pour 2,99$, ou 1 000 personnes pour 1 000$., Si vous avez juste besoin de quelques fausses personnes – pour des personnages dans un jeu vidéo, ou pour rendre le site Web de votre entreprise plus diversifié — vous pouvez obtenir leurs photos gratuitement sur ThisPersonDoesNotExist.com. Ajustez leur ressemblance au besoin; faites-les vieux ou jeunes ou l’ethnicité de votre choix. Si vous voulez que votre fausse personne animée, une entreprise appelée Rosebud.AI peut le faire et peut même les faire parler.,

ces personnes simulées commencent à apparaître sur internet, utilisées comme masques par de vraies personnes avec une intention néfaste: des espions qui enfilent un visage attrayant dans le but d’infiltrer la communauté du renseignement; des propagandistes de droite qui se cachent derrière de faux profils, des photos et tout; des harceleurs en ligne qui trollent leurs cibles avec un visage amical.

nous avons créé notre propre système D’IA pour comprendre à quel point il est facile de générer différents faux visages.

Le système A. I. voit chaque face comme une figure mathématique complexe, une plage de valeurs qui peuvent être décalées., Choisir différentes valeurs-comme celles qui déterminent la taille et la forme des yeux — peut modifier l’image entière.

Âge

Yeux

point de vue

de l’Humeur

Pour les autres qualités, notre système utilisé une approche différente., Au lieu de décaler les valeurs qui déterminent des parties spécifiques de l’image, le système a d’abord généré deux images pour établir des points de départ et de fin pour toutes les valeurs, puis créé des images entre les deux.

Genre

de la Race et de l’Ethnicité

La création de ces types de fausses images n’est devenue possible ces dernières années, grâce à un nouveau type d’intelligence artificielle appelé un générateur contradictoire réseau. En substance, vous alimentez un programme informatique un tas de photos de vraies personnes., Il étudie et tente de venir avec ses propres photos de personnes, tandis qu’une autre partie du système tente de détecter ces photos sont des faux.

Le va-et-vient rend le produit final de plus en plus indiscernable de la réalité. Les portraits de cette histoire ont été créés par The Times à l’aide du logiciel GAN rendu public par la société D’infographie Nvidia.,

compte tenu du rythme d’amélioration, il est facile d’imaginer un avenir pas si lointain dans lequel nous sommes confrontés non seulement à des portraits uniques de fausses personnes, mais à des collections entières d’entre elles-lors d’une fête avec de faux amis, traînant avec leurs faux chiens, tenant leurs faux bébés. Il deviendra de plus en plus difficile de dire qui est réel en ligne et qui est le fruit de l’imagination d’un ordinateur.

« quand la technologie est apparue en 2014, elle était mauvaise — elle ressemblait aux Sims”, a déclaré Camille François, chercheuse en désinformation dont le travail consiste à analyser la manipulation des réseaux sociaux., « C’est un rappel de la rapidité avec laquelle la technologie peut évoluer. La détection ne fera que devenir plus difficile avec le temps. »

Les progrès dans la falsification faciale ont été rendus possibles en partie parce que la technologie est devenue tellement meilleure pour identifier les principaux traits du visage. Vous pouvez utiliser votre visage pour déverrouiller votre smartphone ou demander à votre logiciel photo de trier vos milliers d’images et de ne vous montrer que celles de votre enfant., Les programmes de reconnaissance faciale sont utilisés par les forces de l’ordre pour identifier et arrêter les suspects criminels (et aussi par certains militants pour révéler l’identité des policiers qui couvrent leurs étiquettes nominatives dans le but de rester anonymes). Une société appelée Clearview AI a gratté le web de milliards de photos publiques — partagées en ligne par des utilisateurs quotidiens — pour créer une application capable de reconnaître un étranger à partir d’une seule photo. La technologie promet des superpuissances: la capacité d’organiser et de traiter le monde d’une manière qui n’était pas possible auparavant.,

Mais les algorithmes de reconnaissance faciale, comme les autres systèmes D’IA, ne sont pas parfaits. Grâce au biais sous-jacent des données utilisées pour les former, certains de ces systèmes ne sont pas aussi bons, par exemple, pour reconnaître les personnes de couleur. En 2015, un premier système de détection d’images développé par Google a qualifié deux personnes noires de” gorilles », probablement parce que le système avait reçu beaucoup plus de photos de gorilles que de personnes à la peau foncée.,

de plus, les caméras — les yeux des systèmes de reconnaissance faciale-ne sont pas aussi efficaces pour capturer les personnes à la peau foncée; cette norme malheureuse date des premiers jours du développement du film, lorsque les photos étaient calibrées pour mieux montrer les visages des personnes à la peau claire. Les conséquences peuvent être graves. En janvier, un homme noir de Detroit nommé Robert Williams a été arrêté pour un crime qu « il n » a pas commis en raison d  » une correspondance de reconnaissance faciale incorrecte.

l’intelligence artificielle peut nous faciliter la vie, mais elle est finalement aussi imparfaite que nous, car nous sommes derrière tout cela., Les humains choisissent comment les systèmes D’IA sont fabriqués et à quelles données ils sont exposés. Nous choisissons les voix qui apprennent aux assistants virtuels à entendre, ce qui conduit ces systèmes à ne pas comprendre les personnes avec des accents. Nous concevons un programme informatique pour prédire le comportement criminel d’une personne en lui fournissant des données sur les décisions passées rendues par des juges humains — et, dans le processus, en analysant les préjugés de ces juges. Nous étiquetons les images qui entraînent les ordinateurs à voir; ils associent ensuite les lunettes à des « dweebs” ou « nerds ». »

vous pouvez repérer certaines des erreurs et des modèles que nous avons trouvés que notre ai., système répété quand il évoquait de faux visages.

accessoires de Mode peuvent causer des problèmes.

Boucles d’oreilles, par exemple, pourrait ressembler, mais souvent peut ne pas correspondre exactement.

Les GANs s’entraînent généralement sur des photographies réelles qui ont été centrées, mises à l’échelle et recadrées.

en conséquence, chaque œil peut être la même distance du centre.

les Lunettes sont des accessoires communs dans beaucoup de fausses images.,

ils ont tendance à avoir des cadres minces, avec des pièces d’extrémité qui peuvent ne pas correspondre.

La Plupart d’entre nous n’ont pas de caractéristiques parfaitement symétriques, et le système est bon pour les recréer.

mais en conséquence, il peut produire des indentations profondes dans une oreille qui peuvent ne pas être présentes dans l’autre.

ensuite, il y a des artefacts plus étranges qui peuvent apparaître de nulle part.

le plus souvent, ils ne sont que dans une partie de l’image, mais si vous regardez assez attentivement, il est difficile de la voir.,

parfois, les indices pour savoir si une image est fausse ne sont pas dans les caractéristiques d’une personne.

Les arrière-plans abstraits ou flous sont souvent des cadeaux.

Les humains se trompent, bien sûr: nous négligeons ou surmontons les défauts de ces systèmes, trop prompts à croire que les ordinateurs sont hyper-rationnels, objectifs, toujours justes., Des études ont montré que, dans les situations où les humains et les ordinateurs doivent coopérer pour prendre une décision — pour identifier les empreintes digitales ou les visages humains — les gens ont systématiquement fait la mauvaise identification lorsqu’un ordinateur les a poussés à le faire. Dans les premiers jours des systèmes GPS de tableau de bord, les conducteurs suivaient les instructions des appareils jusqu’à une panne, envoyant les voitures dans les lacs, au large des falaises et dans les arbres.

est-ce l’humilité ou l’orgueil? – On trop peu de valeur dans l’intelligence humaine, ou sommes — nous surestimer, en supposant que nous sommes si intelligents que nous pouvons créer des choses plus intelligentes encore?,

Les algorithmes de Google et Bing trient les connaissances du monde pour nous. Le fil d’actualité de Facebook filtre les mises à jour de nos cercles sociaux et décide lesquelles sont suffisamment importantes pour nous les montrer. Avec les fonctionnalités de conduite autonome dans les voitures, nous mettons notre sécurité entre les mains (et les yeux) du logiciel. Nous accordons une grande confiance dans ces systèmes, mais ils peuvent être aussi faillibles que nous.

Plus D’Articles sur L’Intelligence Artificielle:

formation à la reconnaissance faciale sur de nouveaux amis à fourrure: les ours

anticorps bon. Molécules Fabriquées À La Machine Mieux?,

ces algorithmes pourraient mettre fin au tueur le plus meurtrier du monde

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *