te osoby mogą wyglądać znajomo, jak te, które widziałeś na Facebook lub Twitter.

lub osoby, których recenzje produktów przeczytałeś na Amazon, lub profile randkowe widziałeś na Tinderze.

na pierwszy rzut oka wyglądają oszałamiająco realistycznie.

ale nie istnieją.

urodzili się z umysłu komputera.,

a technologia, która je sprawia, poprawia się w zaskakującym tempie.

czy ci ludzie wyglądają na prawdziwych? Autor: Kashmir Hill / 21, 2020

obecnie istnieją firmy, które sprzedają fałszywych ludzi. Na stronie Wygenerowanej.Zdjęcia, możesz kupić „unikalną, bezproblemową” fałszywą osobę za 2,99 dolarów lub 1000 osób za 1000 dolarów., Jeśli potrzebujesz tylko kilku fałszywych osób — do postaci w grze wideo, lub aby Twoja strona firmowa wyglądała bardziej różnorodnie – możesz uzyskać ich zdjęcia za darmo na ThisPersonDoesNotExist.com. dostosuj ich podobieństwo w razie potrzeby; uczyń je starymi lub młodymi lub pochodzeniem etnicznym według własnego wyboru. Jeśli chcesz, aby Twoja fałszywa osoba była animowana, firma o nazwie Rosebud.AI może to zrobić, a nawet zmusić ich do mówienia.,

Ci symulowani ludzie zaczynają pojawiać się w Internecie, używani jako maski przez prawdziwych ludzi o nikczemnych intencjach: szpiedzy, którzy mają atrakcyjną twarz, aby zinfiltrować społeczność wywiadowczą; prawicowi propagandyści, którzy ukrywają się za fałszywymi profilami, zdjęciami i wszystkim; napastnicy online, którzy trollują swoje cele przyjaznym wyglądem.

stworzyliśmy własny system sztucznej inteligencji, aby zrozumieć, jak łatwo jest generować różne fałszywe twarze.

System A. I. widzi każdą twarz jako złożoną figurę matematyczną, zakres wartości, które można przesuwać., Wybór różnych wartości — na przykład tych, które określają rozmiar i kształt oczu-może zmienić cały obraz.

wiek

Oczy

perspektywy

nastrój

inne cechy, nasze systemy wykorzystują różne podejścia., Zamiast przesuwania wartości określających określone części obrazu, system najpierw wygenerował dwa obrazy w celu ustalenia punktów początkowych i końcowych dla wszystkich wartości, a następnie stworzył obrazy pomiędzy nimi.

płeć

Rasa i pochodzenie etniczne

tworzenie tego typu fałszywych obrazów stało się możliwe tylko w ostatnich latach dzięki nowemu typowi sztucznej inteligencji zwanej generatywną siecią kontradyktoryjną. W istocie, karmisz program komputerowy kilka zdjęć prawdziwych ludzi., Bada je i próbuje wymyślić własne zdjęcia ludzi, podczas gdy inna część systemu próbuje wykryć, które z tych zdjęć są fałszywe.

w przód i w tył sprawia, że produkt końcowy jest coraz bardziej nieodróżnialny od rzeczywistego. Portrety w tej historii zostały stworzone przez The Times przy użyciu oprogramowania GAN, które zostało udostępnione publicznie przez firmę graficzną NVIDIA.,

biorąc pod uwagę tempo poprawy, łatwo wyobrazić sobie nie tak odległą przyszłość, w której mamy do czynienia nie tylko z pojedynczymi portretami fałszywych ludzi, ale z całą ich kolekcją-na imprezie z fałszywymi przyjaciółmi, spędzając czas ze swoimi fałszywymi psami, trzymając sztuczne dzieci. Coraz trudniej będzie stwierdzić, kto jest prawdziwy w Internecie, a kto jest wytworem wyobraźni komputera.

„Kiedy technologia pojawiła się po raz pierwszy w 2014 roku, było źle — wyglądało jak The Sims”, powiedział Camille François, badacz dezinformacji, którego zadaniem jest analiza manipulacji sieciami społecznościowymi., „To przypomnienie o tym, jak szybko technologia może ewoluować. Wykrywanie będzie tylko trudniejsze z czasem.”

postępy w fałszowaniu twarzy były możliwe po części dlatego, że technologia stała się znacznie lepsza w identyfikacji kluczowych rysów twarzy. Możesz użyć twarzy, aby odblokować smartfon lub powiedzieć oprogramowaniu fotograficznemu, aby sortowało tysiące zdjęć i pokazywało tylko te z twojego dziecka., Programy rozpoznawania twarzy są wykorzystywane przez organy ścigania do identyfikacji i aresztowania podejrzanych o przestępstwa (a także przez niektórych aktywistów do ujawnienia tożsamości policjantów, którzy zakrywają swoje identyfikatory, próbując pozostać anonimowi). Firma o nazwie Clearview AI zeskrobała sieć miliardów zdjęć publicznych-od niechcenia udostępnionych online przez zwykłych Użytkowników-aby stworzyć aplikację zdolną rozpoznać nieznajomego z jednego zdjęcia. Technologia obiecuje supermoce: umiejętność organizowania i przetwarzania świata w sposób, który wcześniej nie był możliwy.,

ale algorytmy rozpoznawania twarzy, podobnie jak inne systemy A. I., nie są doskonałe. Ze względu na uprzedzenia w danych wykorzystywanych do ich szkolenia, niektóre z tych systemów nie są tak dobre, na przykład, w rozpoznawaniu ludzi koloru. W 2015 roku, wczesny system wykrywania obrazów opracowany przez Google oznaczał dwie czarne osoby jako „goryle”, najprawdopodobniej dlatego, że system został nakarmiony o wiele więcej zdjęć goryli niż osób o ciemnej skórze.,

Co więcej, Aparaty — Oczy systemów rozpoznawania twarzy-nie są tak dobre w uchwyceniu ludzi o ciemnej skórze; ten niefortunny standard datuje się na wczesne dni rozwoju filmu, kiedy zdjęcia zostały skalibrowane, aby najlepiej pokazać twarze ludzi o jasnej skórze. Konsekwencje mogą być poważne. W styczniu czarnoskóry mężczyzna w Detroit, Robert Williams, został aresztowany za przestępstwo, którego nie popełnił z powodu nieprawidłowego dopasowania twarzy.

sztuczna inteligencja może ułatwić nam życie, ale ostatecznie jest tak samo wadliwa jak my, ponieważ to my za tym wszystkim stoimy., Ludzie wybierają sposób tworzenia systemów Si i na jakie dane są narażeni. Wybieramy głosy, które uczą wirtualnych asystentów słyszeć, prowadząc te systemy, aby nie rozumieć ludzi z akcentami. Projektujemy program komputerowy do przewidywania zachowań przestępczych danej osoby poprzez podawanie jej danych o wcześniejszych orzeczeniach ludzkich sędziów — i w procesie ich uprzedzeń. Oznaczamy obrazy, które szkolą komputery, aby je zobaczyć; następnie kojarzą okulary z „frajerami” lub ” kujonami.”

można zauważyć kilka błędów i wzorców, które odkryliśmy, że nasz A. I., system powtarzał się, gdy wywoływał fałszywe twarze.

modne akcesoria mogą powodować problemy.

na przykład kolczyki mogą wyglądać podobnie, ale często mogą nie do końca pasować.

GANs Zwykle trenuje na prawdziwych zdjęciach, które zostały wyśrodkowane, skalowane i przycięte.

w rezultacie każde oko może znajdować się w tej samej odległości od centrum.

okulary są powszechnymi akcesoriami na wielu fałszywych zdjęciach.,

mają zwykle cienkie ramki, z końcami, które mogą nie pasować.

większość z nas nie ma idealnie symetrycznych funkcji, a system jest dobry w ich odtwarzaniu.

ale w rezultacie może powodować głębokie wcięcia w jednym uchu, które mogą nie być obecne w drugim.

wtedy są dziwniejsze artefakty, które mogą pojawić się znikąd.

najczęściej są one tylko w jednej części obrazu, ale jeśli przyjrzysz się uważnie, trudno je cofnąć.,

czasami wskazówki dotyczące tego, czy obraz jest fałszywy, nie znajdują się w cechach osoby.

abstrakcyjne lub rozmyte tła są często prezentami.

ludzie błądzą, oczywiście: pomijamy lub pomijamy wady tych systemów, zbyt szybko ufając, że komputery są hiper-racjonalne, obiektywne, zawsze słuszne., Badania wykazały, że w sytuacjach, w których ludzie i komputery muszą współpracować w celu podjęcia decyzji-identyfikacji odcisków palców lub ludzkich twarzy – ludzie konsekwentnie dokonywali błędnej identyfikacji, gdy komputer ich do tego popychał. We wczesnych czasach systemów GPS na desce rozdzielczej kierowcy słynnie podążali za wskazówkami urządzeń do usterki, wysyłając samochody do jezior, klifów i drzew.

to pokora czy pycha? Czy przykładamy zbyt małą wagę do ludzkiej inteligencji — czy też przeceniamy ją, zakładając, że jesteśmy tak mądrzy,że potrafimy tworzyć rzeczy mądrzejsze?,

algorytmy Google i Bing sortują dla nas wiedzę o świecie. Facebook ' s newsfeed filtruje aktualizacje z naszych kręgów społecznych i decyduje, które są na tyle ważne, aby nam pokazać. Dzięki funkcjom samojezdnym w samochodach oddajemy nasze bezpieczeństwo w ręce (i oczy) oprogramowania. Pokładamy duże zaufanie w tych systemach, ale mogą one być równie omylne jak my.

Więcej artykułów na temat sztucznej inteligencji:

szkolenie z rozpoznawania twarzy nowych futrzastych przyjaciół: misiów

Cząsteczki Maszynowe Lepsze?,

te algorytmy mogą doprowadzić do końca najgroźniejszego zabójcy Świata

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *