Popularne Wiadomości

Wybór Redakcji - 2024

Nie wierz nikomu: co zagraża sieci neuronowej, tworząc porno

Dmitry Kurkin

Fałszywe filmy pornow którym gwiazda filmu „Wonder Woman” Gal Gadot rzekomo uprawia seks ze swoim przyrodnim bratem, który pojawił się w sieci w tym tygodniu, okazała się nie tylko podróbką, ale fałszywą sztuczną inteligencją.

Autor filmu, anonimowy użytkownik reddita z pseudonimem deepfakes, w wywiadzie dla Vice, potwierdził, że użył sieci neuronowej, aby „wziąć sesję zdjęciową” twarzy Gadota do ciała aktorki porno. Fałszerstwo jest na ogół zauważalne, a twardzi nie planowali na nim zarabiać - według niego chciał tylko sprawdzić, jak łatwo byłoby to zrobić przy użyciu sztucznej inteligencji. I ma dla nas złą wiadomość: bardzo łatwo było zrobić fałszywe porno w domu.

Problem nie dotyczy ogólnie samych pornofeaków: popyt na zdjęcia i filmy, w których gwiazdy i aktorki uprawiają seks, był, jest i będzie z fetyszystami i fanami wrażeń. Jeśli chodzi o zewnętrzne podobieństwo z gwiazdami w branży porno, powstają całe kariery - zjawisko to doprowadziło nawet do wybitnego nagłówka żółtej prasy: „Krasnolud Gordon Ramsay zostaje znaleziony martwy w otworze borsuka”.

Ale jeśli przed produkcją potrzebny był czas, zasoby i pewne umiejętności, wówczas sieć neuronowa, przeszkolona do spawania twarzy z obrazem, znacznie upraszcza zadanie. Roboty się trzymają, a nie człowiek, a roboty od czasu do czasu stają się mądrzejsze, co oznacza, że ​​podróbki będą wyglądać coraz bardziej niezawodnie. Użytkownik deepfakes wyjaśnił, że zebrał swoje oprogramowanie AI z improwizowanych elementów znalezionych w bibliotekach open source i zrobił zdjęcia i filmy w publicznych kanałach i hostingu, takich jak YouTube. Mówiąc najprościej, wszystkie narzędzia do generowania pornofeikov leżały pod jego nosem, nie tylko z nim, ale wśród milionów ludzi na całym świecie.

I to, ściśle mówiąc, nawet nie wiadomości. W 2003 roku eksperci z University of Oregon Health and Science ostrzegali, że oszustwa dźwiękowe są „łatwe do wykonania i trudne do określenia”. Do 2017 r. Prognozy się spełniły i pojawiły się fałszywe nagrania głosowe generowane przez sieci neuronowe, które bardzo trudno odróżnić od rzeczywistych. Po dźwięku film został podciągnięty. Rozwój personelu University of Washington synchronizuje mimikę twarzy osoby z jego przemówieniem: w klipie wideo przedstawionym na przykład przez Baracka Obamę obecny jest tylko dźwięk, obraz jest generowany przez program. Połącz się ze sobą - a teraz są gotowe fałszywe filmy, w których, powiedzmy, znany liberalny polityk „wyznaje” sympatie dla Hitlera.

Wyobrażenie sobie, jak prowadzić do nadużyć takich sztucznej inteligencji, wymaga sporo wyobraźni - chatboty Microsoftu, które trolle z Twittera zamieniły się w rasistę w ciągu niecałego dnia, będą wyglądać jak piękny psikus. I oczywiście technologia Porno nie jest zagrożona przede wszystkim przez Gal Gadota, Taylora Swifta ani Jennifer Lawrence. Są wystarczająco zabezpieczeni, aby zatrudnić armię specjalistów IT, którzy rozpoznają fałszywkę, oraz flotę prawników, którzy będą pozywać każdego, kto próbuje wykorzystać te podróbki dla osobistych korzyści.

Nie, zwykli śmiertelnicy staną się ofiarami nowych nieszkodliwych algorytmów. Cyfrowe podróbki mogą być wykorzystywane do pornografii, cyber-prześladowania, nękania sieci, szantażu i manipulacji przez ludzi, którzy są łatwo sugestywni i nie śledzą w szczególności wiadomości z dziedziny zaawansowanych technologii („Twoja córka została nagrana na wideo, natychmiast przelać pieniądze, w przeciwnym razie WSZYSTKO będzie widoczne”). I niekoniecznie mówimy o pornografii: podróbki mogą być również wprowadzane do sieci w celu propagandy politycznej i podżegania do nienawiści.

„Ale to jest potworne!” Tak, monstrualne, a to nie jest wina kodera głębokich trunków. Jako że hakerzy czasami włamują się do systemów bankowych nie po to, by kraść pieniądze, ale po to, by skierować dział cyberobrony do luk w zabezpieczeniach, został on wymyślony przez anonimowego programistę SI tylko stawia nas przed faktem: era cyfrowych podróbek nie jest anty-utopijną historią grozy „Czarne lustro” i nadchodząca rzeczywistość. Nie zostało to jeszcze zrozumiane przez współczesną etykę (czy pornografię można uznać za naruszenie prywatności innych ludzi?), Ani przez obowiązujące prawo. Ale to w niej musimy jakoś żyć w nadchodzących latach. Dlatego konieczne jest opracowanie antidotum na takie wypychanie.

Kuratorzy słownika Collinsa nazwali termin „fałszywe wiadomości” wyrazem 2017 roku, podkreślając w ten sposób, że przeciętny użytkownik jest uzależniony od klikania i repozycjonowania sensacyjnych nagłówków bez marnowania czasu na sprawdzanie autentyczności informacji. Tymczasem fałszywe wiadomości mogą wpływać na wyniki wyborów i referendów. Jest to również część nowej rzeczywistości, w której już istniejemy i w której będziemy musieli nauczyć się być mniej niepoważni.

Sieci społecznościowe sprawiły, że Internet stał się szklanym domem, w którym miliony ludzi mogą oglądać twoje życie każdego dnia - nawet jeśli tego nie chcesz. Teraz jest oczywiste, że w tym domu nie ma drzwi: każdy może próbować zaatakować twoją osobistą przestrzeń, używając AI, by przykręcić twarz do pornorolu lub filmu „Władca pierścieni”. Prywatność jest martwa, ale nie tylko Big Brother jest winny tego w postaci usług specjalnych i globalnych korporacji, ale także nas samych.

Nadchodzi świat cyfrowych podróbek, ale to nie jest powód do paniki, paranoi, odmowy korzystania z Internetu lub wymogów zakazu sieci neuronowych. Jest to powód, aby myśleć o higienie sieci i nowych zasadach etyki, w których raz na zawsze zostanie naprawiony fakt, że użycie cudzego wizerunku do stworzenia fałszywej cyfrowej treści jest podłe i nielegalne. Czasy, w których ludzie bezwarunkowo wierzyli we wszystko, co mówią w telewizji (nawet jeśli mówią, że „Lenin był grzybem”) zanikają. W ten sam sposób stopniowo przyzwyczajamy się do niedowierzania we wszystko, co jest napisane w Internecie.

Okładka:Rekordy wypaczenia

Obejrzyj film: Chmura - Nie ufaj nikomu (Listopad 2024).

Zostaw Swój Komentarz