Agencja Yonhap poinformowała o zatrzymaniu przez policję mężczyzny oskarżonego o stworzenie przy użyciu technologii deepfake 4313 filmów o charakterze pornograficznym. Sprawca wykorzystał w nich wizerunki 72 znanych kobiet.
Dwudziestolatek generował je za pomocą samodzielnie opracowanego programu wykorzystującego sztuczną inteligencję generatywną. Ze sprzedaży plików w internecie od stycznia do marca br. uzyskał równowartość 11 tys. złotych.
Materiał promocyjny
Materiał promocyjny
Wszystkie komentarze
'Nigdy nie pozuj do zdjęć stockowych'
Nawet to nie zapewni 100% bezpieczeństwa. Pamiętam jeszcze w XX wieku pewne czasopismo zamieściło materiał o pedofilii. Częscią materiału była 'ramka' z tekstem pewnego seksuologa o psychologii pedofilów. Całość wyglądała tak: na górze ramki dużą czcionka tytuł 'Portret pedofila' a zaraz poniżej zdjęcie tego seksuologa.
to się nazywa przestępstwo bez ofiary, i w opinii wielu filozofów prawa - i mojej, choć do filozofa mi daleko - nie powinno być w ogóle karane.
Fejki oparte o istniejące osoby, tak długo jak nie są rozpowszechniane, również nie powinny być karane, bo de facto nie różni się to wiele od karania za sprośne myśli albo rysunki.
Temat zresztą jest problemem tylko teraz, i sam się rozwiąże w krótkim czasie, zapewne zanim w ogóle wiele legislatur się obudzi - nikt już po prostu nie będzie ufał losowym zdjęciom z internetu, a zaufanie będzie tym mniejsze im bardziej treść szokująca. I dobrze, wszystkim to wyjdzie na zdrowie.
'Jak na przykład traktować treści deepfake, które nie zostały stworzone w oparciu o wizerunek prawdziwych ludzi, lecz całkowicie wygenerowane przez sztuczną inteligencję?'
Jeśli to wizerunek jakiejś hożej dziewoi to oczywiście że powinno to być bezkarne, tak samo jak nikt nie skazuje za morderstwo pisarza który uśmiercił bohatera książki. Jednak w dalszym tekście znajduje się wyjaśnienie konkretnej sytuacji:
'W zeszłym roku sąd w koreańskim mieście Busan skazał 40-letniego mężczyznę na dwa i pół roku więzienia za wygenerowanie 360 wirtualnych postaci dzieci, które zamierzał wykorzystać do celów pornograficznych. '
To już nie jest takie proste, bo obrazki sa nie tylko 'sprośne', ale i imituja sytuację która jest łamaniem prawa. A już obecnie jak najbardziej można karać za 'rysunki'- jeśli wątpisz to idź na spacer w koszulce z rysunkiem swastyki. Oczywiście możesz powiedzieć że takie 'wygenerowanie wirtualnych dzieci' nie różni się od 'wygenerowania' faszystów przez pisarza książki o II wojnie światowej, ale znowu: gdybyśmy mieli konsekwentnie trzymać się zasady że samo 'generowanie' czegoś co dopiero ewentualnie MOŻE BYĆ wykorzystane do nielegalnych celów jest jednak legalne, to z jakiej paki mamy karać za produkcję i trzymanie w domu fałszywych banknotów i dokumentów? Przecież one też dopiero MOGĄ zostać wykorzystane...
'Fejki oparte o istniejące osoby, tak długo jak nie są rozpowszechniane, również nie powinny być karane, bo de facto nie różni się to wiele od karania za sprośne myśli albo rysunki'
Tak, ale tu znowu pojawi się problem ZABEZPIECZENIA tych dipfejków przed wyciekiem. Jeśli ktoś wyobraża sobie seks z koleżanką z pracy to nie ma szans na 'wyciek' (przynajmniej myśli...). Jeśli ktoś tworzy porno z koleżanką to taki plik teoretycznie może już 'wyciec'.
Totez karane powinno byc dopiero wtedy kiedy nastapi "wyciek".
Dotyczy to takze pedofili. Pedofilia nie jest karalna - to jest choroba na ktora nic nie mozna poradzic. Karalne sa scisle okreslone w danym systemie prawnym czyny pedofilskie. W tym posiadanie takich materialow z prawdziwymi dziecmi.
Kiedyś - jeszcze sporo przed erą generatywnej AI - czytałem wywiad z jakimś seksuologiem, który wskazywał, że główny powód dla którego karane jest POSIADANIE pornografii dziecięcej jest nie to, że jest to samo w sobie inherentnie złe, a dlatego, że brak kary zachęcać będzie do tworzenia większej ilości takich treści, a więc bezpośrednio krzywdzenia dzieci (generowanie popytu -> generowanie podaży).
Nie wiem czy to dobre słowo w tym kontekście - choć nie mam innego - ale nieco ubolewał, że tak jest - bo według niego gdyby posiadanie i pozyskiwanie takich materiałów było legalne, to być może "zaspokoiłoby" to sporą część pedofilów, którzy wtedy nigdy by nie zdecydowali się na rzeczywiście obrzydliwe i szkodliwe zachowania.
...a przynajmniej takie było jego zdanie. Nie znam się na tym na tyle, by być w stanie stwierdzić, czy tak jest faktycznie - ale nie brzmi to jakoś bardzo głupio (choć przypomina trochę dyskusję na temat marihuany - czy jest "bramą" do twardych narkotyków, czy też jest kompletnie od nich niezależna?).
Gdyby to była prawda, to generatywne AI byłoby poniekąd mogłaby być wręcz pomocą w rozwiązaniu pewnej części przestępstw pedofilskich.
...chociaż niestety odsuwamy tutaj problem tylko kawałek dalej, bo wtedy pojawia się pytanie - skąd AI ma w bazie materiały na podstawie których nauczyła się tworzyć takie obrazy?
Urgh, ciężki, bardzo ciężki temat.