shotshop.com
Ëmmer erëm héiert ee vu Biller oder Videoen, déi täuschend echt ausgesinn, sech dann awer als Fälschung erweisen. Wat genee sinn dës Deepfakes eigentlech, Mister Science?
Fréier huet ee vill Zäit an Erfarung am Ëmgang mat Bild- oder Tounbeaarbechtungsprogrammer gebraucht, fir Medien ze manipuléieren. Bei Deepfakes brauch ee weeder dat eent nach dat anert. Well se entsti mat Hëllef vun Algorithmen – also eng Lëscht vun Uweisungen – aus dem Beräich vun der kënschtlecher Intelligenz an dës schaffen extreem séier. Esou kann een zum Beispill Face Swapping bedreiwen, bei deem Gesiichter an engem Bild oder Video ausgetosch ginn. A scho grinst mech zum Beispill mäin eegent Gesiicht um Dramkierper vu mengem Liblingsschauspiller un. Body Puppetry geet nach e Schrëtt méi wäit. Hei tauscht ee virtuell de Kierper mat enger anerer Persoun. Dës iwwerhëlt dann all Beweegung – egal ob Kapprëselen oder Lëpsebeweegungen. Nach méi krass ass de Voice Swapping. Well domat kann een d’manipuléiert Lëpsen och nach mat enger täuschend echter Stëmm schwätze loossen. Op dës Manéier leet ee beispillsweis engem Politiker, Moderator oder Wëssenschaftler Wierder an de Mond, déi dësen ni gesot huet.
O.k., dat héiert sech witzeg un, mee et ass awer och bedenklech, oder?
De Phenomeen Deepfakes ass nach ganz jonk. Trotzdeem ass d’Potenzial, grousse Schued ze maachen, schonn elo extreem grouss. Ee vun deenen éischte Beräicher, wou se agesat goufen, ware Pornoen. Plëtzlech si Prominenter – oder desagreabel Leit aus der Noperschaft – an delikaten Zeenen opgedaucht. Dat sinn déif Agrëff an d’Perséinlechkeetsrechter, déi d’betraffe Persoune mental a sozial schwéier schiedege kënnen. Relativ séier sinn dunn och gefakte Videoe vu Politiker opgedaucht, déi do déi gelungenst Saache soen. Esou eppes ka groussen Duerchernee provozéieren an huet Auswierkungen op d’Glafwierdegkeet vun de Medien. Vill Leit maache sech vill Suergen dowéinst. Niewent Desinformatioun ginn Deepfakes awer och fir Gaunereien a Bedruchsmasche benotzt. Well domat loosse sech biometresch Verfaren, déi d’Stëmm oder d’Gesiicht erkennen, desaktivéieren.
A wéi kann ech dann elo erkennen, ob de Video oder d’Bild aus dem Netz echt ass?
Fir d’éischt emol hëlleft et, de Video oder d’Bild genee ze kucken. Well (nach) verrode sech Deepfakes bei den Detailer. Heiansdo schéngt et, wéi wa Kierperdeeler, wéi Fangeren zum Beispill, net ugewuess sinn. Heiansdo passen d’Ouerréng riets a lénks net beieneen. An et kënnt och scho mol vir, dass och am Gesiicht net alles zesummepasst oder et ass einfach ze perfekt, fir echt ze sinn. Vun esou Unhaltspunkten ofgesinn, sollt een natierlech och emol iwwerleeën, wéi warscheinlech d’Informatioune sinn. Och sollt een – wéi iwwregens bei all Zort Informatiounsbeschafung – nach eng zweet Quell sichen, déi d’Bild oder de Video bestätegt.
An et gëtt an der Tëschenzäit Softwaretools, déi hëllefe sollen, Deepfakes ze erkennen. Microsoft schafft zum Beispill um Video Authenticator. An deepware bitt en Online-Scanner. Ausserdeem hu Wëssenschaftler erausfonnt, dass aktuell Deepfakes Schwächten hunn, wat d’Liichtreflexer an den Ae vu Persounen ugeet. Dës stëmmen dacks net mat den tatsächleche Liichtverhältnisser iwwereneen an dat ass en Usaz fir en Erkennungssystem. Zumindest elo nach. Well Deepfake-Algorithme gi permanent besser. Also muss sech och d’Wëssenschaft dauernd weiderentwéckelen, fir Deepfakes ze erkennen. D’Fuerschung bleift also spannend.
Wéi eng Technik stécht hanner Deepfakes?
Ee vun de gängegste Verfaren, fir Deepfakes ze produzéieren, nennt sech GAN. Dat steet fir Generative Adversarial Networks. Hei léisst een – vereinfacht gesot – zwee KI-Netzwierker géinteneen untrieden. Dat eent nennen Informatiker de Generator. Dee manipuléiert d’Bild, de Video oder d’Tounsignal. Dat anert Netzwierk heescht Diskriminator. Dëst gouf mat ganz villen echten Inhalter trainéiert a vergläicht dann d’Resultat aus dem Generator mat der Realitéit. Hält et d’Resultat fir e Fake, seet et dat dem Generator an dee fänkt dann nach emol vu vir un. Iergendwann ass en dann esou gutt, dass den Diskriminator d’Resultat net méi vun der realer Welt ënnerscheede kann. Wëssenschaftler benotzen dës Verfaren zum Beispill, fir d’Date vu Weltraumteleskopen a Biller ëmzewandelen, fir an der Partikelphysik d’Rätsele vum Universum ze léisen oder fir Chatbots ze entwéckelen, déi mat hire User ganz natierlech schwätze kënnen. An da ginn et natierlech och nach déi ganz dubiéis bis kriminell Uwendungen: Revanche-Pornoen, Fakenews, Identitéitsdéifstall, Bedruch etc.
Eng Course géint d’Zäit
Deepfake-Algorithmen entwéckele sech ultraséier weider. D’Resultater, déi se erausspäizen, ginn ëmmer méi realistesch. Esou Manipulatiounen opzedecken, ass fir Fuerscher ronderëm d’Welt längst eng Course géint d’Zäit ginn. D’Proff Djamila Aouada vum Interdisciplinary Centre for Security, Reliability and Trust (SnT) vun der Uni Lëtzebuerg ass eng Wëssenschaftlerin, déi un dëser Course deelhëlt. Zesumme mat der lëtzebuergescher Post entwéckele si an hir Ekipp am Kader vun zwee vum FNR finanziell ënnerstëtzte Projeten Algorithmen, déi Deepfakes zouverlässeg erkenne sollen. Am éischte Projet konzentréiere si sech virun allem op Face Swapping. Am zweete Projet geet et ëm en Echtzäit-Detektor, dee verschidden Zorten Deepfakes erkenne soll.
Auteur: scienceRELATIONS/Kai Dürfeld
Editeur: Michèle Weber (FNR)
Iwwersetzerin: Danièle di Cato (why vanilla?)
Infobox
Dëse Reportage gouf an Zesummenaarbecht mat RTL Radio ausgeschafft an op der Antenne vun RTL Radio diffuséiert. All zweet Woch présentéiert de Mr Science op RTL Radio wat fir eng Fuerschung hannert Objeten aus dem Alldag stécht. All d’Emissioune fënns du hei: http://radio.rtl.lu/emissiounen/science/.