Deepfakes können nicht nur Wahlen manipulieren, die Fälschungen sind auch im Gesundheitswesen eine große Gefahr. In ihrer Gast-Kolumne gibt Hadas Bitran einen Überblick zur Technologie, den Gefahren in der Medizin und wie Deepfakes mit Technologie, Regulierung und Aufklärung begegnet werden kann.
Deepfakes stellen die dunkle Seite der künstlichen Intelligenz dar. Mithilfe von KI entstehen Videos, Bilder oder Audioaufnahmen, die den Anschein erwecken, dass Personen Dinge sagen oder tun, die in Wirklichkeit nie passiert sind.
Was beunruhigend ist: Die Deepfakes werden zunehmend realistischer. Die Technologie ermöglicht mittlerweile täuschend echte, aber überzeugend gefälschte Medien, die zur Verbreitung von Falschinformationen, Manipulationen, Betrug, der Stiftung von Chaos oder auch Rufschädigung missbraucht werden können. Eine der größten Sorgen gegenüber Deepfakes ist, dass sie die Integrität von Wahlen gefährden, indem Wähler über gefälschte Inhalte beeinflusst werden. Ein Deepfake-Video könnte zum Beispiel einen Kandidaten mit Korruption oder Fehlverhalten in Verbindung bringen und so die öffentliche Meinung mit gefälschten Informationen beeinflussen. Deepfakes können Wähler irreführen und die Demokratie durch Desinformation untergraben.
Besonders abscheulich sind Deepfakes mit unerlaubt erstellten, expliziten Inhalten für Erwachsene, sogenannter Fakeporn. Aktuelle Untersuchungen zeigen, dass 98 % aller Fake-Videos im Internet in diese Kategorie fallen. In den meisten Fällen werden Opfer aus der Unterhaltungsbranche gedemütigt, wobei 99 % Frauen sind. Diese Entwicklung ist besorgniserregend.
Deepfakes bergen auch einzigartige Risiken für das Gesundheitswesen. |
---|
Hadas Bitran |
Vor einigen Monaten schrieb ich einen Artikel über generative KI und den Hollywood-Streik. Damals sagte ich, die Technologie zur Videogenerierung sei noch nicht ausgereift und erinnere mich an die schlecht animierten Bilder des Tagespropheten aus den Harry-Potter-Filmen. Nun, es ist Zeit, das zurückzunehmen: Die Technologie zur Videogenerierung entwickelt sich rasant. Die neuesten Videos des Open AI-Modells Sora sind beeindruckend. Zeigen sie doch, dass generative KI bei der Videoproduktion immer ausgefeilter wird.
Im April haben Forschende eine beeindruckende Demo veröffentlicht, die in Echtzeit hyper-realistische Videos mit sprechenden Gesichtern, präziser Lippensynchronisation und natürlichem Gesichtsverhalten erzeugt – basierend auf einem einzigen Porträtfoto und Sprachaudio. Respektvollerweise enthielt die Publikation einen guten KI-Disclaimer. Die Forschenden stellten klar, dass sie visuelle Effekte ausschließlich für virtuelle interaktive Charaktere erforschen, und nicht um eine Person in der realen Welt zu imitieren. Zudem wolle man aus der Forschungsdemo kein Produkt machen oder eine API bereitstellen.
Soweit, so cool. Doch während die Videogenerierung an sich für gute oder legitime Zwecke dienen kann, sind Deepfakes ein Missbrauch der Technologie und zeigen die dunkle Seite der KI.
So funktioniert die Deepfake-Technologie
Die Deepfake-Technologie analysiert und imitiert die Stimme und den Gesichtsausdruck einer Person in Videos oder Bildern mithilfe von Algorithmen. Sie erkennt Gesichtsmerkmale und ersetzt sie in den Originalmedien. Doch es ist nicht ganz so einfach, ein Gesicht durch ein anderes zu ersetzen. Der Prozess beinhaltet die Verwendung von Algorithmen des maschinellen Lernens, um Gesichtsausdrücke und -merkmale zu analysieren, zuzuordnen und mit einem neuen Gesicht anzupassen, um ein authentisches Ergebnis zu erzielen.
Bei Deepfakes spielen Generative Adversarial Networks (GANs) eine wichtige Rolle. GANs bestehen aus zwei neuralen Netzen, dem Generator und dem Discriminator, die miteinander konkurrieren. Der Generator erstellt neue Bilder basierend auf seinem Training, während der Discriminator entscheidet, ob ein Bild echt oder gefälscht ist. Beide Netze interagieren kontinuierlich: Der Generator erzeugt Bilder, der Discriminator erkennt Fehler. Anschließend lernt der Generator, was er falsch gemacht hat und korrigiert seine Fehler. Das Ergebnis dieser Technik sind qualitativ hochwertige gefälschte Artefakte.
Neben dem Mißbrauch von Deepfakes für Politik oder Adult-Content sollten wir uns auch Gedanken machen, was die Technik in andere Bereichen wie dem Gesundheitswesen bedeuten kann. Deepfakes bergen für das Medizin und Gesundheit einzigartige Risiken. Ein paar Beispiele für höchst bedenkliche Szenarien:
Manipulation: Die Deepfake-Technologie könnte genutzt werden, um medizinische Bilder oder Aufzeichnungen zu fälschen, beispielsweise für Versicherungsbetrug. Dies hätte Auswirkungen auf Diagnosen und die Patientenversorgung. Falsche Behandlungen, unnötige Eingriffe oder Vernachlässigung der Pflege wären mögliche Folgen.
Vertrauensverlust: Gefälschte Videos oder Audioaufnahmen von Ärzten können falsche oder schädliche medizinische Ratschläge geben. Die Deepfakes erschüttern damit das Vertrauen in Gesundheitsfachkräfte und ihren beschädigen ihren Ruf.
Missbrauch und Betrug: Betrüger könnten Deepfake nutzen, um sich als Ärzte auszugeben und gefälschte Akkreditierungen, Veröffentlichungen, Lizenzen und Zertifikate usw. zu erstellen.
Rufschädigung und Privatsphäre: Deepfakes können mit gefälschten Aussagen von Patienten oder Ärzten ihre Privatsphäre verletzen oder ihren Ruf schädigen. Ein gefälschtes Video eines prominenten Politikers, der vorgibt, unheilbar krank zu sein, oder das eines Arztes, der behauptet, sein Patient sei verstorben, könnte schwerwiegende negative Folgen haben und verletzt die Persönlichkeitsrechte.
Deepfakes können für ausgeklügeltes Phishing missbraucht werden, bei denen Personen mit hochgradig personalisierten und überzeugenden Nachrichten angesprochen werden, was zum Diebstahl persönlicher und medizinischer Daten führen kann. Erst kürzlich wurde ein Mitarbeiter Ziel eines Phishing-Angriffs, bei dem der CEO seines Unternehmens als Deepfake dargestellt wurde.
Wissenschafts-Fälschung: Die Deepfake-Technologie stellt ein Risiko für die Integrität der Forschung und die Glaubwürdigkeit wissenschaftlicher Informationen dar. Deepfakes könnten Interviews oder Diskussionen mit Wissenschaftlern fälschen und so den Anschein erwecken, sie würden irreführende Forschungsergebnisse präsentieren. Auch wären wissenschaftliche Veröffentlichungen mit gefälschten mikroskopischen Bildern oder Versuchsreihen manipulierbar. Dies führt zu falschen Schlussfolgerungen und gefährdet die Integrität des wissenschaftlichen Prozesses.
Wenn Wissenschaftler in Deepfake-Videos oder Audioclips falsche Forschungsergebnisse präsentieren, wird das Vertrauen in wissenschaftliche Entdeckungen beeinträchtigt. Es besteht die Gefahr, dass Deepfakes genutzt werden, um irreführende oder schädliche Inhalte im Zusammenhang mit klinischen Studien zu verbreiten, wie Videos von gefälschten Tierversuchen, um die Öffentlichkeit zu beeinflussen.
Die Risiken von Deepfakes im Gesundheitswesen sind gravierend, wenn nicht gar alarmierend. Auch wenn die obigen Ausführungen zunächst wie theoretische Horrorszenarien erscheinen, so sind es doch nur einige wenige Beispiele für Ereignisse, die eintreten können, wenn wir keine Maßnahmen gegen Deepfakes ergreifen.
Der Umgang mit Deepfake-Risiken erfordert einen kombinierten Ansatz, der technologische Lösungen, rechtliche Regelungen zur Erstellung und Verbreitung von Deepfakes sowie die öffentliche Aufklärung über Desinformation umfasst.
Technologische Lösungen
Zunächst ist es entscheidend, Erkennungsinstrumente zu entwickeln und einzusetzen, welche gefälschte Inhalte präzise identifizieren. Der Artikel beschreibt im folgenden mehrere aktuelle Tools und Technologien - der Bereich entwickelt sich ständig weiter.
Ein Ansatz ist das Wasserzeichen für alle von KI erzeugten Inhalte. Ein Wasserzeichen hilft, KI-generierte Inhalte zu identifizieren und zu authentifizieren, indem ein Signal oder Muster eingebettet wird, welches die Herkunft überprüft. Der Hauptzweck besteht darin, Nutzern zu helfen, echte von KI-generierten Inhalten zu unterscheiden.
Soziale Medien spielen eine besondere Rolle im Umgang mit Deepfakes. Die Kennzeichnung von KI-generierten Inhalten mit Wasserzeichen und der Einsatz von Deepfake-Detektoren auf Social-Media-Plattformen und Nachrichtenseiten würden den Kampf gegen Deepfakes erleichtern. Auch Schutzmechanismen innerhalb der Modelle zur Inhaltserstellung sind wichtig. Dazu gehören eingebaute Filter, die die Verwendung von Bildern echter Menschen blockieren oder die Erstellung bestimmter Inhalte verhindern.
Was es nicht leichter macht: Viele KI-Modelle werden als Open Source veröffentlicht. Dies erschwert die Einbeziehung von Filtern oder Wasserzeichen und ermöglicht es Kriminellen, Deepfakes auf Basis öffentlich zugänglicher Daten zu erstellen.
Nur weil eine Technologie existiert, sind nicht alle ihre Anwendungsfälle legitim. |
---|
Hadas Bitran |
Regulatorische und rechtliche Rahmenbedingungen
Laut des Responsible AI Institutes gibt es in einigen Ländern bereits Regelungen gegen den Missbrauch von Deepfakes. Die EU beispielsweise hat einen proaktiven Ansatz gewählt und mit dem AI Act die Anforderungen an die Erkennung und Verhinderung von Deepfakes sowie an die klare Kennzeichnung von künstlich erzeugten Inhalten erhöht. Die USA arbeiten an neuen Gesetzen zum Schutz vor KI-generierten Deepfakes, und einige Bundesstaaten haben Gesetze erlassen, die vor allem auf Deepfake-Pornografie abzielen. Auch China hat ein strenges Verbot für die Verwendung bestimmter Deepfakes erlassen.
Die Einführung von Gesetzen und Vorschriften, die sich speziell mit der Erstellung und Verbreitung von Deepfake-Inhalten befassen, ist sehr wichtig. Regierungen diskutieren über Strafen für die Urheber und auch die Verbreiter von Deepfakes. Dies könnte dazu beitragen, dass Menschen zweimal nachdenken, bevor sie zweifelhafte Inhalte einfach übernehmen und weitergeben.
Regulierungsbehörden könnten auch die Entfernung gefälschter Medien aus sozialen Plattformen durchsetzen. Sie könnten soziale Medien und Nachrichtenseiten verpflichten, Wasserzeichen in Form eines Haftungsausschlusses auf geposteten Inhalten zu veröffentlichen. Es reicht nicht aus, Wasserzeichen auf KI-Systemen durchzusetzen, die die Inhalte generieren – der Endnutzer muss darauf aufmerksam gemacht werden.
Wie kann die Regulierung von Apps und Plattformen durchgesetzt werden? Regulierungsbehörden könnten erwägen, Apps und Plattformen, die sich nicht an die Vorschriften halten, abzuschalten oder deren Entfernung aus dem App Store zu erzwingen. Regulierung ist wichtig, reicht aber nicht aus, da es schwierig ist, sie gegenüber unregulierten böswilligen Entitäten durchzusetzen.
Wozu ist ein Wasserzeichen gut, wenn der Endnutzer nicht darauf aufmerksam gemacht wird? |
---|
Hadas Bitran |
Die Zusammenarbeit zwischen Technologieunternehmen, politischen Entscheidern und der sogenannten Zivilgesellschaft muss gestärkt werden, um Standards und bewährte Verfahren für den Umgang mit Deepfake-Risiken zu entwickeln. Zudem gehört die Öffentlichkeit noch stärker sensibilisiert und aufgeklärt. Kürzlich wurden in den USA Deepfake-Videos mit Barack Obama und Mark Zuckerberg veröffentlicht, um das Bewusstsein für die Deepfakes zu schärfen.
Die Aufklärung der Öffentlichkeit über die Existenz von Deepfakes und die Notwendigkeit, die Echtheit digitaler Inhalte zu prüfen, sind im Kampf gegen Desinformation entscheidend.
Deepfakes gefährden die Menschenrechte erheblich, da sie Missbrauch und Manipulation ermöglichen. Mit der Technologie können Beweise manipuliert werden, die Personen fälschlicherweise mit illegalen Aktivitäten oder gesellschaftlich inakzeptablem Verhalten in Verbindung bringen und ihren Ruf schädigen. Deepfakes tragen zu geschlechtsspezifischer Gewalt bei, indem sie unrechtmäßig expliziten Content erstellen, welcher die Rechte der Opfer auf Würde und Privatsphäre verletzt. Die Fake-Videos können auch demokratische Prozesse gefährden, Wahlen verfälschen, Betrug und Bedrohung sein sowie über vielfältige Manipulationen ein großes Risiko für einzelne Patienten und das gesamte Gesundheitswesen darstellen.
Da die Deepfake-Technologie inzwischen weit verbreitet ist, stellt sie eine erhebliche Bedrohung für unsere Gesellschaft dar. Die Fake-Videos und Bilder betreffen nicht nur die Menschenrechte, sondern auch die öffentliche Sicherheit und Gesundheit. Deepfakes sind ein akutes Problem. (uh)
Die englische Originalversion des Blogs von Hadas Bitran ist auf Substack zu finden. |
---|
Thank you Hadas for sharing your experience and thoughts! |