Dank der rasanten Fortschritte in der KI-Technologie ist es mittlerweile möglich, Stimmen täuschend echt zu imitieren. Diese Entwicklungen erlauben es, individuelle Sprachmuster, Stimmlagen und Ausdrucksweisen nahezu perfekt nachzubilden. Dadurch entstehen erhebliche Missbrauchsgefahren, insbesondere durch die Erstellung gefälschter Videos und Audiodateien.

Missbrauch und Betrug

Ein großes Risiko beim Stimmenklonen besteht im Missbrauch dieser Technologie. Klonstimmen können verwendet werden, um Menschen zu täuschen, beispielsweise bei betrügerischen Anrufen oder Identitätsdiebstahl. Dies stellt nicht nur eine Verletzung der Privatsphäre dar, sondern kann auch erhebliche finanzielle Schäden verursachen. Außerdem kann die Verbreitung manipulativer Inhalte das Vertrauen in Medien und öffentliche Persönlichkeiten erheblich beeinträchtigen. Ein Beispiel dafür ist das im letzten Jahr bekannt gewordene Video des Nachrichtensprechers Christian Sievers, indem er angeblich für zwielichtige Geldanlagen warb (wir hatten berichtet). Politisch können solche Inhalte zur Desinformation eingesetzt werden, während sie in der Unterhaltungsbranche Urheberrechtsverletzungen fördern.

Rechtliche Rahmenbedingungen 

1. Allgemeines Persönlichkeitsrecht

Das Allgemeine Persönlichkeitsrecht ist durch Artikel 1 und Artikel 2 Absatz 1 GG geschützt. In seinem „Marlene-Dietrich-Urteil“ von 1. Dezember 1999 (Az. I ZR 49/97) stellte der BGH fest, dass auch die Stimme einer Person von dem Allgemeinen Persönlichkeitsrecht umfasst ist. Dabei hielt er außerdem fest, dass die Stimme auch einen wirtschaftlichen Wert haben kann. Dieser Wert beruht auf der Bekanntheit und dem Ansehen einer Person in der Öffentlichkeit. Demzufolge kann die unbefugte Nutzung einer Stimme im Rahmen des APR untersagt werden.

2. Datenschutz

In Deutschland und der EU regelt die Datenschutz-Grundverordnung (DSGVO) den Umgang mit personenbezogenen Daten, zu denen auch biometrische Daten wie die Stimme gehören. Gemäß der DSGVO ist eine Einwilligung der betroffenen Person erforderlich, um ihre biometrischen Daten zu verarbeiten. Diese Einwilligung muss freiwillig, informiert und unmissverständlich sein. Das bedeutet, dass die betroffene Person genau wissen muss, wozu ihre Stimme verwendet wird, und dem ausdrücklich zustimmen muss. Ohne diese Einwilligung ist die Verarbeitung der Stimme in der Regel unzulässig und stellt einen Datenschutzverstoß dar.

3. Lizenzrecht

Darüber hinaus ist es grundsätzlich möglich Lizenzrechte an der eigenen Stimme zu vergeben. Wird die Stimme dann ohne eine entsprechende Lizenz verwendet, zum Beispiel um eine KI zu trainieren, so kann ein Schadensersatzanspruch entstehen.

Welche Schritte müssen bei einem Missbrauch der eigenen Stimme ergriffen werden?

Die rechtliche Verfolgung der Verantwortlichen ist aufgrund der komplexen technischen und rechtlichen Verstrickungen nicht ganz einfach. Zunächst muss der Missbrauch nachgewiesen und entsprechende Beweise gesichert werden. Darüber hinaus müssen die Verantwortlichen identifiziert werden. Das könnte zum Beispiel der Entwickler der KI-Software, der Betreiber der Plattform, auf welcher der Klon veröffentlicht wurde oder ein Endnutzer sein, welcher die Stimme für eigene Zwecke verwendet hat. Die Verantwortlichen können im Rahmen einer Abmahnung dazu aufgefordert werden weitere Nutzungen zu unterlassen. Sollten die Beteiligten den Verstoß nicht abstellen, so empfiehlt sich eine Unterlassungsklage. Daneben kann auch auf Schadensersatz geklagt werden, um gegebenenfalls finanzielle Schäden oder Rufschädigungen auszugleichen.

Fazit

Das Klonen von Stimmen durch KI-Dienste ist ein technologisch beeindruckender, aber rechtlich komplexer Bereich. Besondere Schwierigkeiten zeigen sich in der Rechtsdurchsetzung, da noch keine internationalen klaren Richtlinien existieren, welche flächendeckend Klarheit schaffen würden. Außerdem ist es wichtig Technologien zur Identifizierung von KI-generierten Stimmenimitationen zu schaffen, um so Verstöße schneller aufdecken zu können.

 

Foto von Jason Rosewell auf Unsplash

 

Weitere Beiträge:

Urheberrechtliche Herausforderungen bei der Entwicklung von KI

Visuell-generative KI: Plagiatsprobleme im Fokus

Deepfakenews: Desinformationen mittels KI