SCHLAUESin 100 Sekunden -
Stimmen von Menschen können mittlerweile sehr einfach von KI-Programmen geklont werden. Während früher dafür noch Material von einer oder mehreren Minuten nötig war, reichen mittlerweile schon wenige Sekunden. Die Stimmen werden so gut nachgemacht, sogar in fremden Sprachen, dass man sie nur schwer von den Originalstimmen unterscheiden kann. Jetzt machten Forschende der Uni Zürich eine verblüffende Entdeckung: unser Gehirn verarbeitet die geklonten Stimmen anders als die echten Stimmen!
Zwei Areale in unserem Gehirn erkennen offenbar die Deepfakes. So ist etwa unser Belohnungssystem bei Deepfakes weniger aktiv als bei Originalstimmen. Außerdem schaltet sich bei KI-Stimmen das Hörzentrum im Gehirn ein. Es versucht, Fehler in Betonung, Atmung und Pausen auszugleichen. KI Stimmen zuzuhören bereitet dem Gehirn also weniger Vergnügen.
Wie wurde das herausgefunden?
Wissenschaftler hatten Stimmen geklont und Probanden vorgespielt. Zwei Drittel haben die richtig zugeordnet.
Warum ist das so?
Es wurde geschaut, welche Gehirnareale abweichend auf KI-Stimmen reagieren - im Vergleich zu natürlichen. Das Ergebnis: Hören wir natürliche Stimmen, wird das Belohnungssystem im Gehirn aktiv. Bei KI-Stimmen hingegen schaltet sich das Hörzentrum ein. Es versucht, Fehler in Betonung, Atmung und Pausen auszugleichen. KI Stimmen zuzuhören bereitet dem Gehirn also weniger Vergnügen.
Funfact:
Unsere eigenen Stimmen können wir auch leicht selber klonen - im Netz.
Was lernen wir daraus?
Deepfake-Stimmen können uns verführen – aber nur teilweise. Häufig checken wir’s doch. Ganz schön schlau.
Beitrag von Matthias Finger