Auf einer Website gibt es Porträts von Menschen zu sehen. Klingt unspektakulär? Wäre es auch - wenn die gezeigten Personen existieren würden. In Wirklichkeit handelt es sich um täuschend echte Fotos, die von einer Künstlichen Intelligenz generiert werden. Wir erklären, wie das funktioniert - und welche Gefahren es birgt.

Mehr Wissensthemen finden Sie hier

Eine dunkelhaarige Frau mit Sommersprossen, ein Mann mit Brille, der in ein Mikrofon spricht, ein lachendes Mädchen mit grossen, braunen Augen: Geht man auf die Webseite "This person does not exist", bekommt man bei jedem Besuch ein anderes Porträt eines Menschen zu sehen.

Zu sehen gibt es junge und alte, dünne und dicke Menschen, Frauen und Männer, mit asiatischen Gesichtszügen, dunkelhäutige und weisse Menschen. Sie haben Falten, einen Dreitagebart und kleine Makel und sind nicht perfekt in Szene gesetzt, was man zum Beispiel an roten Augen oder glänzender Haut erkennt.

Doch sie alle haben eines gemeinsam: Die Personen existieren in der Realität nicht. Die Bilder wurden künstlich erzeugt – von einem Algorithmus. Die Ergebnisse sind verblüffend, denn die Porträts wirken täuschend echt.

Zwei KIs trainieren sich gegenseitig

Hinter der Seite steckt der US-Entwickler Phillip Wang, der dafür eine Technologie der US-Firma Nvidia benutzte. "Gesichter sind für unsere Wahrnehmung am wichtigsten", schreibt er auf Facebook. Deshalb habe er auf die Technologie des Chip- und Grafikkartenherstellers Nvidia aufmerksam machen wollen.

Nvidia entwickelte eine Künstliche Intelligenz (KI), die Gesichter erfinden kann. Diese kombiniert dazu Merkmale vorhandener Porträts wie Nasen- und Augenform, lockige oder glatte Haare, Falten, Gesichts-, Haar- und Augenfarbe zu neuen Motiven. Das ist aber noch nicht alles.

Die Nvidia-KI ist ein sogenanntes Generative Adversarial Network (GAN). Das 2014 erstmals vorgestellte Prinzip: Ein Algorithmus erzeugt etwas, in diesem Fall Gesichter. Er wird "Generator" genannt. Ein zweiter Algorithmus, der "Discriminator", bewertet die Ergebnisse. Die erste KI muss ständig besser werden, um die zweite zu überzeugen. Diese wiederum muss genauer "hinsehen", um Fehler zu erkennen. So kann sich KI ohne menschliche Hilfe selbst trainieren, um immer realistischere Ergebnisse zu erzielen.

Nvidia hat die Technologie weiterentwickelt und nennt sie '"StyleGAN". Die beeindruckenden und vielfältigen Möglichkeiten zeigt Nvidia in einem Video. Die KI kreiert auch nicht existierende Katzen, Autos oder Schlafzimmer-Einrichtungen.

Die Zukunft: realistische Computerspielfiguren und Bots mit Gesicht

StyleGAN könnte zum Beispiel eingesetzt werden, um in Zukunft realistischere Figuren in Computerspielen oder Animationsfilmen zu erschaffen – oder um virtuellen Assistenten und Bots ein Gesicht zu geben. 3-D- und Virtual-Reality-Welten könnten mit Hilfe der Technologie schnell und automatisch entwickelt werden, ohne langwierige Programmierung.

Schon heute werden künstliche erschaffene Menschen als Social-Media-Influencer eingesetzt: Der jüngste Star ist das japanische Model Imma. Das "virtuelle Mädchen", wie es in ihrem Profil heisst, wirbt für stylische Kleidung – mehr als 37.000 Follower hat sie innerhalb kürzester Zeit gesammelt.

Die Gefahren künstlich erzeugter Bilder

Aber die täuschend echt wirkenden Bilder bergen auch Gefahren. Denn auch Betrüger können die Algorithmen für ihre Zwecke nutzen: Kann man sich noch sicher sein, dass sich hinter Fotos im Internet echte Menschen verbergen?

Fake-Profile bei Facebook oder in Dating-Portalen verwenden bislang häufig Porträts echter Personen. Sie kopieren dazu einfach deren Bilder. Wer die Rückwärts-Bildersuche bei Google nutzt, kommt ihnen schnell auf die Schliche. Mit künstlich erzeugten Fotos ist diese Überprüfung nicht mehr möglich.

Die computergenerierten Bilder könnten auch für "Desinformation und Propaganda" genutzt werden, wie "PC Welt" schreibt. Wir können nicht mehr länger glauben, was wir auf einem Bild oder Video sehen. Wer andere täuschen will, zeigt eine angeblich echte Szene auf einem Foto, die aber in Wirklichkeit so gar nicht stattgefunden hat.

Die Verbreitung von "Fake News" könnte somit neue Dimensionen erreichen. Es ist damit auch leicht möglich, computergenerierte Bilder in vorhandene Fotos und Videos zu montieren, warnt die Webseite "Interesting Engineering".

Wie man die falschen Porträts enttarnt

Aber wie kann man die falschen von echten Menschen unterscheiden? Es hilft nur, genau hinzusehen und auf Details zu achten. Die Nvidia-KI ist (noch) nicht perfekt. Wer genau hinsieht, erkennt, dass bei manchen der Porträts etwas nicht stimmt. Dann passen etwa die Haare nicht zum Gesicht, Kinder haben Falten im Gesicht, die Übergänge zwischen Gesicht und Haaren sind zu extrem oder die Proportionen von Ohren und Hals stimmen nicht ganz.

Es hilft auch, auf den Bildhintergrund zu achten: Oft ist nicht viel zu erkennen, abgesehen von verschwommenen Farben. Das Problem dabei: Die KI lernt permanent weiter, und sie wird nach und nach noch realistischere Ergebnisse liefern können.

Verwendete Quellen:

  • Webseite "This person does not exist"
  • Philip Wang, Ankündigung der Seite "This person does not exist" bei Facebook
  • Paper von Nvidia: "A Style-Based Generator Architecture for Generative Adversarial Networks"
  • Video von Nvidia: "A Style-Based Generator Architecture for Generative Adversarial Networks"
  • Medium: "Gan 2.0 Nvidias hyperrealistic face generator"
  • PC Welt: "KI produziert Portraits von Menschen, die nicht existieren"
  • Interesting Engineering: "This person dies not exists website is a creepy look into the future"
  • Instagram-Account des virtuellen Models Imma
Bildergalerie starten

Fotos aus aller Welt: Erstaunliche Augenblicke

Hier sehen Sie - ständig aktualisiert - die aussergewöhnlichsten Fotos aus aller Welt.