Revolutionäre KI „erweckt die Fotos aller zum Leben“, gibt aber Anlass zur Sorge 13

Revolutionäre KI „erweckt die Fotos aller zum Leben“, gibt aber Anlass zur Sorge

In den letzten Tagen wurden die Ergebnisse eines Systems von künstliche Intelligenz ist in der Lage, statische Bilder zu animieren und zum Leben zu erwecken.

Das bedeutet, dass jedes Foto von Ihnen zu einer Animation werden oder verschiedene Bewegungen, wie zum Beispiel TikTok-Tänze, reproduzieren kann.

Die revolutionäre Software heißt „Animate Everyone“ und wurde von der Alibaba Group entwickelt, dem gleichen Unternehmen, dem die Website gehört AliExpress. So beeindruckend die Leistungsfähigkeit des Systems auch ist, so große Sorge bereiten Fotoanimationen.

Dies ist ein weiterer Schritt von KI-Systemen, der die Erstellung und Verbreitung falscher Informationen zu politischen oder diffamierenden Zwecken fördern kann.

Die ethische Debatte in diesem Sinne muss angesichts einer solch grandiosen Revolution geführt werden. Denn wer garantiert, dass die Nutzung auf Eignung ausgerichtet ist?

Angesichts all dieser Probleme ist es erwähnenswert, dass „Animate Everyone“ noch nicht für die allgemeine Nutzung freigegeben ist. Dennoch wurde es bereits auf GitHub als Open-Source-Tool veröffentlicht, sodass es nun von anderen Entwicklern genutzt werden kann.

Revolutionäre KI „erweckt die Fotos aller zum Leben“, gibt aber Anlass zur Sorge 16

Erstellung von Bewegungen mit einem statischen Bild von Star Messi – Foto: Animate Everyone/Reproduktion

Das Potenzial des Tools besteht im Wesentlichen darin, Bilder mit künstlicher Intelligenz so zu manipulieren, dass aus Positionssequenzen Bewegungen erzeugt werden können. Dies ist eine Art von Animation, die bei der Videoproduktion im Allgemeinen sehr hilfreich sein könnte.

Die von „Animate Everyone“ veröffentlichten Bilder gingen viral Twitter. Während die Ergebnisse die Internetnutzer beeindruckten, kamen auch Befürchtungen auf, dass diese Technologie möglicherweise zur Erstellung von Deepfakes, einschließlich pornografischer Videos, genutzt werden könnte.

Dieses Thema muss in Brasilien berücksichtigt werden, insbesondere weil die Herstellung von Deepfakes nach nationaler Gesetzgebung noch nicht als Straftat gilt, da es vom Kontext oder Zweck abhängt.

Wenn die Praxis zu Verleumdungs- und Desinformationszwecken genutzt wird, was im Land nur zugenommen hat, ist eine Einstufung aufgrund der strafrechtlichen Zielsetzung der Tat möglich.

Sind Sie neugierig, wie das System wirklich funktioniert? Schauen Sie sich das Video unten an:

Verwandt :  So überwachen Sie Ihre E-Mail-Adresse und Passwörter auf Lecks bei Datenschutzverletzungen