Vereinigtes Königreich erwägt neues „Persönlichkeitsrecht“ angesichts des Aufstiegs der Generativen KI.

Die britische Regierung erwägt eine Aktualisierung ihres „Rechts auf Persönlichkeit“ Gesetzes, das Künstler möglicherweise neue Schutzmaßnahmen gegen generative künstliche Intelligenzmodelle bieten könnte, die in der Lage sind, ihre Stile nachzuahmen.

Laut Financial Times hat die Labour-Regierung heute eine Überprüfung darüber gestartet, wie KI-Unternehmen ihre Technologie trainieren, indem sie digitale Inhalte abrufen – ein Prozess, der bereits unter Schöpfern in Großbritannien und den USA umstritten ist. Auf Grundlage dieser Ergebnisse wird voraussichtlich innerhalb der nächsten zwei Jahre eine neue Gesetzgebung von der Regierung vorgeschlagen.

Die Konsultation zielt angeblich darauf ab, die Entwicklung von KI-Tools zu verbieten, die es Benutzern ermöglichen würden, das Bild, die charakteristischen Merkmale oder die Stimme von öffentlichen Persönlichkeiten und Gruppen zu replizieren oder sehr nahe daran zu kommen. Der Bericht enthält Pläne, Schöpfern einen verbesserten Rechtsmechanismus zur Verfügung zu stellen, was in diesem Zusammenhang bedeutet, dass KI-Unternehmen wie OpenAI Lizenzvereinbarungen mit Künstlern abschließen müssen, um deren urheberrechtlich geschütztes Material für das Datenscraping zu verwenden. UK- und EU-Minister müssen jedoch sicherstellen, dass Schöpfer, die sich gegen das Datenscraping entscheiden, nicht versehentlich dadurch benachteiligt werden, dass die Sichtbarkeit ihrer Inhalte online reduziert wird.

Die Ankündigung der Konsultation erfolgt nach der Veröffentlichung von OpenAI’s Sora-Text-zu-Video-Generierungstool für die Öffentlichkeit am 16. Dezember, das es Benutzern ermöglicht, bis zu 20 Sekunden lange Videos aus einer kurzen Texteingabe zu generieren. Schon vor der Veröffentlichung haben Künstler und Inhaltschaffende rechtliche Maßnahmen in Bezug auf Sora gefordert, wobei viele Bedenken darüber geäußert haben, wie das Datenscraping zur Schulung des Tools verwendet wurde.

Im November veröffentlichte eine Gruppe von visuellen Künstlern, Filmemachern und Grafikdesignern, die frühzeitigen Zugang zu Sora erhalten hatten, eine Kopie des KI-Tools auf einer Open-Source-Plattform und veröffentlichten eine scharfe Rüge gegen OpenAI, das Unternehmen auch hinter ChatGPD. In dem Schreiben wurde behauptet, dass das Unternehmen 300 Kreative eingeladen habe, das Produkt zu testen, aber sie nicht angemessen für ihre Arbeit entschädigte – und sogar in künstlerische Zensur verwickelt war, alles mit der Absicht, das Image des Unternehmens zu „artwaschen“.

LESEN  Der BMW M3 GTR aus NFS Most Wanted kommt in der BMW Welt an.

Früher in diesem Jahr unterzeichneten mehr als 100 führende Forscher im Bereich künstliche Intelligenz einen offenen Brief, in dem Bedenken darüber geäußert wurden, dass generative KI unabhängige Forschung ersticken könnte. Die Experten warnten davor, dass intransparente Unternehmensprotokolle, die darauf abzielen, Betrug zu stoppen oder die Erzeugung von gefälschten Nachrichten zu verhindern, einen unbeabsichtigten Effekt haben könnten – dass unabhängige Forscher, die KI-Modelle zur Sicherheit testen, von der Plattform ausgeschlossen oder verklagt werden könnten. Der Brief forderte prominente Unternehmen wie OpenAI, Meta und Midjourney auf, ihre Transparenz zu verbessern und Prüfern die Möglichkeit zu bieten, potenzielle rechtliche Probleme wie Urheberrechtsverletzungen zu überprüfen.

„Generative KI-Unternehmen sollten vermeiden, die Fehler von sozialen Medienplattformen zu wiederholen, von denen viele effektiv Arten von Forschung verboten haben, die darauf abzielen, sie zur Rechenschaft zu ziehen“, heißt es in dem Brief.

Schreibe einen Kommentar