- Die zunehmende Nutzung von KI umfasst neben Textgenerierung auch Sprach-, Bild- und Videogenerierung.
- ChatGPT fokussiert sich auf Texte, jedoch gibt es viel mehr Anwendungen von KI.
- Die Erstellung von Inhalten ist kostengünstig, erfordert aber mehr Aufwand für qualitativ bessere Ergebnisse.
- Es stellt sich die Frage, was von KI und was von Menschen stammt.
- Regulierungen für KI und Deep-Fakes sind nötig, insbesondere bei Urheberrechten.
- AGB von KI-Anbietern müssen angepasst werden für neue Arten von Inhalten.
- Die Bedeutung und Vertrauenswürdigkeit von digitalen Inhalten stehen auf dem Prüfstand.
In den letzten Wochen habe ich mich mehr und mehr mit KI beschäftigt und was SaaS Plattformen noch so alles können. Da sich das halbe Internet auf KI-Texter wie ChatGPT „eingeschossen“ hat, vergessen viele, dass es noch viele weitere Dinge gibt, von Sprach-, Bild bis Videogenerierung. Dem folgenden Video merkt man natürlich – noch – an, dass die Sprachaufnahme nicht wirklich von mir stammt und die Videoaufnahme generiert wurde. Es hat mich aber auch satte 5 Minuten für die Erstellung und 0.00! Euro gekostet. Dieser Blogpost hat mich mehr Zeit gekostet. Wer weiß, was mit mehr Aufwand, mit mehr Geld und mehr Technologie möglich ist?
Lässt sich dann überhaupt noch sagen, was von einer KI stammt und was von Menschen selber erstellt wurde?
Wie verhält es sich dann mit Urheber/Verwertungsrechten?
Kann man in Strafverfahren überhaupt noch Videos oder Fotos als Richter vertrauen?
Was sagt eigentlich Google zu dem Ganzen? Sind Inhalte noch relevant oder ist SEO vollständig automatisiert?
Muss KI und/oder Deep-Fakte reguliert werden?
Sollte man Kennzeichnungspflichten einführen und wenn ja, wie wären diese zu kontrollieren?
Was bedeuten Videos/Text/Bilder, die nicht wirklich „echt“ sind, für Fragen des Wettbewerbsrechts? Kann man auf Informationen und Inhalte noch vertrauen?
Wie müssten AGB von KI-Anbietern oder AGB von KI-SaaS-Diensten aussehen?
Fragen über Fragen!
Und wir sind erst am Anfang der Entwicklung….