Intelligenz, Verantwortung, Empathie, Emotion

München, 26. Oktober 2023 – Evolution oder Revolution, Transformation oder Disruption – oder ein bisschen von allem? Zum Auftakt der 37. MEDIENTAGE MÜNCHEN haben Vertreter:innen aus den Bereichen Politik, Medien und Wirtschaft die Folgen der Künstlichen Intelligenz (KI) ausgelotet. Dabei ging es vor allem um Chancen und Risiken, die mit der sogenannten generativen KI verbunden sind. Im Mittelpunkt der Keynotes und Debatten, die beim Medientage-Gipfel von Aline Abboud („Tagesthemen“) moderiert wurden, standen nicht nur technologische und ökonomische Perspektiven, sondern auch moralische Aspekte und Begriffe wie Verantwortung und Empathie.

Dr. Thorsten Schmiege, Präsident der Bayerischen Landeszentrale für neue Medien (BLM) und Vorsitzender der Gesellschafterversammlung der Medien.Bayern GmbH, erklärte, Künstliche Intelligenz werde unsere Welt nachhaltig verändern. Sie werde uns zwar nicht „auslöschen“, lasse sich aber auch nicht aussitzen. Deshalb gehe es darum, Chancen zu nutzen, aber auch Leitplanken zu setzen. Notwendig sei ein Spagat „zwischen dem Ermöglichen von Innovation einerseits und dem verantwortungsvollen Umgang mit einer neuen Technologie andererseits“.

Dr. Florian Herrmann, Leiter der Bayerischen Staatskanzlei und bayerischer Staatsminister für Bundesangelegenheiten und Medien, betonte, KI könne eine „sehr gute Unterstützung für die Medien-Branche“ sein. Neue Technologie sei oft „janusköpfig“. Dies dürfe aber nicht bedeuten, KI-Chancen nicht zu nutzen. Bei der Regulierung komme es darauf an, keine Regeln aufzustellen, die später Innovationen verhindern könnten. Andernfalls werde die entsprechende Wertschöpfung am Ende in Indien oder den USA generiert, warnte der bayerische Medienminister vor dem Hintergrund der aktuellen Trilog-Verhandlungen auf dem Weg zum Artificial Intelligence Act (AI Act) der Europäischen Union.

Prof. Dr. Björn Ommer, der den Text-zu-Bild-Generator „Stable Diffusion“ entwickelt hat, bei dem Künstliche Intelligenz aus eingegebenen Befehlen Bilder erschafft, machte deutlich, worin die neue Qualität von generativer KI liegt. Jetzt sei es mit Sprachbefehlen möglich, dass leistungsfähige Technologie auch von Laien genutzt werden könne. KI-Algorithmen würden dann „interpolieren und extrapolieren“, selbstüberwacht lernen und Menschen dabei helfen, Zeit und Geld zu sparen. Während die Medien-Logik der digitalen Welt bislang darauf ausgerichtet sei, hohe Reichweiten zu erzielen, könnten Algorithmen nun Angebote personalisieren und so differenzierte Kommunikationsprozesse ermöglichen. Ommer, der als Professor an der Universität München die Forschungsgruppe „Computer Vision & Learning“ leitet, machte auch Ausführungen zum Thema Mensch und Maschine. Menschen müssten mit KI effektiver agieren können als ohne, lautete seine Forderung. „Wenn Menschen wie Maschinen arbeiten sollen, können diese Aufgabe auch von Maschinen besser erledigt werden.“ Wichtig sei herauszufinden, was den Menschen von der Maschine unterscheide, sagte der Wissenschaftler. Beispielsweise ließen sich viele Fakten auch künftig nur durch journalistische Recherchen vor Ort prüfen. Für die Massenkommunikation im KI-Zeitalter lautete Ommers Empfehlung an die Medien-Branche: Menschen seien soziale Wesen und direkte Beziehung nicht austauschbar.

Dass erfolgreiche Kommunikation von Vertrauen, Glaubwürdigkeit und Empathie abhängig ist, wurde deutlich, als die Handpuppen Ernie und Bert in einem Sketch die Grenzen synthetischer Wirklichkeiten aufzeigten und blödelten, die Buchstaben KI ständen vielleicht einfach für „Keine Idee“.

Wie wichtig Kreativität und Authentizität für Kommunikation sind, machte Dr. Peter Haller als Gründer und Aufsichtsratsvorsitzende der Serviceplan Group, in deren House of Communication die MEDIENTAGE MÜNCHEN in diesem Jahr stattfinden, deutlich: Die Räume der größten deutschen inhabergeführten Werbeagenturgruppe würden absichtlich keine Werbeprodukte zieren, sondern vor allem Werke renommierter Künstler.

Philipp Justus, der das Geschäft von Google in Zentral- und Osteuropa leitet, erläuterte, KI sei eine Technologie, die Muster erkenne, Vorhersagen mache und aus Beobachtungen lerne. Dieses maschinelle Lernen habe etwa ermöglicht, dass Google binnen kürzester Zeit etwa 200 Millionen Proteine entschlüsseln konnte. Dieses Beispiel zeige, wie KI dem Menschen helfen könne. MaschinenIntelligenz, die ausgehend von den Daten, mit denen sie trainiert wurde, automatisiert verschiedene Arten von Inhalten generieren kann, bedeute für den Journalismus eine Reihe von Vorteilen in puncto Effizienz, Produktivität und Kreativität. Medienakteur:innen erhielten so neue Freiräume. „KI ist zu wichtig, um sie nicht zu regulieren“, betonte Justus, ergänzte aber gleich: „KI ist zu wichtig, um sie nicht gut zu regulieren.“ Deshalb komme es beim AI Act der Europäischen Union darauf an, genügend Raum für Innovationen zu lassen. Der Google-Manager warnte in diesem Zusammenhang davor, einige Angelegenheiten etwa durch den Digital Services Act, das EU-Urheberrecht und den AI Act „gleich doppelt und dreifach“ zu regulieren.

Ähnlich wie Ommer wies auch Justus darauf hin, KI könne nicht nur künstliche Welten schaffen, sondern auch dazu beitragen, Desinformationen zu enttarnen oder zu bekämpfen. So lasse sich die Zuverlässigkeit von Informationen prüfen. Auf Kritik, dass KI-Programme mit Werken fremder Urheber trainiert würden, reagierte der Google-Geschäftsführer mit dem Hinweis, dank des neuen Angebotes Google-Extended könnten Website-Anbieter Inhalte für KI-Anwendungen freigeben. Insgesamt, so lautete das Fazit von Justus, gehe es bei KI darum, Risiken zu verstehen und zu beherrschen. So entstehe eine „Kraftquelle“ für Wirtschaft und Medienunternehmen.

Bei der abschließenden Diskussion unterstrich Niddal Salah-Eldin, die im Vorstand der Axel Springer SE für den Bereich Talent & Culture verantwortlich ist, KI müsse im Journalismus eingesetzt werden, um Journalist:innen von „repetitiven und redundanten Dingen“ zu entlasten. Die Axel Springer SE setze deshalb auf eine entsprechende Aus- und Weiterbildung, auf die Optimierung von Prozessen und die Entwicklung neuer Geschäftsmodelle für die „größte Disruption seit Jahrzehnten“. Eines aber könne KI nie leisten: Empathie. Es gehe im Journalismus um die Frage „Was sind die Bedürfnisse meines Gegenüber?“.

Prof. Dr. Kai Gniffke, Intendant des Südwestrundfunks und Vorsitzender der ARD, stimmte zu. Auch er plädierte dafür, dass KI „Freiräume für direkte Kommunikation“ schaffen müsse. Würde die Technologie beispielsweise für synthetische Audio-Elemente mit bekannten Stimmen eingesetzt, sei dies unproblematisch, wenn es transparent geschehe. Künstliche Intelligenz nicht zu nutzen, komme für die ARD nicht in Frage, weil die Zukunft ohne KI-Anwendungen nicht denkbar sei.

Dr. Nina Gerhardt, Vorsitzende der Geschäftsführung von RTL Radio Deutschland, erläuterte, KI müsse einen funktionalen Nutzen für die Programmmacher:innen haben, könne bei der Verbreitung von Programmen helfen und eine Marke bekannt machen. Einem komplett synthetischen Radioprogramm aber fehle es an Emotionen und Nähe zu den Hörer:innen, urteilte die stellvertretende Vorsitzende des Fachbereichs Radio und Audiodienste des Verbands VAUNET.  (MTM/IIM)