Folge 93: Prof. Björn Ommer und wie wir finden, was noch nicht existiert

Prof. Björn Ommer leitet nach Stationen in Berkeley, Zürich und Heidelberg die Computer Vision & Learning Group der LMU München. Mit seinem neuronalen Netzwerk „stable diffusion“ kann er aus Texten oder Skizzen Bilder erzeugen – so wie eine Websuche, die das erschafft, wonach wir suchen.

Wir sprechen mit Björn über die methodischen Ansätze und Herausforderungen von solch generativen Computermodellen wie GPT-3, DALL-E oder Stable Diffusion, die mit der Erzeugung von Texten und Bildern viele Branchen revolutionieren. Sie könnten in Zukunft ermöglichen, Inhalte individuell und ad hoc zu erzeugen: Wie wäre es mit einem Kinofilm, der sich live an die anpasst, die ihn gerade anschauen?

Bereits die heutigen Modelle sind spielerisches und kreatives Werkzeug für alle, stoßen aber noch an viele Grenzen – und „verstehen“ nicht wirklich, was sie tun. Und sie werfen Fragen auf, wie mit der kreativen Leistung der Trainingsdaten, aber auch den vom Algorithmus erzeugten Bildern umzugehen ist. Björn gibt uns einen spannenden Einblick in einen Zweig der Digitalisierung, der exponentiell wächst und unseren Alltag verändern wird.

https://stablediffusionweb.com/#demo

https://ommer-lab.com/people/ommer/

P.S. Das Beitragsbild wurde natürlich mit „Stable Diffusion“ erzeugt. Was war wohl der Text?

Folge 84: XMAS Edition mit Iryna Gurevych und digitalen Autoren

In unserem Buch „Die digitale Herausforderung“ haben wir beschrieben, wie Tipping Points das Spielfeld verändern: Technologien werden reif und konvergieren, Geschäftsmodelle werden disruptiert, neue Player gewinnen die Oberhand. Die Covid-Pandemie hat eindrücklich gezeigt, dass solche Kipp-Punkte viel schneller überschritten werden können als man glauben möchte – von wegen Komfortzone.

In unserer Weihnachtsausgabe möchten wir auf einen dieser Tipping Points nochmal genauer schauen. Immer wieder haben wir im Podcast über die vermeintlichen Fortschritte von Bots und digitalen Agenten gesprochen. Google hatte gezeigt, wie ein Algorithmus den Friseur-Termin vereinbart. Und nun soll das Programm „GPT-3“ in der Lage sein, beliebige Texte bis hin zu Computer-Programmen eigenständig zu schreiben. Doch wo bleiben die revolutionären Anwendungen?

Wir interviewen dazu Prof. Iryna Gurevych von der TU Darmstadt. Sie ist eine vielfach ausgezeichnete Expertin zum Thema Natural Language Processing und Maschinelles Lernen. Ihr Blick auf die Fähigkeiten von Algorithmen ist realistischer, als es uns Google & Co. glauben lassen möchten. Auch wenn Deep Learning Algorithmen massive Fortschritte machen, so sind sie von universellen Maschinen, die z.B. beliebige Texte eigenständig formulieren können, noch weit entfernt. Ihre Vision ist ein konstruktives Miteinander und gegenseitiges Ergänzen von Mensch und Maschine – wir bleiben dran!