Human-Centered Explainable AI – Der Weg aus der Black Box

Shownotes

KI verändert stetig unsere Art zu arbeiten und zu Dinge zu erledigen – ob durch Recommendations von streaming-Diensten oder durch generative Bild- und Texterstellung.

Dabei bleibt die KI jedoch häufig eine Black Box. KI-Entscheidungen konnten lange nur von Expert:innen nachvollzogen werden. Wir sprechen mit unserer Kollegin und UI/UX-Expertin Alina, wie sich das durch Explainable AI ändern kann.

Es geht darum, Erklärungen so aufzubereiten, damit KI-Entscheidungen auch von Usern begriffen werden, die keine tiefe KI-Expertise haben.

Link aus der Folge: https://www.inovex.de/de/blog/explainable-ai-as-a-user-centered-design-approach/

Für diese Folge von Digital Future gibt es ein vollständiges Transkript. Dieses Transkript wurde automatisiert erzeugt und nicht nachbearbeitet oder korrekturgelesen. Es wird daher sicher Fehler enthalten. Das Transkript ist als Ergänzung zu verstehen, um beispielsweise die Inhalte durchsuchbar zu machen. Im Zweifel gilt immer das gesprochene Wort aus der Folge.

Dieser Podcast lebt von deinem Feedback! Melde dich gerne über die verlinkten sozialen Medien oder direkt per Mail an podcast@inovex.de.

Wenn dir der Podcast gefallen hat, abonniere ihn und erzähl deinen Freunden davon! Außerdem freuen wir uns über deine Text- und/oder Sternebewertung bei Apple Podcasts.

Twitter: https://twitter.com/inovexgmbh Instagram: https://www.instagram.com/inovexlife/ www.inovex.de www.inovex.de/blog

Transkript anzeigen

00:00:00: Hallo und herzlich willkommen bei Digital Future, dem Podcast zur Technologie und Unternehmenskultur.

00:00:13: Mein Name ist Wolfgang Schoch und ich bin Agile Coach bei InnoVex.

00:00:16: Ich habe aber auch schon einige andere Sachen gemacht und so die IT-Brosche aus verschiedenen

00:00:21: Blickwinkeln kennengelernt, zum Beispiel als Softwareentwickler, als Experteversuchtechnologie

00:00:27: oder im Vertrieb.

00:00:29: Ich freue mich, euch in jeder Folge des Podcasts eine Kollegin oder ein Kollegen vorzustellen

00:00:34: und mich mit ihnen über das jeweilige Fachgebiet zu unterhalten.

00:00:38: So bekommt ihr einen Einblick in unseren technologischen und unternehmenskulturellen Alltag.

00:00:43: In der heutigen Folge spreche ich mit meiner Kollegin Alina Döring und meinem Kollegen

00:00:47: Robin Sänge.

00:00:48: Wir unterhalten uns über Human-Centered Explanable AI.

00:00:52: KI verändert herständig unsere Art zu arbeiten und Dinge zu erledigen.

00:00:57: Egal ob jetzt durch Recommendations, die uns Filme und Musik empfehlen oder durch die generative

00:01:02: Erzeugung von Bildern oder Texten.

00:01:04: Dabei bleibt die KI jedoch häufig eine Blackbox.

00:01:07: Entscheidungen konnten lange Zeit nur von Expertinnen nachvollzogen werden und genau darum geht es

00:01:13: bei Human-Centered Explanable AI.

00:01:15: Nämlich darum, Erklärungen so aufzubereiten, damit auch KI-Entscheidungen von Usern begriffen

00:01:21: werden, die keine tiefe KI-Expertise haben.

00:01:25: Ich wünsche euch viel Spaß mit dem Gespräch.

00:01:27: Hallo und herzlich willkommen hier im Podcast.

00:01:29: Ich freue mich, dass ich heute zwei alte Bekannte begrüßen darf.

00:01:33: Alina, du warst schon mal ganz kurz hier zu Gast im Podcast und Robin, du schon mal ein

00:01:39: bisschen länger.

00:01:40: Ich würde euch aber bitten, euch trotzdem mal ganz kurz vorzustellen, damit auch alle wissen,

00:01:46: wer heute hier am Start ist.

00:01:47: Alina, magst du anfangen?

00:01:49: Gerne.

00:01:50: Ja, hi, ich bin Alina.

00:01:51: Ich bin seit knapp drei Jahren jetzt bei InnoVex in unserem IOI-UX-Team als Werkstudentin

00:01:58: und habe jetzt vor kurzem meine Betschdarbeit auch bei InnoVex geschrieben und mache jetzt

00:02:03: im Master weiter.

00:02:04: Genau.

00:02:05: Sehr schön.

00:02:06: Robin, wie sieht es bei dir aus?

00:02:09: Hallo Wolfgang.

00:02:10: Ja, genau.

00:02:11: Mein Name ist Robin Senghe.

00:02:12: Ich bin Teamlead in der DMA der Management und Analytics und ich habe die große Freude,

00:02:19: die Alina betreuen zu dürfen.

00:02:20: Also zum einen in ihrer Bachelorarbeit und dann jetzt auch als Werkstudentin bei uns.

00:02:26: Bachelorarbeit ist ja ein ganz gutes Stichwort.

00:02:29: Alina, wir sprechen ja heute über das Thema von deiner Bachelorarbeit und ich durfte

00:02:34: schon einen kleinen Vortrag von dir genießen, den du hier bei uns in der Firma gehalten hast,

00:02:39: wo du das Thema ein bisschen vorgestellt hast und erklärt hast, was du da alles gemacht

00:02:42: hast.

00:02:43: Ich fand das super spannend.

00:02:45: Zum einen, weil der Inhalt interessant war.

00:02:48: Zum anderen, weil der Titel ziemlich cool klingt und ich sehr empfänglich bin, wenn

00:02:53: man so cool ein Titel hat.

00:02:54: Und darüber unterhalten wir uns heute.

00:02:57: Magst du uns mal verraten, wie dieser Titel lautet?

00:03:00: Gerne.

00:03:01: Also du redest jetzt wahrscheinlich von Human Centered Explainable AI.

00:03:06: Exakt.

00:03:07: Klingt tatsächlich ziemlich cool und das ist es auch.

00:03:10: Es geht im Grunde genommen darum, dass ich auf der Suche war nach einem Thema für meine

00:03:15: Bachelorarbeit.

00:03:16: Ich habe mich gefragt, wie eigentlich Menschen oder User, die keine Expertise in dem Bereich

00:03:31: haben, mit Produkten interagieren, die auf KI basieren sozusagen.

00:03:37: Das heißt, wie kann man die Interaktion zwischen Mensch und Maschine oder in dem Fall Mensch

00:03:43: und KI gestalten und dafür sorgen, dass da Vertrauen entsteht, dass Verständnis entsteht

00:03:50: und dass User ohne technische Expertise verstehen, was da eigentlich passiert.

00:03:55: Das finde ich super spannend.

00:03:57: Denn gerade, was du zum Schluss gesagt hast, verstehen, was da passiert.

00:04:01: Ich glaube, das ist eine Frage, die viele Leute umtreibt, oder?

00:04:04: Also wenn wir über KI sprechen und vor allem so in der breiten Masse der Bevölkerung über

00:04:09: KI sprechen, dann geht ja das Gespräch zwangsläufig irgendwie mal in Richtung so Chat GPT, was

00:04:16: irgendwie allgegenwärtig ist aktuell, was aber vielleicht auch ein kleines bisschen

00:04:21: wie Zauberrei wirkt.

00:04:22: Und ich bin ehrlich, wenn ich damit mal rumgespielt habe, mal experimentiert habe, dann fand

00:04:29: ich das immer cool, was was daraus kam.

00:04:32: Aber so 100%ig verstanden habe ich es nicht.

00:04:36: Und damit meine ich jetzt nicht unbedingt nur so das technische Prinzip, was vielleicht

00:04:40: dahinter steckt.

00:04:41: Ich glaube, das kann man gut verstehen, auch wenn man es nicht so richtig krass in der

00:04:45: Informatik drinsteckt, aber so warum sieht das Ergebnis so aus?

00:04:50: Was sind da vielleicht Verdaten reingeflossen?

00:04:53: Wie wurden die miteinander verwurschtelt?

00:04:55: Ich glaube, das ist ein Fachbegriff aus der KI.

00:04:58: Und ja, das ist eine Frage, die finde ich super spannend.

00:05:02: Geht das so ein bisschen in die Richtung von dem, was du gemacht hast?

00:05:06: Genau.

00:05:07: Also das Dilemma, auf das ich gestoßen bin, ist eigentlich, dass je genauer so eine Prognose

00:05:15: wird oder werden soll, desto größer wird auch die Datenbasis und das geht aber auf

00:05:21: Kosten der Interpretierbarkeit.

00:05:22: Und dafür sollte ja so eine Lösung gefunden werden und darum hat sich das ganze Forschungsfeld

00:05:29: Expendable AI, Erklärbare Künstliche Intelligenz entwickelt und ganz lange war das, ich sage

00:05:36: mal, ein rein algorithmischer Fortschritt, der da gemacht wurde.

00:05:39: Also es wurde sich überlegt, okay, welche Methoden können wir nutzen, um nachträglich

00:05:48: diese Ergebnisse von der, die da rauskommen, die Prognosen für Menschen verständlich zu

00:05:53: machen.

00:05:54: Das ist eigentlich das Hauptziel.

00:05:55: Weil es da eben diese Blackbox-Modelle gibt, die nicht mehr interpretierbar sind.

00:06:01: Und das ist auch gut und wichtig und richtig.

00:06:04: Das Einzige, was wir jetzt halt beobachten, ist, dass immer mehr Nutzer, Nutzerinnen mit

00:06:10: diesen Systemen interagieren, die gar nicht diese technische Expertise haben.

00:06:14: Und wenn denen dann eine algorithmische Erklärung geliefert wird, dann bleibt die Blackbox immer

00:06:20: noch bestehen, weil eben dieses Verständnis fehlt.

00:06:22: Und deswegen braucht es in meinen Augen diesen Switch, dass wir uns überlegen, okay, aber

00:06:28: wie können wir denn diese Erklärungen übersetzen, sodass auch Menschen ohne diese AI-Expertise

00:06:33: verstehen, was da passiert, wenn sie eben in dieser Interaktion stehen?

00:06:36: Das bedeutet, dass so Expendable AI durchaus ein Thema ist, das schon älter ist, das es

00:06:42: schon länger gibt?

00:06:43: Genau.

00:06:44: Also an der Stelle muss man vielleicht auch noch unterscheiden zwischen Expendable AI.

00:06:49: Das sind so sehr diese algorithmischen.

00:06:51: Und dem Human Center, da wird Alina sicherlich gleich noch drauf eingehen.

00:06:55: Und genau, Expendable AI, da gibt es eine ganze Reihe von Methoden, die im Prinzip alle

00:07:02: versuchen dem User oder dem, in der Regel dann halt auch dem Experten zu erklären, was

00:07:10: da passiert in diesem Modell.

00:07:11: Und man hat ja vielleicht in dem Zusammenhang von KI schon mal von so tiefen neuronalen

00:07:16: Netzen gehört und wie groß die sind.

00:07:18: Und gerade so diese neuen Sprachmodelle, mit denen ja jetzt viele Leute auch interagieren,

00:07:23: die haben dann Billionen von Parametern, die da gelernt werden.

00:07:28: Und das ist natürlich dann nicht mehr nachvollziehbar.

00:07:32: Also da kann man nicht mehr sozusagen reingucken und verstehen, wie das funktioniert.

00:07:36: Da gibt es auch die Forscher selber, haben da sozusagen viele Fragezeichen.

00:07:40: Und dann gibt es eine ganze Reihe von Methoden, die halt versuchen jetzt nicht das Modell

00:07:47: selber, sondern halt dessen Verhalten so ein bisschen zu verstehen.

00:07:51: Und die Zusammenhänge, die da drin abgebildet werden.

00:07:54: Aber auch die sind alle in der Regel so konzipiert, dass man jetzt für einen, sagen wir mal,

00:08:02: Teilproblem, also für einen gewissen Bereich, dann wieder andere maschinelle Lernverfahren

00:08:08: verwendet, die dann interpretierbar sein sollen, sage ich jetzt mal ganz vorsichtig, um dann

00:08:17: eben diese Zusammenhänge irgendwie darzustellen.

00:08:21: Das bedeutet dann, dass es für mich jetzt als End-User, der jetzt nicht wirklich tief

00:08:28: in der Materie drinsteckt, sondern einfach so ein Produkt verwenden möchte, in dem irgendeine

00:08:33: Art von KI-Technologie drinsteckt, dass es für mich dann gar nicht so wirklich nachvollziehbar

00:08:38: ist, wie das Ergebnis zustande kommt.

00:08:41: Und ich meine, wenn ich jetzt JETGPD sage, hey, schreibe mir mal ein Lied über irgendein

00:08:48: lustiges Thema, dann kommt irgendein das raus und das ist lustig oder auch nicht und dann

00:08:53: ist es vielleicht aber für mich auch gar nicht so wichtig zu wissen, wie das entstanden

00:08:56: ist.

00:08:57: Aber es gibt ja auch Use Cases, wo sowas relevante ist, keine Ahnung, wenn ich beispielsweise

00:09:04: irgendwie eine Routenplanung für mein Auto möchte.

00:09:06: Und die Routenplanung sagt mir, okay, fahr so und so und so und ich kenne vielleicht

00:09:11: die Strecke so halbwegs und ich schaue mir das an und denke, hey, komisch, es macht

00:09:15: doch eigentlich viel mehr Sinn, jetzt hier auf der Autobahn zu fahren.

00:09:18: Und jetzt sagt mir aber vielleicht irgendwie das Navi, hey, du solltest nicht auf die Autobahn,

00:09:23: solltest irgendwie die Landstraße nehmen und denk, okay, aber dann muss ich ja durch

00:09:25: so kleine Ortschaften, das dauert doch ewig, ich kenne das doch und am Ende stellt sich

00:09:29: dann vielleicht raus, da ist ein Unfall oder so.

00:09:32: Und das wird mir aber nicht angezeigt oder irgendwas anderes.

00:09:36: Geht das so ein bisschen in die Richtung, dass ich nachvollziehen kann, warum so ein

00:09:40: System jetzt X und nicht Y zeigt?

00:09:42: Wenn man jetzt mal das Beispiel aufgreift, was du jetzt gerade genannt hast, diese Routenplanung,

00:09:48: dann kann man sich ja bei den meisten Routenplanern auch anzeigen lassen, welche Alternativrouten

00:09:54: es gäbe.

00:09:55: Und das ist ja vielleicht dann so ein Ansatz für den User, dann sich anzusehen, okay,

00:10:03: vielleicht gibt es ja eine Route, die über die Autobahn geht, wie du gerade geschildert

00:10:07: hast, wo dann aber dann aufgezeigt wird, okay, da ist vielleicht ein Stau oder es dauert

00:10:13: halt dann doch drei Minuten länger.

00:10:14: Wobei da natürlich dann auch immer wieder die Frage nach der Präferenz des Fahrers,

00:10:19: ja, also du hast ganz offensichtlich eine Präferenz für Autobahnen statt für kleine

00:10:24: Landstraßen.

00:10:25: Bist du immer noch in Deutschland?

00:10:28: Genau.

00:10:29: Das spielt dann da auch noch, sicherlich noch rein.

00:10:32: Also wenn es da jetzt um, da geht es ja im Wesentlichen jetzt um Verständnis und das

00:10:38: ist auch sozusagen der Fokus häufig bei diesen explainable AI-Methoden, dass man ein Verständnis,

00:10:45: also eine Einsicht hat, während man jetzt eigentlich sagen muss, dass das der End-User,

00:10:51: der jetzt ohne KI-Fachexpertise da reingeht, sondern die Fachabteilung, ja, also in einem

00:10:57: Unternehmen oder eben ja einen Endern, wenn da eben der keine Expertise hat, da ist das

00:11:05: mit dem Verständnis vielleicht gar nicht so wichtig, würde ich jetzt mal in den Raum

00:11:09: stellen, sondern da geht es halt vielleicht mehr um Vertrauen.

00:11:11: Wenn ich jetzt irgendwie eine KI-gestützte Lösung habe, die mir irgendwelche wirtschaftlichen

00:11:19: Sachen vielleicht optimiert, ich habe mal vor, das ist schon einige Zeit her, man hat

00:11:25: Konferenzenvortrag gehört von einem Unternehmen, die hatten sich spezialisiert auf solche

00:11:31: KI-Lösungen für so Lagerwirtschaft.

00:11:33: Also quasi, wenn du so ein großer Einzelhändler bist, konntest du mit der Lösung von denen

00:11:38: halt so deine Lagerhaltung optimieren und du konntest die Preise automatisch festlegen

00:11:44: lassen, immer in Abhängigkeit vom aktuellen Markt und so weiter.

00:11:48: Das wäre für mich natürlich cool, wenn ich jetzt so der Chef bin, würde ich mir sagen,

00:11:52: super, da muss ich ja nichts arbeiten, ich habe die KI-Lösungen eingekauft mal zu

00:11:55: einem vernünftigen Preis und die optimiert mir das alles, bestellt automatisch, warend,

00:12:00: legt die ganzen Preise fest.

00:12:02: Aber ja, ich glaube, ich brauche da schon viel Vertrauen, um dann auch sicher zu sein,

00:12:07: dass beispielsweise die Verkaufspreise höher sind als meine Einkaufspreise, bis meine Fix

00:12:11: kosten, damit ich irgendwie so in Ruinen getrieben werde, wo es wahrscheinlich auch ganz

00:12:16: spannende Beispiele in der Technik gibt, wo genau so was passiert ist.

00:12:20: Ja, tatsächlich hatte ich in meiner Bachelorarbeit auch einen konkreten Use Case und zwar im

00:12:27: ganzen Bereich Handel, konkret war es Nachfrageprognose und da kommt eben auch dieser menschenzentrierte

00:12:34: Ansatz wieder zum Tragen, weil ich da, also meine User in dem Fall waren Domänexpert*innen,

00:12:41: das heißt, die haben schon seit ewigen Tagen, bevor es überhaupt diese KI-Lösung gab,

00:12:46: Nachfrageprognose gemacht und sich überlegt, okay, wie viel Absatz erwarte ich in der

00:12:50: nächsten Zeit und wie viel, wie wirkt sich das auf meine Einkaufsplanung zum Beispiel

00:12:55: aus.

00:12:56: Und da ist eben das Problem, das, oder was heißt Problem, diese Domänexpert*innen, die

00:13:03: haben ein Haufen Erfahrung, die wissen, wie das funktioniert, das ist deren Daily Business

00:13:08: und deswegen haben die natürlich auch eine gute Intuition, was das Ganze angeht.

00:13:13: Und wenn diese KI-Lösung jetzt prognosiziert, es sollen so und so viele Artikel an dem Tag

00:13:18: verkauft werden und ich weiß aus meiner Erfahrung, das kann überhaupt nicht sein, weil verschiedene

00:13:22: Einflussfaktoren das gar nicht erlauben können, dann zweifelig das natürlich an.

00:13:27: Und dann habe ich ein anderes Verständnis davon und auch eine andere Erwartung und frage mich

00:13:33: dann, okay, da gibt es jetzt diese Diskrepanz zwischen meiner Intuition und dem, was die

00:13:40: Prognose ist und da ist es dann wichtig, eine Erklärung zu geben, damit diese Expertin

00:13:47: in dem Moment sich genauer anschauen kann, wie kommt denn jetzt eigentlich die KI zu

00:13:51: ihrer Prognose und möchte da eine Erklärung haben, die mich zufrieden stellt?

00:13:54: Das ist ein ganz spannendes Beispiel, denn da gibt es ja verschiedene Erkenntnisse, die

00:14:02: rauskommen können.

00:14:03: Also auf der einen Seite kann ja rauskommen, meine Intuition passt nicht.

00:14:07: Also wenn diese Erklärung befriedigend und nachvollziehbar ist, könnte ich ja, wie gesagt,

00:14:11: das stimmt, das ist mein Bauchgefühl, aber ja, das passt nicht, ich verstehe das.

00:14:16: Oder ich finde heraus, dass dieses KI-Modell vielleicht einen Fehler hat an der Stelle,

00:14:20: vielleicht ein blinder Fleck, weil jetzt zum Beispiel eine Prognose abgegeben wird und

00:14:27: die Daten, die stammen vielleicht aus Hamburg, aber jetzt verwende ich die in Köln und ich

00:14:31: habe keine Wahl und das ist nirgends in Deutschland so wie in Köln und plötzlich ist halt alles

00:14:36: ganz anders und auf den Kopf gestellt.

00:14:38: Ja, total.

00:14:40: Und dann ist es halt wichtig zu verstehen, wie müssen denn diese Erklärungen gestaltet

00:14:46: werden, damit da eine gemeinsame Brücke entsteht zwischen der KI und dem Menschen, weil im

00:14:52: Endeffekt haben wir da eine Art Dialog und darum geht es in diesem ganzen Menschenzentrierten

00:14:58: Ansatz eigentlich.

00:14:59: Das heißt, es ist auch konsequenterweise wichtig sich zu fragen, wie erklären wir Menschen

00:15:06: uns dann gegenseitig eigentlich Dinge und Situationen und wie kann man das ableiten

00:15:10: und auf Expandable AI anwenden, damit wir eben zur Erklärung kommen, die Menschen auch

00:15:15: verstehen.

00:15:16: Und da gibt es viele interessante Punkte, die da aufkommen, die bereits auch in dem

00:15:24: Feld erforscht werden und zwar ist eine Erklärung am Ende des Tages eine soziale Interaktion.

00:15:29: Das heißt, wenn ich dir jetzt was erkläre, dann gebe ich mein Wissen an dich weiter

00:15:35: und es ist dieser Austausch an Wissen, der eben diese Erklärung zwischen jemandem derer

00:15:40: erklärt und jemandem der eine Erklärung empfängt, den ich da irgendwie habe und in dem Bereich,

00:15:46: mit dem ich mich jetzt auseinandergesetzt habe, ist genau dieses Verhältnis entwickelt sich

00:15:52: dann dazu, dass die KI die Rolle von dem Erklärenden übernimmt und die Entanwender,

00:15:57: die Entanwenderinnen eben die Person ist, die die Erklärung empfängt.

00:16:01: Und deswegen kann ich mir angucken, okay, wie kann ich denn diesen Dialog, der da entsteht,

00:16:05: versuchen zu gestalten, sodass eben da eine Erklärung bei rumkommt, die jemand versteht

00:16:12: und ich habe mich quasi in meiner Bachelorarbeit konkreter mit beschäftigt oder die Hypothese

00:16:17: aufgestellt, dass man das eben durch einen Userinterface schaffen kann.

00:16:21: Also durch eine visuelle Schnittstelle und ich versuche mir zu überlegen, wie kann ich

00:16:28: diese Methoden, die es gerade algorithmisch schon gibt, visuell interpretieren und in

00:16:33: einem Userinterface einbinden, damit eben diese Kommunikation entstehen kann und dieser

00:16:38: Dialog entstehen kann zwischen Mensch und KI.

00:16:40: Das klingt super spannend.

00:16:42: Kannst du da vielleicht das Beispiel, das wir in deiner Bachelorarbeit hat, das mal erklären,

00:16:49: damit das ein bisschen greifbar ist?

00:16:51: Also gerade, was du dieses Interface angeht, dass du das angesprochen hast?

00:16:55: Ja, also in meiner Bachelorarbeit ging es ja um den Use Case Nachfrageprognose.

00:17:01: Ja.

00:17:02: Ich habe dann mir, also ich bin sehr, also vom Prozess her bin ich so vorgegangen, wie

00:17:09: ich das eigentlich aus dem ganzen UI/EX-Bereich kenne, also User-Centert.

00:17:13: Ich habe den User quasi ins Zentrum gestellt und bin den sogenannten User-Centert-Design-Prozess

00:17:18: einmal durchgegangen und der beginnt eben mit User-Research.

00:17:21: Das heißt, ich habe Menschen interviewt, gefragt, wie die eigentlich, also was die eigentlich

00:17:28: erwarten, was der Anspruch an eine Erklärung ist.

00:17:30: Und im Endeffekt ist ja eine Erklärung die Antwort auf eine Frage.

00:17:37: Das heißt, ich habe mich, ich habe versucht herauszufinden, welche Fragen stellen denn

00:17:43: User oder an dieses KI-System und eben daraufhin versucht, eine Antwort zu finden.

00:17:48: Und in dem Interface ist es quasi so, dass es zuerst einen Überblick gibt, also einen

00:17:55: gesamten Überblick über den Vorkast zum Beispiel, also was über Prognosen in der Zukunft

00:18:00: und auch über historische Abverkäufe.

00:18:03: Und der gibt quasi visuell einen Überblick und wenn es Punkte gibt, die nicht verstanden

00:18:10: werden, also Tage, wo die Prognose höher ist oder niedriger ist als jetzt so eine Domain-Expertin

00:18:16: erwarten würde, dann gibt es die Möglichkeit, sich Detailinformationen anzuschauen und darüber

00:18:24: dann zu zeigen, wie kommt das eigentlich zustande.

00:18:28: Okay, um das mal für mich zusammenzufassen, ich habe ein Userinterface, das sehe ich

00:18:32: diese ganzen Prognose-Daten Tag für Tag.

00:18:35: Ich kann mir die anschauen und wenn ich jetzt als Domain-Experte so das Gefühl habe, ah,

00:18:42: also dieser Mittwoch hier, ah, der sieht mir nicht so gut aus, ich verstehe nicht, warum

00:18:48: die Prognose so hoch oder so tief ist, kann ich das irgendwie anwählen, anklicken und

00:18:52: mir eine Erklärung anzeigen lassen, wo dann drin steht, Hallo lieber User, die Prognose

00:18:58: ist heute x, y und zwar wegen x, y und z, wegen irgendwelchen Faktoren, die da dahinter

00:19:04: sind.

00:19:05: Genau.

00:19:06: Vielleicht noch nicht mal wegen den Faktoren, sondern also man kann sich ja, das bezieht

00:19:15: sich jetzt wieder ein bisschen darauf, was ich am Anfang gesagt habe, also es gibt da

00:19:18: schon eine Unterscheidung zwischen Einsicht und Vertrauen, ja, also Einsicht ist halt,

00:19:26: sagen wir mal, dass ich wirklich verstehe, dass ich mir vielleicht keine Ahnung, eine

00:19:31: mathematische Formel im Kopf habe und die ist hoffentlich so einfach, dass ich die im

00:19:37: Kopf auch berechnen kann, ja.

00:19:38: Schön, dass wir da beide lachen.

00:19:39: Ja, dass wir beide lachen, genau.

00:19:41: Ja, es ist aber, das ist ein guter Punkt, weil also sind wir mal ehrlich, die allerwenigsten

00:19:46: Zusammenhänge kriegt man wirklich sozusagen im Kopf errechnet, ja, so und deswegen muss

00:19:54: man auch sich die Frage stellen, diese ganzen explainable R-Eim-Methoden, wenn diese Modelle

00:19:59: eine gewisse Größe haben, dann ja, dann ist das mit der Interpretierbarkeit wenigstens

00:20:06: mal fraglich, ja.

00:20:08: Aber nochmal zurück, also das ist, glaube ich, an der Stelle eine wichtige Unterscheidung

00:20:14: zwischen diesen Einsicht und Vertrauen.

00:20:17: Wenn ich dir sage, also ich meine, wenn man das jetzt mal auf die menschliche Ebene bringt,

00:20:22: ja, also wir unterhalten uns, wir kennen uns jetzt schon eine Weile, wir haben, wir kennen

00:20:26: ein bisschen was voneinander, wir haben auch miteinander schon Erfahrung gemacht, zum

00:20:29: Beispiel ob wir uns gegenseitig vertrauen, wenn wir einen Termin ausmachen und so weiter

00:20:36: und der Grund, warum ich dir vertraue, in dem was du sagst, in dem was du tust, ist ja

00:20:45: meine Erfahrung mit dir.

00:20:47: So, ich verstehe nicht, wie dein Kopf funktioniert.

00:20:50: Ich verstehe nicht, wie deine Entscheidungen zustande kommen, ja, das ist mir, das ist

00:20:54: genau so eine Black Box wie so ein großes KI-Modell, aber ich habe Erfahrung mit dir

00:21:00: gemacht, ja.

00:21:01: Ich habe Beispiele gesammelt, ja.

00:21:04: Und diese Beispiele haben mir sozusagen gezeigt, hey, auf dich kann man sich verlassen, du

00:21:10: bist da, wenn wir eine Absprache getroffen haben und so weiter.

00:21:14: Und das hat bei mir Vertrauen geschafft.

00:21:17: So, und ich glaube an der Stelle ist es dann der Sprung jetzt zur KI sozusagen auch wieder

00:21:26: machbar.

00:21:27: Denn über Beispiele haben wir oder hat Alina in ihrer Arbeit eben auch versucht, die KI

00:21:34: zu erklären.

00:21:35: Genau, ich habe eben in dieser ganzen Recherche Arbeit oder in diesem User-Research-Prozess

00:21:46: herausgefunden, dass oder ich bin quasi zu dem Ergebnis gekommen, einen Beispielbasierten

00:21:52: Ansatz zu machen oder zu verfolgen und in meinem Interface für eine Prognose, die sich der

00:22:01: User dann in der Detailansicht anschauen kann, Beispiele zu geben.

00:22:04: In dem Fall sind das prototypische Beispiele von Situationen, wo es unter ähnlichen Bedingungen

00:22:12: zu einer ähnlichen Prognose kam, um eben Vertrauen in die aktuelle Prognose zu geben.

00:22:17: Und genau, das ist das, worauf Robin gerade glaube ich raus wollte, eben diese Beispiele

00:22:26: zu geben anstatt die User jetzt nur auf bestimmte Attribute von der Prognose zu lenken, weil

00:22:33: wir in unserer menschlichen Kognitionen oder Erklärungen, die wir geben, wenn wir uns

00:22:43: so einen ganzen Fall anschauen können, also so ein ganzes Beispiel, dann können wir das

00:22:47: viel holistischer bewerten und uns oder User können sich dann anschauen, okay, es gab

00:22:52: dieses Szenario, das kam zu einer bestimmten Lösung und wenn ich das vergleiche mit der

00:22:58: Prognose, die ich aktuell habe, dann kann ich sehen, okay, ich kann irgendwie dieses

00:23:02: Vertrauen erlangen, weil ich weiß unter ähnlichen Bedingungen gab es schon mal das gleiche

00:23:06: Outcome sozusagen.

00:23:07: Das finde ich super interessant, das heißt, ich sehe eine Prognose für die Zukunft, ja

00:23:13: klar, deswegen ist es ja eine Prognose und ich verstehe die nicht, ich zweifle die vielleicht

00:23:17: auch an, dann wähle ich die aus in meinem User-Interface und das System sagt mir, hey, schau mal,

00:23:23: in der Vergangenheit gab es konkrete Tage mit vergleichbaren Voraussetzungen, beispielsweise

00:23:30: es war ein Sonntag oder irgendwelche anderen Merkmale und da hatten wir dann ähnliche

00:23:37: Absatzzahlen.

00:23:38: Deswegen kann davon ausgegangen werden, dass jetzt in der Zukunft an diesem Tag die Zahlen

00:23:43: genauso sind, weil die Voraussetzungen so ähnlich sind.

00:23:46: Finde ich super spannend, da kann ich sie ja dann auch so für mich mit meiner H.I., mit

00:23:52: meiner Human Intelligence vielleicht so ein bisschen generalisieren, kann ein bisschen

00:23:55: schauen, okay, das kann ich nachvollziehen.

00:23:57: Da war ein Tag, da war irgendwie was Besonderes und deswegen war die Absatzzahl besonders

00:24:03: und wir haben in der Zukunft jetzt wieder so ein Tag.

00:24:06: Beispiele sind sozusagen die Erfahrung der K.I., ja, also die Erfahrung, die ich über

00:24:11: die Zeit, die wir jetzt zusammen hier bei InnoVex verbracht haben, gemacht habe, das

00:24:17: kann man im Prinzip übersetzen mit den Beispielen, die die K.I. in der Vergangenheit gesehen hat,

00:24:22: ja, also die irgendwo in den Daten enthalten sind.

00:24:25: Ich habe noch eine Ergänzung.

00:24:27: Ja, gerne.

00:24:28: Und zwar zu diesen Beispielen aus der Vergangenheit kann man eben auch noch als Informationen

00:24:33: mitgeben an den User, wie hat denn zu diesem Zeitpunkt das Modell prognostiziert?

00:24:38: Oh ja.

00:24:39: Und dann eben, wir wollen ja nicht, dass User blind einfach dem System vertrauen, sondern

00:24:45: möglichst eine realistische Einschätzung abgeben können, wie das Modell funktioniert.

00:24:49: Und indem wir eben diese Informationen mitgeben, schaffen wir eben genau das.

00:24:56: Also wir sagen dann, okay, es gab dieses Outcome damals, an diesem Tag, was ähnlich ist zu

00:25:02: der Situation, die ich mir jetzt gerade anschaue und ich kann zusätzlich sehen, wie hat denn

00:25:06: das System zu dem Zeitpunkt prognostiziert?

00:25:09: Das war zum Beispiel in den User-Tests, die ich quasi gemacht habe, um mein Interface

00:25:16: zu evaluieren, total wichtiger Punkt, wo die Personen, die ich interviewt habe, gesagt

00:25:22: haben, das ist ein wichtiger Punkt, warum ich diesem System vertrauen würde oder auch

00:25:26: eben nicht.

00:25:27: Ja, klar, das ist auf jeden Fall interessant, weil wenn ich mir auch anschauen kann, okay,

00:25:34: ich hatte so eine Situation, ich hatte real diese Absatzzahl und das Modell hat mir damals

00:25:40: was prognostiziert, was ziemlich nah dran lag, dann könnte ich mir schon vorstellen, dass

00:25:45: mein Vertrauen schon steigert in die Prognose für die Zukunft und mir auch das Gefühl

00:25:50: gibt, dass ich das verstehe.

00:25:52: Ich könnte mir vorstellen, wir haben ja sicherlich unterschiedliche Zielgruppen für solche Systeme,

00:25:58: wir haben so vielleicht die klassischen End-User, die bei irgendeiner App oder bei irgendeiner

00:26:03: Anwendung mit KI-Technologie sowas haben, fallen mir auch Beispiele ein, keine Ahnung, wenn

00:26:10: ich jetzt zum Beispiel so eine Sport-App hätte, wo mir jetzt so ein KI-Training-Plan zusammenstellt.

00:26:15: Also ich mache Triathlon und es ist ganz kompliziert, da muss man ganz viele unterschiedliche Sachen

00:26:19: machen und muss immer aufpassen, dass man nicht zu viel macht, weil man sonst irgendwie

00:26:22: krank wird oder sich verletzt.

00:26:24: Und da kannst du natürlich entweder einen richtigen Trainer haben, also ein Mensch, der sich das

00:26:28: anschaut und dir das dann schön mit Axel irgendwie durchplant oder du könntest natürlich

00:26:32: jetzt auch so eine KI-App haben mit so einem KI-Trainer, die dann jeden Tag sagt, okay,

00:26:37: heute musst du Folgendes tun oder sollst du Folgendes tun oder vielleicht besser solltest

00:26:41: du Folgendes nicht tun.

00:26:43: Und dann würde ich vielleicht auch sagen, hey, was heute soll ich ganz wenig nur machen,

00:26:48: warum denn?

00:26:49: Und wenn wir so eine App sagen, hey, schau mal, aus den Gründen empfehle ich dir das,

00:26:53: weil du hast die letzten Tage ganz viel gemacht und schau mal in der Vergangenheit, letzten

00:26:59: Monat war es vielleicht ähnlich und dann hast du dich nicht dran gehalten und war es

00:27:03: dann krank oder so.

00:27:04: Aber das würde ich mir auch helfen, sowas nachzuvollziehen und vielleicht auch mehr

00:27:08: Vertrauen zu schenken.

00:27:09: Also, wer so eine Sache, die mir eingefallen ist, wenn ihr da eine Empfehlung habt, dann

00:27:15: sagt mir das bitte.

00:27:16: So eine KI-App?

00:27:17: Ja, genau.

00:27:18: So eine KI-Training-App.

00:27:19: Also wenn du da deine Masterarbeit schreiben möchtest, wer ich gerne probant.

00:27:26: Ich musste gerade an was anderes denken, weil das Thema von deiner Bachelorarbeit, das

00:27:31: war ja so eine Prognose und das ist ja eher so der Business-Context, dass ich jetzt in

00:27:35: einer Fachabteilung sowas habe, um jetzt Prognosen für irgendeinem Business halt irgendwie zu

00:27:41: machen.

00:27:42: Und da glaube ich, dass das schon ganz schön wichtig ist, wenn ich jetzt in der Abteilung

00:27:49: arbeite mit dem System, dass ich jetzt ohne eine große Feedback schleife die Frage beantworten

00:27:55: kann, ob ich der Prognose trauen kann oder nicht.

00:27:57: Weil wenn ich jetzt anrufen muss, erstmal bei dir in der Entwicklung oder bei dir Robin

00:28:02: in der Entwicklung nachfragen muss, so Hallo Herr Sänge, also hier ist eine 28 als Prognose,

00:28:07: ich hätte gesagt, es könnte maximal eine 13 sein, können Sie mal bitte danach schauen,

00:28:11: dann kannst du es wahrscheinlich als KI-Experte, kannst du sich da reinwühlen, kannst du das

00:28:16: genau anschauen, nachstellen, nachrechnen und mir dann sagen, ja stimmt, aber das dauert

00:28:21: ihr ewig.

00:28:22: Ja, tatsächlich ist Skalierbarkeit.

00:28:25: Also Skalierbarkeit von Service im Prinzip an der Stelle auch ein wichtiger Punkt.

00:28:36: Also diesen Fall den du beschrieben hast, dass genau die Fachabteilung zum KI-Team

00:28:42: kommt sozusagen und sagt, hey das kann hier ja gar nicht sein oder kannst du mir das mal

00:28:48: erklären.

00:28:49: Das ist ein sehr häufiger Fall.

00:28:51: Und das hat, ich will nicht vorgreifen, aber hat Alina tatsächlich auch in den User-Interviews

00:28:57: herausgefunden und habe auch ich selber in meinen Projekten so miterlebt, dass das

00:29:04: eine häufige Aufgabe von so einem Entwicklerteam dann ist.

00:29:09: Und dann müssen da zum Teil auch Ressourcen für freigehalten werden, einfach nur für

00:29:14: diese Anfragen, um diese Anfragen zu beantworten.

00:29:16: Es ist natürlich schon eine große Hilfe für so ein Entwicklerteam, wenn die User, also

00:29:24: wenn das Entwicklerteam sozusagen erst mal nur in zweiter oder dritter Reihe steht.

00:29:28: Und jetzt ist es natürlich innerhalb von so einer Firma häufig nicht so, dass man da

00:29:32: First Second Third Level Support hat, sondern dann wird halt der Wolfgang von nebenan angerufen.

00:29:37: Und deswegen ist so ein User-Interview super hilfreich, um solche Anfragen schon mal vorzuqueren.

00:29:46: Und dann wird halt sozusagen nur noch das, was überbleibt.

00:29:49: Also wenn jetzt dann wirklich nochmal irgendwie die eine oder andere Frage nicht klärbar

00:29:55: ist über das System, dann ist es so, dass man dann auch so eine Frage überlegt, und

00:30:00: dann wird es dann auch so, dass man dann auch so eine Frage überlegt, und dann wird es

00:30:06: dann auch so, dass man dann auch so eine Frage überlegt, und dann wird es dann auch so,

00:30:10: dass man dann auch so eine Frage überlegt, und dann wird es dann auch so, dass man dann

00:30:15: nicht klärbar ist über das User-Interface, dann erst an die Entwickler gerichtet.

00:30:20: Ich muss gerade, als du das so gesagt hast, ich muss ein bisschen so an meine Vergangenheit

00:30:25: denken, also an meine Vergangenheit als Software-Entwickler.

00:30:28: Da war es ja auch so, wenn du eine Software hast, kann irgendwas schiefgehen.

00:30:33: Und das Erste, was passiert, wenn was schiefgeht, es knallt irgendwo, und du hast im besten

00:30:38: Fall in deiner Lock-Datei eine kryptische Fehlermeldung.

00:30:42: Und als User bekommst du eine abstrakte Fehlermeldung.

00:30:46: Alles kaputt, SOS.

00:30:48: Und dann rufst du an, jetzt sind du bei den Entwicklern im Entwicklungsteam, und dann

00:30:52: schaut man sich es an, und dann wühlt man sich durch im Lock-Datei und merkt, datainame

00:30:58: hat ein ungültiges Zeichen enthalten, umlaut, ganz, ganz schlimm.

00:31:01: Und dann ruft man wieder zurück und sagt, ja, versuchen Sie es nochmal abzuspeichern,

00:31:07: versuchen Sie es aber bitte ohne umlaut, dann müsste das eigentlich funktionieren.

00:31:11: Okay, wenn ich mir das die Mühe mache, die häufigsten Fehlermeldungen vielleicht in

00:31:15: eine lesbare Form zu bringen, das bei dem Abspeichern angezeigt wird, hey, hallo lieber User,

00:31:21: du hast gerade was komplett Verrücktes versucht, du hast einen umlaut verwendet, bitte probierst

00:31:25: mal ohne und maximal acht Zeichen für den Dateinamen, dann müsst du das funktionieren.

00:31:31: Dann habe ich ja auch den End-User enabled, einfach das selbst zu tun.

00:31:35: Und vielleicht muss man sich am Anfang mal ein bisschen dran gewöhnen, aber dann ist

00:31:39: das doch auch ein Gefühl der Stärke.

00:31:40: Wenn ich als End-User weiß, hey, klar, es kann irgendwas schiefgehen, dann brauche ich

00:31:45: die Profis, die das gebaut haben, aber ich bin enabled, ich kann mit dem System zu 100

00:31:49: Prozent umgehen, denn dadurch, dass ich jetzt auch so eine Möglichkeit habe, Fehler zu

00:31:54: verstehen oder Unglalheiten zu verstehen, kann ich auf einmal ja viel, viel mehr.

00:31:58: Und ich muss nicht dieses Anführungszeichen fachkinesisch irgendwie drauf haben oder

00:32:04: noch vielleicht ein Informatikstudium irgendwie absolviert haben, um mit so einem System zu

00:32:08: arbeiten.

00:32:09: Und das ist ja bei KI-Systemen noch viel schlimmer als bei so normal Systemen oder Standard-Software-Systemen,

00:32:17: die jetzt keine KI-Module oder so beinhalten.

00:32:19: Also in der Regel, wenn ich mit Software interagiere und die keinen Fehler meldet, dann bin ich

00:32:28: mir eigentlich erstmal relativ sicher, dass sie tut, was sie soll.

00:32:31: Ja, so.

00:32:32: Telefonkurs.

00:32:34: ist natürlich auch nicht immer der Fall, aber erst mal ist man dazuversichtlich. Bei KI-Systemen

00:32:39: ist es insofern noch mal ein bisschen schwieriger, weil diese Prognosen, die sind ja nicht hart

00:32:46: verifizierbar. Also da kann auch jetzt das Software-System, sagt jetzt nicht, okay, ich

00:32:53: konnte diese, also in der Regel jedenfalls, ich konnte diese Prognose nicht mit gutem

00:32:59: Gewissen machen, sondern es wird halt eine Prognose gemacht. Und die Bewertung, ob das

00:33:05: jetzt ein Fehler ist, wie groß der ist, ob der nützlich, ob diese Prognose noch nützlich

00:33:09: ist und so weiter, das läuft alles ohne Fehlermeldung ab, so zu sagen. Und das ist, glaube ich,

00:33:17: auch einer der wesentlichen Punkte, warum jetzt so ein User von so einer Software eben

00:33:27: überhaupt sich die Frage stellt, kann ich dem System vertrauen. Weil sozusagen diese,

00:33:35: die Fehler in Anführungszeichen oder die Genauigkeit dieses Systems erst mal nicht sofort klar

00:33:42: ist. Und mit diesem Ansatz, Beispiel aus der Vergangenheit herauszusuchen, zu zeigen,

00:33:50: schau mal User, diese Prognose, die da gemacht wurde, die ist nicht völlig abwegig. In der

00:33:55: Vergangenheit wurden an ähnlichen Tagen ähnliche Absätze erzielt oder die vergangenen Prognosen

00:34:03: waren nicht weit weg von dem, was dann tatsächlich passiert ist. Das sind dann eben so Indikatoren

00:34:09: dafür, dass dieses System eben jetzt nicht völlig wild in der Gegend rumschießt. Wenn

00:34:15: ich jetzt die These aufstelle, dass durch so ein User-Centric-Explainable-AI-Ansatz

00:34:21: vor allem das passiert, du hast auf der einen Seite ein KI-System, das irgendwas tut. In

00:34:28: dem Use-Case von dir, Alina, ist uns Prognosen. Auf der anderen Seite habe ich aber auch Menschen

00:34:33: mit Fachexpertise die das nutzen. Und diese Menschen könnten das vielleicht auch auf Basis

00:34:37: ihrer Erfahrung in einer gewissen Qualität machen. Es ist dann nicht so, dass beide Systeme

00:34:42: auch enorm voneinander profitieren, wenn ich beide so auf Augenhöhe irgendwie bringe.

00:34:48: Also ich verstehe die Prognose, ich verstehe durch die Erklärung ja auch, wie die entstandene

00:34:54: sind. Ich kann die nachvollziehen und ich vertraue der, dass es erstmal gut. Aber dadurch habe

00:34:59: ich auch die Möglichkeit, vielleicht auch ganz zielgerichtet zu sagen, okay, ich verstehe

00:35:03: deine Erklärung, aber nee, das stimmt nicht. Weil es Infaktor gibt, den du nicht kennst,

00:35:07: liebes KI-System. Und ich bleibe da sehr, sehr gerne beim Beispiel vom Karneval in Köln,

00:35:12: weil Robin, wir haben uns da glaube ich auch mal unterhalten, dass bei allen Prognosen

00:35:16: und allen Sachen in Köln das nie funktioniert, wenn der Karneval ist, weil das so eine Singularität

00:35:22: ist, die man einfach nicht auf dem Schirm hat. Also könnte doch eigentlich dann dadurch

00:35:27: auch so ein KI-System enorm profitieren, weil ich mit meinem Fachwissen sehr genau sagen

00:35:32: kann, okay, hier passt was nicht, hier muss man nochmal in die Daten reingehen, hier braucht

00:35:36: man vielleicht nochmal irgendwie harte Regel oder irgendwas, was sonst nicht so einfach

00:35:41: wäre, wenn ich diesen Zuwärm ich hätte durch dieses User-Centric-Explanable AI.

00:35:48: Interface.

00:35:49: Interface, okay.

00:35:50: Ja, wichtiger Punkt und auch spannender Ausblick eigentlich, weil es natürlich auch Sinn machen

00:35:56: würde, wenn ich als User Feedback gebe und wir dann wirklich in diesen Dialog kommen

00:36:01: und dass man mit diesem Feedback, dass die Qualität von den Erklärungen verbessert und

00:36:06: gleichzeitig eben dieser ganze Ansatz, das Menschenzentriert zu denken, ja nie das Ergebnis

00:36:14: haben soll, Menschen zu ersetzen, sondern wir wollen eigentlich Menschen dabei unterstützen,

00:36:20: noch bessere Entscheidungen zu treffen auf einer viel größeren Datenbasis, die wir ja

00:36:25: gar nicht mehr überblicken können. Das kann ein DKI für uns übernehmen sozusagen. Und

00:36:31: was dabei noch ein ganz wichtiger Punkt ist, bei diesem ganzen Interface, da würde ich noch

00:36:36: gerne darauf eingehen, ist das Bedürfnis nach Kontrolle, was User haben. Gerade wenn sie

00:36:42: eine sehr hohe Domain-Expertise haben und im Zweifel denken, das passt nicht, wie das

00:36:47: gerade prognostiziert wird, ich möchte das gerne überschreiben. Das heißt, ich weiß

00:36:51: es eigentlich besser sozusagen und ich brauche eine Möglichkeit, das zu überschreiben, dass

00:36:57: ein sehr wichtiger Feature-Request, wie sich herausgestellt hat. Und deswegen habe ich

00:37:04: den Ansatz verfolgt, nicht nur einen Interface zu haben, was das ganze visuell abbildet,

00:37:10: sondern was auch interaktiv ist. Das heißt, wir haben quasi einen Simulations-View angeschlossen,

00:37:18: wenn man so möchte, wo User eben selber interagieren können. Das heißt, zum einen

00:37:25: Feature-Werte anpassen. Also ich kann zum Beispiel die Situation verändern. Ich kann

00:37:29: jetzt sagen, ich möchte verstehen, was passiert denn, wenn ich nicht die Prognosen für einen

00:37:35: Montag sehen möchte, sondern für einen Freitag oder wenn ich was am Preis drehe. Also zu zeigen,

00:37:40: wie verändert sich das Ergebnis, wenn ich die Situation veränder oder auch umgekehrt,

00:37:44: wie kann ich vielleicht, wenn ich ein bestimmtes Absatzziel erreichen will, das verändern

00:37:51: durch quasi interaktive Elemente, wie einen Slider zum Beispiel. Und dann gibt mir das

00:37:59: Modell Antworten auch wieder in Form von Beispielen, wie ich dahin kommen kann. Das heißt, diese

00:38:04: ganze Komponente, das explorativ zu machen und den User eigentlich die Möglichkeit zu geben,

00:38:09: selber zu erforschen, wie das Ganze funktioniert, führt eben auch dazu, dass es besser verstanden

00:38:13: wird und perspektivisch auch das Vertrauen stärkt. Das geht auch dann aber ganz stark in die Richtung,

00:38:20: dass die KI ein sehr, sehr leistungsfähiges Werkzeug für uns ist und jetzt nicht uns ersetzt,

00:38:27: weil viele haben ja irgendwie diese Angst, dass ganz viele Jobs ersetzt werden durch die KI,

00:38:32: dass die alles automatisiert macht, was heute wir Menschen machen. Ich selbst sehe das nicht so,

00:38:36: aber ich finde so was ist einfach ja so ein ganz leistungsschlagiges Werkzeug. Also wie

00:38:42: zum Science Fiction Film. Ich meine, in Science Fiction gibt es zwei Arten von KI, oder? Die eine

00:38:47: Art versucht uns umzubringen und die andere Art ist so unser Diener irgendwo. Also wie jetzt in

00:38:52: Star Trek, da hast du irgendwie die KI, der kannst du auch sprechen und kannst du sagen, hey, komm,

00:38:56: ich gut da, analysier mir mal was und der analysiert was und sagt, hey, so sieht es aus. Und dann

00:39:01: kann ich sagen, okay, aber jetzt versuch doch mal, Parameter XY anzupassen und mach mal das und

00:39:07: mach mal das. Ist dann eher so eine Art Sparing Partner für den Menschen. Der Mensch hat die

00:39:11: Expertise, aber er kann nicht alles durchrechnen, außer Data, aber Data ist kein Mensch, okay,

00:39:15: das ist ein Sonderfall. Aber der Mensch hat großen Überblick, hat das Big Picture im Kopf und für

00:39:21: einzelne Sachen hat er dann eine KI, die einfach viel leistungsfähig ist, wo dann mal Millionen und

00:39:27: Milliarden von Datensätzen durchrechnet und irgendwas tut, was der Mensch einfach ja zeitlich

00:39:32: nicht leisten kann. Aber am Ende ist es doch der Mensch, der dann das bewertet, vielleicht auch

00:39:37: überschreibt, was du gesagt hast und sich diesem Werkzeug bedient, um einfach dadurch mehr schaffen

00:39:42: zu können. Das Tolle an dem Ergebnis Alinas Bachelorarbeit an dieser UI ist tatsächlich,

00:39:50: dass damit auch ganz viele angrenzende Use Cases möglich sind. Also du hast es tatsächlich ganz am

00:39:58: Anfang schon gesagt, Preisgestaltung zum Beispiel, diesen Simulationsmodus, den Alina da in ihrer

00:40:07: UI untergebracht hat. Damit interagiert man ja quasi mit dem Modell. Und was bildet das Modell ab?

00:40:14: Das bildet die Nachfrage ab. Zum Beispiel der Milch von Wein, Stefan oder der Jaharmilch oder wie viele,

00:40:23: du bist auch ganz viele andere. Wie viele muss ich jetzt noch nennen, damit das noch... Es gibt auch

00:40:30: mal ganz viele, aber wissen Sie nicht von den öffentlich rechtlichen? Nein, wir dürfen Werbung machen.

00:40:34: Was macht das Modell? Das bildet sozusagen die Nachfrage Funktion ab, wenn man so will.

00:40:42: Gegeben den Kriterien, die jetzt, oder diese Situation, von der wir eben gesprochen haben,

00:40:49: ja, es ist also irgendwie Mittwoch, es ist im Sommer, der Preis ist 1,29 Euro zum Beispiel. Und mit der Hilfe

00:40:58: dieser, mit der Hilfe dieses Simulations-Views kann man jetzt quasi versuchen einen besseren

00:41:06: Preis zu finden, der eine bestimmte Nachfrage herleitet, so zu sagen. Also was passiert, wenn ich jetzt

00:41:15: 1,19 statt 1,29 machen? Mit wie viel mehr Absatz in Stück rechne ich dann? Das heißt also,

00:41:26: solche Use-Cases wie Pricing oder auch Dynamic Pricing, je nachdem, in welchem, sozusagen zeitlichen

00:41:34: Horizont man sich das anguckt, sind dann plötzlich super nah dran und kann der User dann wirklich,

00:41:40: wie Alina sagt, explorativ erfahren. Spannender Use-Case ist auch, wenn wir darüber sprechen,

00:41:48: was so frische Produkte angeht. Also wir haben Salat, Paprika, Tomaten, die haben ja alle

00:41:56: ein bestimmtes Halbbarkeitsdatum, irgendwann verfaunen die mir weg. Und jetzt kann es ja sein,

00:42:01: dass ich als Händler oder als Händlerin noch einen gewissen Bestand habe und ich weiß nicht,

00:42:08: wie ich den am besten loskriege. Das heißt, ich könnte jetzt in diesem View auch den Zielabsetzwert

00:42:15: angeben. Und auf Basis der bisherigen Erfahrungen gibt das Modell mir Beispiele, wie ich dahin komme,

00:42:24: dass ich diesen Absatz erreiche. Das nennt man dann Counter Factory Example, sozusagen. Also Beispiele

00:42:31: die Counter to the Fact sind. Also ich hab quasi das Absatz Ziel verändert und für diese Veränderungen

00:42:39: bekomme ich jetzt Beispiele angezeigt mit Situationen, die mich dahin fühlen. Zum Beispiel, indem ich den

00:42:45: Preis senke. Zum Beispiel, indem ich eine Rabattaktion schalte, wenn ich das noch so kurzfristig machen

00:42:51: kann. Handlungsempfehlungen gebe. Und dadurch kann man auch so ein Thema wie Lebensmittelverschwendung

00:42:58: am Ende des Tages ja zumindest mal angreifen, weil ich die Möglichkeit habe, das zu verändern und

00:43:04: quasi auf den Bedarf, den ich jetzt gerade habe einzugehen. Das ist spannend. Wenn ich jetzt weiß,

00:43:09: ist mein Supermarkt Samstag es ist geöffnet, Sonntag ist Ruhetag und ich dann weiß, ich hab jetzt

00:43:15: Donnerstag noch ganz viel Obst oder Gemüse im Lager und ich weiß, dass es nicht mehr so super

00:43:20: lang haltbar und ich kann es wahrscheinlich Montag nicht mehr verkaufen, weil es dann drüber ist.

00:43:24: Könnte ich mir dann überlegen, was für ein Preis das vielleicht am Freitag an und was sich am

00:43:28: Samstag für den Preis an. Ich könnte mit dem Modell aber auch schauen, wenn das jetzt so günstig

00:43:32: ist, kann ich dann am Montag wieder den vollen Preis verlangen oder denken dann vielleicht meine

00:43:35: Kunden oder kaufen die dann vielleicht eher weniger, weil sie wissen, okay, Montags kostet der Salat

00:43:40: immer irgendwie 2,50 Euro und Totonnasag kostet nur 1,50 Euro, dann essen wir lieber am Wochenende

00:43:45: Salat und anfangen der Woche vielleicht Kartoffeln, weil die günstiger sind. Also,

00:43:48: könnte ich sowas dann auch simulieren, solche Effekte? Kann man simulieren, genau. Ich meine,

00:43:54: es ist ja nicht so, dass diese Systeme, das es die nicht schon gibt, die großen Einzelhändler

00:44:00: in Deutschland, die haben für diese Use-Case-Systeme. Häufig ist es tatsächlich so, dass diese Systeme

00:44:05: gar nicht so viel voneinander wissen, was man eigentlich nicht erwarten würde. Man würde ja

00:44:10: eigentlich sagen, okay, naja, also es gibt da so eine Nachfragefunktion, die habe ich gelernt aus

00:44:14: der Historie und ich habe jetzt, das ist mein eines Modell, was sozusagen auch dann unterschiedliche

00:44:22: Use-Cases bedienen kann. Das Schöne ist einfach an dieser, an dieser UIUX von Alina, dass man,

00:44:29: dass man da so viele Use-Cases im Prinzip mit erschlagen kann, wenn man so will. Es ist natürlich

00:44:34: so, dass da dann, dass das natürlich auch eine Skalierungsfrage ist. Also natürlich will man

00:44:41: nicht jedes einzelne Obst, jedes einzelne Gemüse sozusagen händisch dann mit einem neuen Preis

00:44:47: belegen. Das macht natürlich auch keinen Sinn. Also das Use, also das User-Interface ist schon so

00:44:56: angelegt, dass man sich bestimmte Beispiele rauspickt, die man jetzt irgendwie, es geht ja immer am

00:45:04: Ende noch um die Erklärung. Aber potentiell ist das möglich. An der Stelle vielleicht auch noch mal

00:45:10: vielleicht ein anderes Beispiel, wo vielleicht die Zuhörer ein bisschen näher dran sind, weil das

00:45:17: ja jetzt schon irgendwie erstmal so ein Enterprise-Händler-Beispiel ist. Ich habe noch nicht versucht,

00:45:24: meinen VW-Bus zu verkaufen. Auf einer Plattform kann ich auch sagen, mobile, mobile ist ja auch Kunde

00:45:32: von uns. Bei mobile gibt es diese Preisempfehlung. Und da habe ich im Prinzip genau das gemacht,

00:45:44: was Alina eben beschrieben hat. Ich habe versucht, meine Feature zu tunen, sodass diese

00:45:50: Preisempfehlung von mobile für mein Auto eine möglichst guten Preis rausgespuckt hat. Also

00:45:55: da könnte man dann, kann man ja alle möglichen Dinge eingeben. Ich meine so ein paar Sachen,

00:45:59: kann man natürlich nicht verändern, die habe ich natürlich auch wahrheitsgemäß angegeben. Aber

00:46:03: manche Dinge, bei manchen Dingen konnte man schon noch sagen wir mal, hatte man Spielraum. Also

00:46:09: zum Beispiel, ob mein Fahrzeug neuen TÜV und AU hat als Beispiel. Und jetzt muss man sich natürlich

00:46:17: die Frage stellen, macht es Sinn, dass ich bevor ich mein Auto verkaufe, noch TÜV machen lasse. Also

00:46:24: steigert das sozusagen meinen empfohlenen Preis in diesem mobile Modell von Preisen so viel,

00:46:32: dass ich das für mich lohnt. Weil keine Ahnung für ein TÜV zahle ich vielleicht, also mit

00:46:37: Inspektion vielleicht, keine Ahnung, 1000 Euro oder so. Und wenn mir dann, wenn denn die Preisempfehlung

00:46:43: aber 2000 Euro höher ist, dann ist das für mich gut. Dann würde ich das machen. Deswegen ist das

00:46:49: genau das, was man dann ausprobieren kann. Also welches Feature sozusagen, kann ich meinem

00:46:54: Auto jetzt noch geben, vielleicht noch ein Satz Winterreifen oder so, sodass ich das dann für

00:47:01: mich auch lohnt. Und das ist im Prinzip so ein Spiel mit diesem Preismodell in dem Beispiel. Und

00:47:08: ich habe sozusagen dann, ja, wenigstens indirekt ein Gefühl dafür entwickelt, okay, was sind denn

00:47:15: diese einzelnen Dinge, was geben die mir an zusätzlichem Verkaufswert sozusagen für mein Auto.

00:47:23: Und das könnte man natürlich jetzt auch übertragen auf so einen Enderpreisfall, dass wenn ich jetzt

00:47:28: hier tätig bin bei einer Absatzprognose, dass ich dann jetzt natürlich nicht mit jedem OBS,

00:47:35: jede Woche experimentiere, was der perfekte Preis ist, aber ich könnte regelmäßig mir mal

00:47:40: verschiedene Produktgruppen anschauen und herausfinden, wo gibt es vielleicht hier noch

00:47:45: Optimierungsspielraum oder habe ich spezielle Use Cases, die ich mir mal anschauen möchte.

00:47:50: Das ist schon natürlich spannend. Und das würde natürlich auch mir dann als Fachexperten helfen,

00:47:57: so was autark durchführen zu können, ohne dass ich jetzt mir die Leute aus der KI-Abteilung

00:48:02: brauche, die natürlich nie Zeit haben, weil alle Unternehmen haben ganz viele coole KI-Projekte

00:48:08: und da hat niemand mal kurz Zeit um mir das mal kurz durchzurechnen mit so einem Juppie der

00:48:13: Nordbogger, das war. Vor allem will man das ja vielleicht auch gar nicht. Also du willst vielleicht

00:48:17: auch einfach selber es einfach kurz checken und dann gar nicht auf Hilfe angewiesen sein.

00:48:23: Trotzdem sieht man gleichzeitig, dass eben dieser Bedarf nach Erklärungen da ist, weil sonst würden

00:48:31: ja die Personen nicht die KI-Experten befragen und eben auf die Expertise vertrauen, dass die

00:48:41: Erklärung von Mensch zu Mensch gut ist, sondern das eben versuchen auf so einen Interface zu beziehen

00:48:47: und das alles abzufangen. Ja klar, ich meine am Ende kommt es ja wahrscheinlich auf das an, was wir

00:48:52: jetzt auch schon das eine oder andere mal angesprochen haben. Ich möchte Vertrauen haben zu diesem Tool,

00:48:58: das ich nutze und ich möchte aber auch das Verständnis dafür haben und ich glaube,

00:49:01: das bedingt sich gegenseitig. Also blindes Vertrauen finde ich schwierig, habe ich selten,

00:49:07: bin ich ehrlich. Und wenn ich richtig viel vertrauen, also natürlich nicht in Menschen,

00:49:14: das was anderes, aber in Systeme habe, dann brauche ich auch immer ein Verständnis dafür. Also ich

00:49:19: muss wissen für mich persönlich, wie funktioniert was und das muss es nicht auf dieser ganz krassen

00:49:24: technischen Ebene sein, wie jetzt bei so einem KI-System, wo vielleicht ja nicht nur eine Person

00:49:29: daran arbeitet in der Entwicklung oder vielleicht ein ganzes Team daran arbeitet, mit hoch spezialisierten

00:49:34: Leuten. So genau muss ich es ja gar nicht wissen, aber so grundlegend muss ich es wissen. So grundlegend,

00:49:39: warum kommt da jetzt X raus und ja, ich glaube, das hilft mir einfach beim Alltag und wenn ich

00:49:45: das vertrauen habe, dann ist das ja auch gut, weil da muss ich es nicht nochmal überprüfen. Das

00:49:50: schlimmste ist ja, wenn Leute vielleicht so ein System haben und sagen okay, aber ich überprüfe

00:49:54: das nochmal. Ich rechne das nochmal ganz kurz durch. Ich check das nochmal, damit ich auch 100%

00:49:59: sicher bin, weil dann erzeugt es ja am Ende nur mehr Arbeit. Ja und das ist natürlich die große

00:50:05: Preisfrage, wie wir denn da hinkommen, dass eben KI Produkte das täckeln sozusagen und was ich

00:50:15: total wichtig finde, ist diese Kombination oder diese Kollaboration aus Menschen, die damit mit

00:50:24: entwickeln. Also zum Beispiel, wir haben die KI-Expert*innen, die das Modell entwickeln und dann

00:50:30: aber auch die UI/UX Perspektive dazu zu nehmen, um eben auch am Ende des Tages die Nutzer*innen in

00:50:38: diesen Prozess einzubeziehen, damit wir überhaupt mal verstehen, für wen wir das eigentlich,

00:50:42: was stellen die sich für Fragen, was haben die sich für Antworten und welche, was können wir

00:50:47: daraus für unseren Prozess ableiten. Das heißt, wir sollten uns eigentlich erst mal fragen,

00:50:52: was soll erklärt werden, was haben User für Fragen und wie können wir das machen,

00:50:57: wie kann das dann aussehen und weil jeder Use Case so individuell ist, braucht es auch eine

00:51:03: individuelle Lösung, damit wir eben etwas entwickeln, was auch gerne genutzt wird,

00:51:10: was Akzeptanz erzeugt, weil wenn wir keine Nutzerakzeptanz haben für einen Produkt,

00:51:14: dann wird es ja nicht genutzt werden und dann haben wir am Ende des Tages ein Produkt,

00:51:20: der entwickelt, was niemand braucht oder niemand benutzen möchte. Sehen wir dann jetzt heute an

00:51:24: dem Punkt, wo wir solche KI Anwendungen nicht mehr im luftleeren Raum entwickeln können,

00:51:29: um zu schauen, was geht, sondern sind wir jetzt vielleicht, was so KI getriebene Anwendungen

00:51:35: angeht, ans vorigen Punkt angekommen, wo wir jetzt wirklich so eine ganzheitliche Betrachtung

00:51:43: brauchen, wo wir es KI-Leute brauchen, wo wir jetzt aber auch UI-Leute brauchen, genauso wie wir das auch

00:51:48: schon irgendwann mal in der traditionellen Software entwickeln erreicht haben, weil da war es ja

00:51:52: anfangs auch anders. Also als ich angefangen habe mit Softwareentwicklung, kurz nach Einführung des

00:51:58: Euros, ich habe gerade darüber nachgedacht, wie diese alte Währung hieß, demalch. Aber Spaß

00:52:06: beiseite, da war es ja auch so, da ging es um die Technik, da ging es um die Logik, da ging es, wenn man

00:52:10: übers Business gesprochen hat, ging es um die Business-Logik, die man implementiert hat, wo man

00:52:15: sich überlegt hat, okay, wir sehen irgendwelche Formeln aus, wie ist die Fachlichkeit, das implementieren

00:52:20: wir dann und ja, die User, die kriegen das schon irgendwie hin und ich habe Sachen erlebt, ich habe

00:52:28: eine Geschichte, die sich ganz prägend im Kopf habe, das war ein Redaktionssystem für ein großes

00:52:33: Medienhaus, an dem ich mitgearbeitet habe vor vielen, vielen Jahren und die Chefredakteurin damals,

00:52:39: die hat sich an uns gewendet in der Entwicklung, hat gesagt, ja, sie hat da so ein Problem, was ist

00:52:43: los? Ja, sie muss für dieses Redaktionssystem fürs Wochenende immer so auf Vorrat zum Partieser

00:52:49: einstellen, die da auf seiner Website ausgespielt werden und das ist aber so viel Arbeit, weil sie

00:52:53: braucht für jeden von diesen Teesern irgendwie, sie muss sie sieben, acht Mal irgendwo klicken und

00:52:57: so Arbeitsschritte, ob man das nicht vereinfachen kann und da haben wir uns das angeschaut und wir

00:53:00: konnten es mega vereinfachen, dass man so einmal klickt, so klickt, klickt, klickt, so drackend,

00:53:04: drackend, drackend, drackend, voll gut, aber die Ursprungsversion, die war halt sehr technisch,

00:53:09: also das war sehr technisch, so kassiert, Menü, man hat es hier rein und hier, hat alles funktioniert,

00:53:13: war aber super viel Arbeit, war unintuitiv und hat niemand Spaß gemacht, das war einfach eine

00:53:17: Strafarbeit und die blieb halt immer in dieser Chefredakteurin hängen und heute kenne ich so eine

00:53:23: Art von Softwareentwicklung zum Glück gar nicht mehr, sondern also die letzten Jahre waren jedem

00:53:29: Projekt, nämlich tätig war, war irgendjemand aus dem Bereich UX Design und man hat sie zusammen

00:53:34: gesetzt, so hat man einen coolen Workshop gemacht und hat auch dann so Kunden echt gut abgeholt und

00:53:39: das ist cool, macht super viel Spaß und ich glaube die Software die wir heute entwickeln ist viel

00:53:44: besser wie die Software die wir vor zehn Jahren entwickelt haben, man spart glaube ich auch viel

00:53:49: Geld und Zeit, weil man jetzt nicht mit irgendwas entwickelt, was später niemand benutzen kann

00:53:54: und ich habe es viel erzählt, aber ich habe den Eindruck, dass es bei KI jetzt langsam genauso ist,

00:53:59: am Anfang ging es voll um Machbarkeit, am Anfang ging es um die Jupyter Notebooks, da ging es darum,

00:54:03: dass man als Data Scientist explorativ zeigt, was man hier alles machen kann und am Schluss kommt ein

00:54:09: cooler Graph raus und das war auch beeindruckend, weil es was Neues war, aber kommen wir heute

00:54:16: an so einen Punkt, wo wir sagen okay wir haben so die Basics jetzt alle in der Tasche, wir wissen

00:54:20: jetzt bis geht es gibt immer noch neue coolen Entwicklungen, aber wir machen das jetzt auch mit

00:54:25: UI und UX Design gemeinsam. Das war eine sehr lange Frage, ich würde mal ja sagen.

00:54:31: Ja nein, also es ist tatsächlich so, ich glaube ich selber war ja auch viele Jahre in Projekten,

00:54:41: da ging es in der Regel immer um irgendwelche Machine Learning Komponenten, KI Systeme und

00:54:48: wie du das beschrieben hast, war es tatsächlich auch, also es ging am Anfang um die Technik,

00:54:55: wir haben versucht möglichst gutes Prognosesystem zu bauen und alle möglichen Feature eingebaut

00:55:00: und haben sozusagen versucht da wirklich ein gutes System hinzubauen, aber wir haben nicht

00:55:08: einmal daran gedacht, dass das vielleicht sich auch irgendjemand angucken soll. Und wir sind dann

00:55:15: tatsächlich auch in diese Petrouille gekommen, dass wir Useranfragen von außen hatten, die gesagt

00:55:21: haben okay ich verstehe das nicht, kannst du mal und ich vertraue ich auch nicht, also was ihr da macht.

00:55:28: Genau und ich meine eigentlich ist es völlig offensichtlich, aber das ist ja häufig so mit

00:55:36: guten Dingen. Also erst mal bis zu dem Zeitpunkt wo sie dann kommen, also bis zu dem Zeitpunkt,

00:55:42: wo Alina jetzt quasi ihre Bachelor wird geschrieben hat und mit dem an der Stelle sozusagen mir

00:55:50: die Augen geöffnet hat, war das für mich kein großes Thema, aber jetzt kann ich mir eigentlich

00:55:56: gar nicht mehr vorstellen, dass man so ein System baut ohne diese Komponente. Und ich meine ich glaube

00:56:02: schon, dass das nicht überall schon da ist dieser Einsicht, aber es ist ja wie gesagt eigentlich

00:56:09: offensichtlich. Ja es ist ja bei vielen offensichtlichen Sachen so, dass dann trotzdem der richtige

00:56:16: Zeitpunkt eintreten muss und irgendwas passieren muss, dass man Dinge mal anders macht, wie man es

00:56:21: immer gemacht hat. War auch ein sehr spannender Prozess, also diese ganze Arbeit, weil das für

00:56:28: mich auch sehr explorativ war, also weil ich ja nicht wusste wo ich ja meine rauskomme und das war

00:56:33: dann irgendwie eigentlich ja der proof of concept eben auch die User mit einzubeziehen und nachzufragen,

00:56:41: weil ich hatte ja selber keine Ahnung von dem use case und ich kann jetzt irgendwie hingehen und

00:56:45: irgendwas gestalten, aber wenn ich nicht weiß wer das eigentlich nutzt und was die Bedürfnisse sind,

00:56:50: dann ist es eigentlich nur ja ein Schuss ins Blaue und vielleicht trifft der was vielleicht aber auch

00:56:56: nicht und deswegen ja hat sich das total bestätigt und auch eben später in der in der Evaluation

00:57:05: von dem Interface, dass sogar auch eine andere Nutzergruppe also Entwickler*innen von diesen

00:57:13: Kaisystemen gesagt hätten oder gesagt haben, für mich ist das auch cool so was zu haben,

00:57:18: um zum Beispiel die Feature, die ich implementiert habe zu testen. Also diese ganze Lösung hat ganz

00:57:25: viele verschiedene use cases und auch Usergruppen, die man aber kennen sollte und verstehen sollte.

00:57:32: Alina, du hast dich jetzt ja viele Wochen mit dem Thema beschäftigt, also mit User-Santeric AI

00:57:39: Interfaces und mich würde jetzt interessieren, was glaubst du, welche Rolle wird sowas in der Zukunft

00:57:46: spielen? Also solche explainable AI Geschichten, glaubst du, dass das was Großes wird, was wir

00:57:52: bald überall sehen? Also ich glaube dadurch, dass wir gerade schon sehen, dass diese ganze AI-Thematik

00:58:01: in alle möglichen Bereiche Eintritt erhält, wird das super spannend werden und auch eben in Bereiche,

00:58:08: die wirklich kritisch sind, was die Entscheidung angeht, wenn du dir jetzt mal den Healthcare-Bereich

00:58:13: anguckst und du gibst eine Art, so eine Ärztin, eine Prognose, dann ist es wichtig, dass da Vertrauen

00:58:20: herrscht oder das Verständnis herrscht, wie diese KI dazu gekommen ist, damit es im besten

00:58:26: Fall diese Mensch AI Kollaboration geben kann und ich glaube, dass deswegen das Potenzial so hoch ist,

00:58:35: weil wir eben das schaffen können, dass diese Kombinationen gibt und dass durch auch so einen

00:58:43: Zusammenbring von Disziplinen, also zum Beispiel jetzt Machine Learning und UX, dass eben dafür

00:58:49: Lösungen gefunden werden können und am Ende geht es eben darum, eine Zusammenarbeit in jeder

00:58:55: Ebene zu schaffen und ich glaube, dass das ein cooles Potenzial und ein spannender Bereich,

00:59:00: wo es noch ganz schön viel zu erkunden gibt. Robin, du als jemand, der sich schon recht lange mit

00:59:06: dem ganzen Thema KI und Mathematik beschäftigt, wo geht für dich die Reise hin? Also ich fand

00:59:12: das jetzt super spannend mit dieser Kollaboration einfach zwischen KI und UI und auch diesen

00:59:19: ganzen User-Centric Ansatz, den finde ich super spannend, explainable UI sowieso, weil ich glaube,

00:59:26: die Blackbox macht uns halt einfach Angst, wenn wir damit arbeiten müssen bzw. Sie

00:59:30: schafft da keinen Vertrauen, wenn du ein bisschen in die Zukunft blickst und so vielleicht die ganz

00:59:36: kleine Kristallkugel ausprachst, was glaubst du, wo die Reise hingeht in die nächsten?

00:59:42: Naja, ich mag ja fast gar nicht sagen "jahre", aber vielleicht "jahre". Genau, also ja, also

00:59:50: Ausblicke sind immer schwierig, aber einen Wunsch hätte ich, ich hätte den Wunsch, dass überall

00:59:55: da, wo KI-Systeme eingesetzt werden, im Prinzip UI, UX-Aspekte mit einbezogen werden, weil die

01:00:04: Interaktion mit den Menschen dafür bauen wir ja diese KI-Systeme, dass sie den Menschen unterstützen

01:00:09: bei der Arbeit oder bei was auch immer sozusagen gerade getan werden soll oder entschieden werden

01:00:18: soll und da sind diese Aspekte einfach super wichtig und KI ist so breiteinsetzbar, wie die

01:00:25: Informatik insgesamt und deswegen wird das auch überall Einzug erhalten und da wäre dann sozusagen

01:00:32: mein Wunsch, dass man da dann auch auf den auf den Menschen eingeht und ich glaube, das würde

01:00:39: dann auch sehr viele Barrieren abbauen, die ja heutzutage auch wahrscheinlich sinnvollerweise

01:00:47: noch in den Köpfen der Leuten existieren. Ja, Robin, vielen Dank für deine Einschätzung. Ich glaube,

01:00:55: auch, dass das Thema AI spannend bleibt. Ich glaube, dass wir beide uns heute auch sicherlich zum

01:01:02: letzten Mal gehört haben hier im Rahmen von Podcast. Da wird es noch mal sicherlich ein paar

01:01:06: spannende Anknüpfpunkte geben im nächsten Jahr, hoffe ich. Ja, Alina, ich bin auch gespannt,

01:01:12: was es bei uns noch verspannende Anknüpfpunkte gibt. Ich fand und finde das Thema, dass du da in

01:01:18: deiner Bachelor-Tase behandelt hast, echt spannend, weil ich finde es halt cool, wenn man weiß,

01:01:24: wie Dinge funktionieren, wenn es nicht nur irgendwelche Black Boxen gibt, den man blind

01:01:28: vertrauen muss. Ich glaube, dass das auch gut für uns Menschen ist, wenn wir eine Möglichkeit haben,

01:01:33: so Dinge zu verstehen und dadurch auch Vertrauen aufzubauen. Und ich finde die Entwicklung cool,

01:01:40: dass man jetzt einfach UI, UX mit solchen KI-Ansätzen verbindet, um wirklich tolle Lösungen zu

01:01:48: erschaffen. Und ja, Frage in Dicht zum Schluss. Gibt es in dem ganzen Thema noch irgendwas

01:01:55: Spannendes, was wir bis jetzt noch nicht irgendwie besprochen haben oder was Spannend für die Zukunft

01:02:00: ist? Das gibt es tatsächlich und zwar warum das auch von einer ganz anderen Perspektive total

01:02:07: relevant ist für ganz viele Bereiche und zwar ist es der European AI Act, der das Recht auf

01:02:16: Erklärung zur Rechtssache macht. Das heißt, es gibt das sogenannte "right to explanation". Das heißt,

01:02:21: es ist vorgeschrieben, dass KI erklärbar sein muss. Das muss gewissen Standards entsprechen und

01:02:29: deswegen ist es total spannend, das Thema weiter zu verfolgen, weil es eben aufgrund von diesen

01:02:34: Regularien superrelevant für uns wird. Aber das ist aber wirklich spannend. Das hatte ich gar nicht

01:02:39: mitbekommen, wobei ganz ehrlich, ich bin jetzt auch nicht der Experte für solche gesetzlichen

01:02:43: Regelungen, aber ich finde, dass es ja in einigen Bereichen da ganz interessante Vorgaben gibt,

01:02:49: die uns Menschen auch helfen. Also ich erinnere mich an die Vorgaben für so Barrierefreiheit auf

01:02:55: Webseiten, da hatte ich mich mit dem Kollegen Matthias Reuter schon mal drüber unterhalten. Da

01:03:01: gibt es ja auch auf EU-Ebene Vorgaben, die man einhalten muss. Und wenn sowas für AI gibt,

01:03:06: beziehungsweise für die Erklärbarkeit, dann finde ich das auch eine gute Sache. Denn manchmal braucht

01:03:12: man vielleicht auch so eine gesetzliche Motivation, damit man am Ende das Richtige macht. Jetzt haben

01:03:19: wir uns sehr viel über deine Bachelorarbeit unterhalten, Alina. Wie sieht es denn aus? Gibt es

01:03:23: die Möglichkeit, sich diese Arbeit oder Ausschnitte mal irgendwo anzuschauen, vielleicht im Internet?

01:03:30: Wie gibt es Wolfgang? Und zwar habe ich zum Thema einen Blogartikel geschrieben, wo man auch

01:03:37: Ausschnitte aus dem Interface sieht und der auch noch mal so ein bisschen auf diesen Prozess eingeht

01:03:42: und die Ergebnisse aus den einzelnen Prozessschritten auch noch ein bisschen darstellt. Und wenn du

01:03:47: möchtest oder an alle Zuhörerinnen, die das näher interessiert, gerne auf unserem Blog vorbei

01:03:53: schauen, da findet man den Blogartikel zum Thema. Ja, und man findet natürlich den Link zu dem

01:03:59: Blogartikel auch hier in den Show-Notes. Also ich kann es nur empfehlen, schaut euch das gerne mal an,

01:04:04: das ist sehr interessant. Und ja, vielleicht ist es auch für die eine oder den anderen ein ganz schöner

01:04:10: Denkanstoß, wenn es um zukünftige KI-Lösung geht. Alina, vielen Dank für deine Zeit. Vielen Dank,

01:04:18: dass du da warst und natürlich auch vielen Dank für die tolle Bachelorarbeit, die du hier bei uns

01:04:21: geschrieben hast, die uns ja euch bezahlen ein Stückchen weitergebracht hat. Sehr gerne. Robin,

01:04:27: auch vielen Dank, dass du heute mal wieder da warst, ist immer wieder bereichernd und ja,

01:04:34: ich sage mal zu euch beiden bis bald. Ich hoffe, dass ihr demnächst mal wieder hier zu einem schönen

01:04:41: Thema zu Gast seid. Vielen Dank, Wolfgang. Bis dann. Das war das Gespräch mit Alina und Robin. Ich

01:04:47: hoffe, dass es euch Spaß gemacht hat. Wenn ihr Feedback habt, dann erreichte mich per e-Bell

01:04:51: unter podcast@innowax.de. Wir hören uns in zwei Wochen wieder. Bis dahin wünsche ich euch viel Spaß und eine gute Zeit.

01:04:58: [Musik]

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.