Human-Centered Explainable AI – Der Weg aus der Black Box
Shownotes
KI verändert stetig unsere Art zu arbeiten und zu Dinge zu erledigen – ob durch Recommendations von streaming-Diensten oder durch generative Bild- und Texterstellung.
Dabei bleibt die KI jedoch häufig eine Black Box. KI-Entscheidungen konnten lange nur von Expert:innen nachvollzogen werden. Wir sprechen mit unserer Kollegin und UI/UX-Expertin Alina, wie sich das durch Explainable AI ändern kann.
Es geht darum, Erklärungen so aufzubereiten, damit KI-Entscheidungen auch von Usern begriffen werden, die keine tiefe KI-Expertise haben.
Link aus der Folge: https://www.inovex.de/de/blog/explainable-ai-as-a-user-centered-design-approach/
Für diese Folge von Digital Future gibt es ein vollständiges Transkript. Dieses Transkript wurde automatisiert erzeugt und nicht nachbearbeitet oder korrekturgelesen. Es wird daher sicher Fehler enthalten. Das Transkript ist als Ergänzung zu verstehen, um beispielsweise die Inhalte durchsuchbar zu machen. Im Zweifel gilt immer das gesprochene Wort aus der Folge.
Dieser Podcast lebt von deinem Feedback! Melde dich gerne über die verlinkten sozialen Medien oder direkt per Mail an podcast@inovex.de.
Wenn dir der Podcast gefallen hat, abonniere ihn und erzähl deinen Freunden davon! Außerdem freuen wir uns über deine Text- und/oder Sternebewertung bei Apple Podcasts.
Twitter: https://twitter.com/inovexgmbh Instagram: https://www.instagram.com/inovexlife/ www.inovex.de www.inovex.de/blog
Transkript anzeigen
00:00:00: Hallo und herzlich willkommen bei Digital Future, dem Podcast zur Technologie und Unternehmenskultur.
00:00:13: Mein Name ist Wolfgang Schoch und ich bin Agile Coach bei InnoVex.
00:00:16: Ich habe aber auch schon einige andere Sachen gemacht und so die IT-Brosche aus verschiedenen
00:00:21: Blickwinkeln kennengelernt, zum Beispiel als Softwareentwickler, als Experteversuchtechnologie
00:00:27: oder im Vertrieb.
00:00:29: Ich freue mich, euch in jeder Folge des Podcasts eine Kollegin oder ein Kollegen vorzustellen
00:00:34: und mich mit ihnen über das jeweilige Fachgebiet zu unterhalten.
00:00:38: So bekommt ihr einen Einblick in unseren technologischen und unternehmenskulturellen Alltag.
00:00:43: In der heutigen Folge spreche ich mit meiner Kollegin Alina Döring und meinem Kollegen
00:00:47: Robin Sänge.
00:00:48: Wir unterhalten uns über Human-Centered Explanable AI.
00:00:52: KI verändert herständig unsere Art zu arbeiten und Dinge zu erledigen.
00:00:57: Egal ob jetzt durch Recommendations, die uns Filme und Musik empfehlen oder durch die generative
00:01:02: Erzeugung von Bildern oder Texten.
00:01:04: Dabei bleibt die KI jedoch häufig eine Blackbox.
00:01:07: Entscheidungen konnten lange Zeit nur von Expertinnen nachvollzogen werden und genau darum geht es
00:01:13: bei Human-Centered Explanable AI.
00:01:15: Nämlich darum, Erklärungen so aufzubereiten, damit auch KI-Entscheidungen von Usern begriffen
00:01:21: werden, die keine tiefe KI-Expertise haben.
00:01:25: Ich wünsche euch viel Spaß mit dem Gespräch.
00:01:27: Hallo und herzlich willkommen hier im Podcast.
00:01:29: Ich freue mich, dass ich heute zwei alte Bekannte begrüßen darf.
00:01:33: Alina, du warst schon mal ganz kurz hier zu Gast im Podcast und Robin, du schon mal ein
00:01:39: bisschen länger.
00:01:40: Ich würde euch aber bitten, euch trotzdem mal ganz kurz vorzustellen, damit auch alle wissen,
00:01:46: wer heute hier am Start ist.
00:01:47: Alina, magst du anfangen?
00:01:49: Gerne.
00:01:50: Ja, hi, ich bin Alina.
00:01:51: Ich bin seit knapp drei Jahren jetzt bei InnoVex in unserem IOI-UX-Team als Werkstudentin
00:01:58: und habe jetzt vor kurzem meine Betschdarbeit auch bei InnoVex geschrieben und mache jetzt
00:02:03: im Master weiter.
00:02:04: Genau.
00:02:05: Sehr schön.
00:02:06: Robin, wie sieht es bei dir aus?
00:02:09: Hallo Wolfgang.
00:02:10: Ja, genau.
00:02:11: Mein Name ist Robin Senghe.
00:02:12: Ich bin Teamlead in der DMA der Management und Analytics und ich habe die große Freude,
00:02:19: die Alina betreuen zu dürfen.
00:02:20: Also zum einen in ihrer Bachelorarbeit und dann jetzt auch als Werkstudentin bei uns.
00:02:26: Bachelorarbeit ist ja ein ganz gutes Stichwort.
00:02:29: Alina, wir sprechen ja heute über das Thema von deiner Bachelorarbeit und ich durfte
00:02:34: schon einen kleinen Vortrag von dir genießen, den du hier bei uns in der Firma gehalten hast,
00:02:39: wo du das Thema ein bisschen vorgestellt hast und erklärt hast, was du da alles gemacht
00:02:42: hast.
00:02:43: Ich fand das super spannend.
00:02:45: Zum einen, weil der Inhalt interessant war.
00:02:48: Zum anderen, weil der Titel ziemlich cool klingt und ich sehr empfänglich bin, wenn
00:02:53: man so cool ein Titel hat.
00:02:54: Und darüber unterhalten wir uns heute.
00:02:57: Magst du uns mal verraten, wie dieser Titel lautet?
00:03:00: Gerne.
00:03:01: Also du redest jetzt wahrscheinlich von Human Centered Explainable AI.
00:03:06: Exakt.
00:03:07: Klingt tatsächlich ziemlich cool und das ist es auch.
00:03:10: Es geht im Grunde genommen darum, dass ich auf der Suche war nach einem Thema für meine
00:03:15: Bachelorarbeit.
00:03:16: Ich habe mich gefragt, wie eigentlich Menschen oder User, die keine Expertise in dem Bereich
00:03:31: haben, mit Produkten interagieren, die auf KI basieren sozusagen.
00:03:37: Das heißt, wie kann man die Interaktion zwischen Mensch und Maschine oder in dem Fall Mensch
00:03:43: und KI gestalten und dafür sorgen, dass da Vertrauen entsteht, dass Verständnis entsteht
00:03:50: und dass User ohne technische Expertise verstehen, was da eigentlich passiert.
00:03:55: Das finde ich super spannend.
00:03:57: Denn gerade, was du zum Schluss gesagt hast, verstehen, was da passiert.
00:04:01: Ich glaube, das ist eine Frage, die viele Leute umtreibt, oder?
00:04:04: Also wenn wir über KI sprechen und vor allem so in der breiten Masse der Bevölkerung über
00:04:09: KI sprechen, dann geht ja das Gespräch zwangsläufig irgendwie mal in Richtung so Chat GPT, was
00:04:16: irgendwie allgegenwärtig ist aktuell, was aber vielleicht auch ein kleines bisschen
00:04:21: wie Zauberrei wirkt.
00:04:22: Und ich bin ehrlich, wenn ich damit mal rumgespielt habe, mal experimentiert habe, dann fand
00:04:29: ich das immer cool, was was daraus kam.
00:04:32: Aber so 100%ig verstanden habe ich es nicht.
00:04:36: Und damit meine ich jetzt nicht unbedingt nur so das technische Prinzip, was vielleicht
00:04:40: dahinter steckt.
00:04:41: Ich glaube, das kann man gut verstehen, auch wenn man es nicht so richtig krass in der
00:04:45: Informatik drinsteckt, aber so warum sieht das Ergebnis so aus?
00:04:50: Was sind da vielleicht Verdaten reingeflossen?
00:04:53: Wie wurden die miteinander verwurschtelt?
00:04:55: Ich glaube, das ist ein Fachbegriff aus der KI.
00:04:58: Und ja, das ist eine Frage, die finde ich super spannend.
00:05:02: Geht das so ein bisschen in die Richtung von dem, was du gemacht hast?
00:05:06: Genau.
00:05:07: Also das Dilemma, auf das ich gestoßen bin, ist eigentlich, dass je genauer so eine Prognose
00:05:15: wird oder werden soll, desto größer wird auch die Datenbasis und das geht aber auf
00:05:21: Kosten der Interpretierbarkeit.
00:05:22: Und dafür sollte ja so eine Lösung gefunden werden und darum hat sich das ganze Forschungsfeld
00:05:29: Expendable AI, Erklärbare Künstliche Intelligenz entwickelt und ganz lange war das, ich sage
00:05:36: mal, ein rein algorithmischer Fortschritt, der da gemacht wurde.
00:05:39: Also es wurde sich überlegt, okay, welche Methoden können wir nutzen, um nachträglich
00:05:48: diese Ergebnisse von der, die da rauskommen, die Prognosen für Menschen verständlich zu
00:05:53: machen.
00:05:54: Das ist eigentlich das Hauptziel.
00:05:55: Weil es da eben diese Blackbox-Modelle gibt, die nicht mehr interpretierbar sind.
00:06:01: Und das ist auch gut und wichtig und richtig.
00:06:04: Das Einzige, was wir jetzt halt beobachten, ist, dass immer mehr Nutzer, Nutzerinnen mit
00:06:10: diesen Systemen interagieren, die gar nicht diese technische Expertise haben.
00:06:14: Und wenn denen dann eine algorithmische Erklärung geliefert wird, dann bleibt die Blackbox immer
00:06:20: noch bestehen, weil eben dieses Verständnis fehlt.
00:06:22: Und deswegen braucht es in meinen Augen diesen Switch, dass wir uns überlegen, okay, aber
00:06:28: wie können wir denn diese Erklärungen übersetzen, sodass auch Menschen ohne diese AI-Expertise
00:06:33: verstehen, was da passiert, wenn sie eben in dieser Interaktion stehen?
00:06:36: Das bedeutet, dass so Expendable AI durchaus ein Thema ist, das schon älter ist, das es
00:06:42: schon länger gibt?
00:06:43: Genau.
00:06:44: Also an der Stelle muss man vielleicht auch noch unterscheiden zwischen Expendable AI.
00:06:49: Das sind so sehr diese algorithmischen.
00:06:51: Und dem Human Center, da wird Alina sicherlich gleich noch drauf eingehen.
00:06:55: Und genau, Expendable AI, da gibt es eine ganze Reihe von Methoden, die im Prinzip alle
00:07:02: versuchen dem User oder dem, in der Regel dann halt auch dem Experten zu erklären, was
00:07:10: da passiert in diesem Modell.
00:07:11: Und man hat ja vielleicht in dem Zusammenhang von KI schon mal von so tiefen neuronalen
00:07:16: Netzen gehört und wie groß die sind.
00:07:18: Und gerade so diese neuen Sprachmodelle, mit denen ja jetzt viele Leute auch interagieren,
00:07:23: die haben dann Billionen von Parametern, die da gelernt werden.
00:07:28: Und das ist natürlich dann nicht mehr nachvollziehbar.
00:07:32: Also da kann man nicht mehr sozusagen reingucken und verstehen, wie das funktioniert.
00:07:36: Da gibt es auch die Forscher selber, haben da sozusagen viele Fragezeichen.
00:07:40: Und dann gibt es eine ganze Reihe von Methoden, die halt versuchen jetzt nicht das Modell
00:07:47: selber, sondern halt dessen Verhalten so ein bisschen zu verstehen.
00:07:51: Und die Zusammenhänge, die da drin abgebildet werden.
00:07:54: Aber auch die sind alle in der Regel so konzipiert, dass man jetzt für einen, sagen wir mal,
00:08:02: Teilproblem, also für einen gewissen Bereich, dann wieder andere maschinelle Lernverfahren
00:08:08: verwendet, die dann interpretierbar sein sollen, sage ich jetzt mal ganz vorsichtig, um dann
00:08:17: eben diese Zusammenhänge irgendwie darzustellen.
00:08:21: Das bedeutet dann, dass es für mich jetzt als End-User, der jetzt nicht wirklich tief
00:08:28: in der Materie drinsteckt, sondern einfach so ein Produkt verwenden möchte, in dem irgendeine
00:08:33: Art von KI-Technologie drinsteckt, dass es für mich dann gar nicht so wirklich nachvollziehbar
00:08:38: ist, wie das Ergebnis zustande kommt.
00:08:41: Und ich meine, wenn ich jetzt JETGPD sage, hey, schreibe mir mal ein Lied über irgendein
00:08:48: lustiges Thema, dann kommt irgendein das raus und das ist lustig oder auch nicht und dann
00:08:53: ist es vielleicht aber für mich auch gar nicht so wichtig zu wissen, wie das entstanden
00:08:56: ist.
00:08:57: Aber es gibt ja auch Use Cases, wo sowas relevante ist, keine Ahnung, wenn ich beispielsweise
00:09:04: irgendwie eine Routenplanung für mein Auto möchte.
00:09:06: Und die Routenplanung sagt mir, okay, fahr so und so und so und ich kenne vielleicht
00:09:11: die Strecke so halbwegs und ich schaue mir das an und denke, hey, komisch, es macht
00:09:15: doch eigentlich viel mehr Sinn, jetzt hier auf der Autobahn zu fahren.
00:09:18: Und jetzt sagt mir aber vielleicht irgendwie das Navi, hey, du solltest nicht auf die Autobahn,
00:09:23: solltest irgendwie die Landstraße nehmen und denk, okay, aber dann muss ich ja durch
00:09:25: so kleine Ortschaften, das dauert doch ewig, ich kenne das doch und am Ende stellt sich
00:09:29: dann vielleicht raus, da ist ein Unfall oder so.
00:09:32: Und das wird mir aber nicht angezeigt oder irgendwas anderes.
00:09:36: Geht das so ein bisschen in die Richtung, dass ich nachvollziehen kann, warum so ein
00:09:40: System jetzt X und nicht Y zeigt?
00:09:42: Wenn man jetzt mal das Beispiel aufgreift, was du jetzt gerade genannt hast, diese Routenplanung,
00:09:48: dann kann man sich ja bei den meisten Routenplanern auch anzeigen lassen, welche Alternativrouten
00:09:54: es gäbe.
00:09:55: Und das ist ja vielleicht dann so ein Ansatz für den User, dann sich anzusehen, okay,
00:10:03: vielleicht gibt es ja eine Route, die über die Autobahn geht, wie du gerade geschildert
00:10:07: hast, wo dann aber dann aufgezeigt wird, okay, da ist vielleicht ein Stau oder es dauert
00:10:13: halt dann doch drei Minuten länger.
00:10:14: Wobei da natürlich dann auch immer wieder die Frage nach der Präferenz des Fahrers,
00:10:19: ja, also du hast ganz offensichtlich eine Präferenz für Autobahnen statt für kleine
00:10:24: Landstraßen.
00:10:25: Bist du immer noch in Deutschland?
00:10:28: Genau.
00:10:29: Das spielt dann da auch noch, sicherlich noch rein.
00:10:32: Also wenn es da jetzt um, da geht es ja im Wesentlichen jetzt um Verständnis und das
00:10:38: ist auch sozusagen der Fokus häufig bei diesen explainable AI-Methoden, dass man ein Verständnis,
00:10:45: also eine Einsicht hat, während man jetzt eigentlich sagen muss, dass das der End-User,
00:10:51: der jetzt ohne KI-Fachexpertise da reingeht, sondern die Fachabteilung, ja, also in einem
00:10:57: Unternehmen oder eben ja einen Endern, wenn da eben der keine Expertise hat, da ist das
00:11:05: mit dem Verständnis vielleicht gar nicht so wichtig, würde ich jetzt mal in den Raum
00:11:09: stellen, sondern da geht es halt vielleicht mehr um Vertrauen.
00:11:11: Wenn ich jetzt irgendwie eine KI-gestützte Lösung habe, die mir irgendwelche wirtschaftlichen
00:11:19: Sachen vielleicht optimiert, ich habe mal vor, das ist schon einige Zeit her, man hat
00:11:25: Konferenzenvortrag gehört von einem Unternehmen, die hatten sich spezialisiert auf solche
00:11:31: KI-Lösungen für so Lagerwirtschaft.
00:11:33: Also quasi, wenn du so ein großer Einzelhändler bist, konntest du mit der Lösung von denen
00:11:38: halt so deine Lagerhaltung optimieren und du konntest die Preise automatisch festlegen
00:11:44: lassen, immer in Abhängigkeit vom aktuellen Markt und so weiter.
00:11:48: Das wäre für mich natürlich cool, wenn ich jetzt so der Chef bin, würde ich mir sagen,
00:11:52: super, da muss ich ja nichts arbeiten, ich habe die KI-Lösungen eingekauft mal zu
00:11:55: einem vernünftigen Preis und die optimiert mir das alles, bestellt automatisch, warend,
00:12:00: legt die ganzen Preise fest.
00:12:02: Aber ja, ich glaube, ich brauche da schon viel Vertrauen, um dann auch sicher zu sein,
00:12:07: dass beispielsweise die Verkaufspreise höher sind als meine Einkaufspreise, bis meine Fix
00:12:11: kosten, damit ich irgendwie so in Ruinen getrieben werde, wo es wahrscheinlich auch ganz
00:12:16: spannende Beispiele in der Technik gibt, wo genau so was passiert ist.
00:12:20: Ja, tatsächlich hatte ich in meiner Bachelorarbeit auch einen konkreten Use Case und zwar im
00:12:27: ganzen Bereich Handel, konkret war es Nachfrageprognose und da kommt eben auch dieser menschenzentrierte
00:12:34: Ansatz wieder zum Tragen, weil ich da, also meine User in dem Fall waren Domänexpert*innen,
00:12:41: das heißt, die haben schon seit ewigen Tagen, bevor es überhaupt diese KI-Lösung gab,
00:12:46: Nachfrageprognose gemacht und sich überlegt, okay, wie viel Absatz erwarte ich in der
00:12:50: nächsten Zeit und wie viel, wie wirkt sich das auf meine Einkaufsplanung zum Beispiel
00:12:55: aus.
00:12:56: Und da ist eben das Problem, das, oder was heißt Problem, diese Domänexpert*innen, die
00:13:03: haben ein Haufen Erfahrung, die wissen, wie das funktioniert, das ist deren Daily Business
00:13:08: und deswegen haben die natürlich auch eine gute Intuition, was das Ganze angeht.
00:13:13: Und wenn diese KI-Lösung jetzt prognosiziert, es sollen so und so viele Artikel an dem Tag
00:13:18: verkauft werden und ich weiß aus meiner Erfahrung, das kann überhaupt nicht sein, weil verschiedene
00:13:22: Einflussfaktoren das gar nicht erlauben können, dann zweifelig das natürlich an.
00:13:27: Und dann habe ich ein anderes Verständnis davon und auch eine andere Erwartung und frage mich
00:13:33: dann, okay, da gibt es jetzt diese Diskrepanz zwischen meiner Intuition und dem, was die
00:13:40: Prognose ist und da ist es dann wichtig, eine Erklärung zu geben, damit diese Expertin
00:13:47: in dem Moment sich genauer anschauen kann, wie kommt denn jetzt eigentlich die KI zu
00:13:51: ihrer Prognose und möchte da eine Erklärung haben, die mich zufrieden stellt?
00:13:54: Das ist ein ganz spannendes Beispiel, denn da gibt es ja verschiedene Erkenntnisse, die
00:14:02: rauskommen können.
00:14:03: Also auf der einen Seite kann ja rauskommen, meine Intuition passt nicht.
00:14:07: Also wenn diese Erklärung befriedigend und nachvollziehbar ist, könnte ich ja, wie gesagt,
00:14:11: das stimmt, das ist mein Bauchgefühl, aber ja, das passt nicht, ich verstehe das.
00:14:16: Oder ich finde heraus, dass dieses KI-Modell vielleicht einen Fehler hat an der Stelle,
00:14:20: vielleicht ein blinder Fleck, weil jetzt zum Beispiel eine Prognose abgegeben wird und
00:14:27: die Daten, die stammen vielleicht aus Hamburg, aber jetzt verwende ich die in Köln und ich
00:14:31: habe keine Wahl und das ist nirgends in Deutschland so wie in Köln und plötzlich ist halt alles
00:14:36: ganz anders und auf den Kopf gestellt.
00:14:38: Ja, total.
00:14:40: Und dann ist es halt wichtig zu verstehen, wie müssen denn diese Erklärungen gestaltet
00:14:46: werden, damit da eine gemeinsame Brücke entsteht zwischen der KI und dem Menschen, weil im
00:14:52: Endeffekt haben wir da eine Art Dialog und darum geht es in diesem ganzen Menschenzentrierten
00:14:58: Ansatz eigentlich.
00:14:59: Das heißt, es ist auch konsequenterweise wichtig sich zu fragen, wie erklären wir Menschen
00:15:06: uns dann gegenseitig eigentlich Dinge und Situationen und wie kann man das ableiten
00:15:10: und auf Expandable AI anwenden, damit wir eben zur Erklärung kommen, die Menschen auch
00:15:15: verstehen.
00:15:16: Und da gibt es viele interessante Punkte, die da aufkommen, die bereits auch in dem
00:15:24: Feld erforscht werden und zwar ist eine Erklärung am Ende des Tages eine soziale Interaktion.
00:15:29: Das heißt, wenn ich dir jetzt was erkläre, dann gebe ich mein Wissen an dich weiter
00:15:35: und es ist dieser Austausch an Wissen, der eben diese Erklärung zwischen jemandem derer
00:15:40: erklärt und jemandem der eine Erklärung empfängt, den ich da irgendwie habe und in dem Bereich,
00:15:46: mit dem ich mich jetzt auseinandergesetzt habe, ist genau dieses Verhältnis entwickelt sich
00:15:52: dann dazu, dass die KI die Rolle von dem Erklärenden übernimmt und die Entanwender,
00:15:57: die Entanwenderinnen eben die Person ist, die die Erklärung empfängt.
00:16:01: Und deswegen kann ich mir angucken, okay, wie kann ich denn diesen Dialog, der da entsteht,
00:16:05: versuchen zu gestalten, sodass eben da eine Erklärung bei rumkommt, die jemand versteht
00:16:12: und ich habe mich quasi in meiner Bachelorarbeit konkreter mit beschäftigt oder die Hypothese
00:16:17: aufgestellt, dass man das eben durch einen Userinterface schaffen kann.
00:16:21: Also durch eine visuelle Schnittstelle und ich versuche mir zu überlegen, wie kann ich
00:16:28: diese Methoden, die es gerade algorithmisch schon gibt, visuell interpretieren und in
00:16:33: einem Userinterface einbinden, damit eben diese Kommunikation entstehen kann und dieser
00:16:38: Dialog entstehen kann zwischen Mensch und KI.
00:16:40: Das klingt super spannend.
00:16:42: Kannst du da vielleicht das Beispiel, das wir in deiner Bachelorarbeit hat, das mal erklären,
00:16:49: damit das ein bisschen greifbar ist?
00:16:51: Also gerade, was du dieses Interface angeht, dass du das angesprochen hast?
00:16:55: Ja, also in meiner Bachelorarbeit ging es ja um den Use Case Nachfrageprognose.
00:17:01: Ja.
00:17:02: Ich habe dann mir, also ich bin sehr, also vom Prozess her bin ich so vorgegangen, wie
00:17:09: ich das eigentlich aus dem ganzen UI/EX-Bereich kenne, also User-Centert.
00:17:13: Ich habe den User quasi ins Zentrum gestellt und bin den sogenannten User-Centert-Design-Prozess
00:17:18: einmal durchgegangen und der beginnt eben mit User-Research.
00:17:21: Das heißt, ich habe Menschen interviewt, gefragt, wie die eigentlich, also was die eigentlich
00:17:28: erwarten, was der Anspruch an eine Erklärung ist.
00:17:30: Und im Endeffekt ist ja eine Erklärung die Antwort auf eine Frage.
00:17:37: Das heißt, ich habe mich, ich habe versucht herauszufinden, welche Fragen stellen denn
00:17:43: User oder an dieses KI-System und eben daraufhin versucht, eine Antwort zu finden.
00:17:48: Und in dem Interface ist es quasi so, dass es zuerst einen Überblick gibt, also einen
00:17:55: gesamten Überblick über den Vorkast zum Beispiel, also was über Prognosen in der Zukunft
00:18:00: und auch über historische Abverkäufe.
00:18:03: Und der gibt quasi visuell einen Überblick und wenn es Punkte gibt, die nicht verstanden
00:18:10: werden, also Tage, wo die Prognose höher ist oder niedriger ist als jetzt so eine Domain-Expertin
00:18:16: erwarten würde, dann gibt es die Möglichkeit, sich Detailinformationen anzuschauen und darüber
00:18:24: dann zu zeigen, wie kommt das eigentlich zustande.
00:18:28: Okay, um das mal für mich zusammenzufassen, ich habe ein Userinterface, das sehe ich
00:18:32: diese ganzen Prognose-Daten Tag für Tag.
00:18:35: Ich kann mir die anschauen und wenn ich jetzt als Domain-Experte so das Gefühl habe, ah,
00:18:42: also dieser Mittwoch hier, ah, der sieht mir nicht so gut aus, ich verstehe nicht, warum
00:18:48: die Prognose so hoch oder so tief ist, kann ich das irgendwie anwählen, anklicken und
00:18:52: mir eine Erklärung anzeigen lassen, wo dann drin steht, Hallo lieber User, die Prognose
00:18:58: ist heute x, y und zwar wegen x, y und z, wegen irgendwelchen Faktoren, die da dahinter
00:19:04: sind.
00:19:05: Genau.
00:19:06: Vielleicht noch nicht mal wegen den Faktoren, sondern also man kann sich ja, das bezieht
00:19:15: sich jetzt wieder ein bisschen darauf, was ich am Anfang gesagt habe, also es gibt da
00:19:18: schon eine Unterscheidung zwischen Einsicht und Vertrauen, ja, also Einsicht ist halt,
00:19:26: sagen wir mal, dass ich wirklich verstehe, dass ich mir vielleicht keine Ahnung, eine
00:19:31: mathematische Formel im Kopf habe und die ist hoffentlich so einfach, dass ich die im
00:19:37: Kopf auch berechnen kann, ja.
00:19:38: Schön, dass wir da beide lachen.
00:19:39: Ja, dass wir beide lachen, genau.
00:19:41: Ja, es ist aber, das ist ein guter Punkt, weil also sind wir mal ehrlich, die allerwenigsten
00:19:46: Zusammenhänge kriegt man wirklich sozusagen im Kopf errechnet, ja, so und deswegen muss
00:19:54: man auch sich die Frage stellen, diese ganzen explainable R-Eim-Methoden, wenn diese Modelle
00:19:59: eine gewisse Größe haben, dann ja, dann ist das mit der Interpretierbarkeit wenigstens
00:20:06: mal fraglich, ja.
00:20:08: Aber nochmal zurück, also das ist, glaube ich, an der Stelle eine wichtige Unterscheidung
00:20:14: zwischen diesen Einsicht und Vertrauen.
00:20:17: Wenn ich dir sage, also ich meine, wenn man das jetzt mal auf die menschliche Ebene bringt,
00:20:22: ja, also wir unterhalten uns, wir kennen uns jetzt schon eine Weile, wir haben, wir kennen
00:20:26: ein bisschen was voneinander, wir haben auch miteinander schon Erfahrung gemacht, zum
00:20:29: Beispiel ob wir uns gegenseitig vertrauen, wenn wir einen Termin ausmachen und so weiter
00:20:36: und der Grund, warum ich dir vertraue, in dem was du sagst, in dem was du tust, ist ja
00:20:45: meine Erfahrung mit dir.
00:20:47: So, ich verstehe nicht, wie dein Kopf funktioniert.
00:20:50: Ich verstehe nicht, wie deine Entscheidungen zustande kommen, ja, das ist mir, das ist
00:20:54: genau so eine Black Box wie so ein großes KI-Modell, aber ich habe Erfahrung mit dir
00:21:00: gemacht, ja.
00:21:01: Ich habe Beispiele gesammelt, ja.
00:21:04: Und diese Beispiele haben mir sozusagen gezeigt, hey, auf dich kann man sich verlassen, du
00:21:10: bist da, wenn wir eine Absprache getroffen haben und so weiter.
00:21:14: Und das hat bei mir Vertrauen geschafft.
00:21:17: So, und ich glaube an der Stelle ist es dann der Sprung jetzt zur KI sozusagen auch wieder
00:21:26: machbar.
00:21:27: Denn über Beispiele haben wir oder hat Alina in ihrer Arbeit eben auch versucht, die KI
00:21:34: zu erklären.
00:21:35: Genau, ich habe eben in dieser ganzen Recherche Arbeit oder in diesem User-Research-Prozess
00:21:46: herausgefunden, dass oder ich bin quasi zu dem Ergebnis gekommen, einen Beispielbasierten
00:21:52: Ansatz zu machen oder zu verfolgen und in meinem Interface für eine Prognose, die sich der
00:22:01: User dann in der Detailansicht anschauen kann, Beispiele zu geben.
00:22:04: In dem Fall sind das prototypische Beispiele von Situationen, wo es unter ähnlichen Bedingungen
00:22:12: zu einer ähnlichen Prognose kam, um eben Vertrauen in die aktuelle Prognose zu geben.
00:22:17: Und genau, das ist das, worauf Robin gerade glaube ich raus wollte, eben diese Beispiele
00:22:26: zu geben anstatt die User jetzt nur auf bestimmte Attribute von der Prognose zu lenken, weil
00:22:33: wir in unserer menschlichen Kognitionen oder Erklärungen, die wir geben, wenn wir uns
00:22:43: so einen ganzen Fall anschauen können, also so ein ganzes Beispiel, dann können wir das
00:22:47: viel holistischer bewerten und uns oder User können sich dann anschauen, okay, es gab
00:22:52: dieses Szenario, das kam zu einer bestimmten Lösung und wenn ich das vergleiche mit der
00:22:58: Prognose, die ich aktuell habe, dann kann ich sehen, okay, ich kann irgendwie dieses
00:23:02: Vertrauen erlangen, weil ich weiß unter ähnlichen Bedingungen gab es schon mal das gleiche
00:23:06: Outcome sozusagen.
00:23:07: Das finde ich super interessant, das heißt, ich sehe eine Prognose für die Zukunft, ja
00:23:13: klar, deswegen ist es ja eine Prognose und ich verstehe die nicht, ich zweifle die vielleicht
00:23:17: auch an, dann wähle ich die aus in meinem User-Interface und das System sagt mir, hey, schau mal,
00:23:23: in der Vergangenheit gab es konkrete Tage mit vergleichbaren Voraussetzungen, beispielsweise
00:23:30: es war ein Sonntag oder irgendwelche anderen Merkmale und da hatten wir dann ähnliche
00:23:37: Absatzzahlen.
00:23:38: Deswegen kann davon ausgegangen werden, dass jetzt in der Zukunft an diesem Tag die Zahlen
00:23:43: genauso sind, weil die Voraussetzungen so ähnlich sind.
00:23:46: Finde ich super spannend, da kann ich sie ja dann auch so für mich mit meiner H.I., mit
00:23:52: meiner Human Intelligence vielleicht so ein bisschen generalisieren, kann ein bisschen
00:23:55: schauen, okay, das kann ich nachvollziehen.
00:23:57: Da war ein Tag, da war irgendwie was Besonderes und deswegen war die Absatzzahl besonders
00:24:03: und wir haben in der Zukunft jetzt wieder so ein Tag.
00:24:06: Beispiele sind sozusagen die Erfahrung der K.I., ja, also die Erfahrung, die ich über
00:24:11: die Zeit, die wir jetzt zusammen hier bei InnoVex verbracht haben, gemacht habe, das
00:24:17: kann man im Prinzip übersetzen mit den Beispielen, die die K.I. in der Vergangenheit gesehen hat,
00:24:22: ja, also die irgendwo in den Daten enthalten sind.
00:24:25: Ich habe noch eine Ergänzung.
00:24:27: Ja, gerne.
00:24:28: Und zwar zu diesen Beispielen aus der Vergangenheit kann man eben auch noch als Informationen
00:24:33: mitgeben an den User, wie hat denn zu diesem Zeitpunkt das Modell prognostiziert?
00:24:38: Oh ja.
00:24:39: Und dann eben, wir wollen ja nicht, dass User blind einfach dem System vertrauen, sondern
00:24:45: möglichst eine realistische Einschätzung abgeben können, wie das Modell funktioniert.
00:24:49: Und indem wir eben diese Informationen mitgeben, schaffen wir eben genau das.
00:24:56: Also wir sagen dann, okay, es gab dieses Outcome damals, an diesem Tag, was ähnlich ist zu
00:25:02: der Situation, die ich mir jetzt gerade anschaue und ich kann zusätzlich sehen, wie hat denn
00:25:06: das System zu dem Zeitpunkt prognostiziert?
00:25:09: Das war zum Beispiel in den User-Tests, die ich quasi gemacht habe, um mein Interface
00:25:16: zu evaluieren, total wichtiger Punkt, wo die Personen, die ich interviewt habe, gesagt
00:25:22: haben, das ist ein wichtiger Punkt, warum ich diesem System vertrauen würde oder auch
00:25:26: eben nicht.
00:25:27: Ja, klar, das ist auf jeden Fall interessant, weil wenn ich mir auch anschauen kann, okay,
00:25:34: ich hatte so eine Situation, ich hatte real diese Absatzzahl und das Modell hat mir damals
00:25:40: was prognostiziert, was ziemlich nah dran lag, dann könnte ich mir schon vorstellen, dass
00:25:45: mein Vertrauen schon steigert in die Prognose für die Zukunft und mir auch das Gefühl
00:25:50: gibt, dass ich das verstehe.
00:25:52: Ich könnte mir vorstellen, wir haben ja sicherlich unterschiedliche Zielgruppen für solche Systeme,
00:25:58: wir haben so vielleicht die klassischen End-User, die bei irgendeiner App oder bei irgendeiner
00:26:03: Anwendung mit KI-Technologie sowas haben, fallen mir auch Beispiele ein, keine Ahnung, wenn
00:26:10: ich jetzt zum Beispiel so eine Sport-App hätte, wo mir jetzt so ein KI-Training-Plan zusammenstellt.
00:26:15: Also ich mache Triathlon und es ist ganz kompliziert, da muss man ganz viele unterschiedliche Sachen
00:26:19: machen und muss immer aufpassen, dass man nicht zu viel macht, weil man sonst irgendwie
00:26:22: krank wird oder sich verletzt.
00:26:24: Und da kannst du natürlich entweder einen richtigen Trainer haben, also ein Mensch, der sich das
00:26:28: anschaut und dir das dann schön mit Axel irgendwie durchplant oder du könntest natürlich
00:26:32: jetzt auch so eine KI-App haben mit so einem KI-Trainer, die dann jeden Tag sagt, okay,
00:26:37: heute musst du Folgendes tun oder sollst du Folgendes tun oder vielleicht besser solltest
00:26:41: du Folgendes nicht tun.
00:26:43: Und dann würde ich vielleicht auch sagen, hey, was heute soll ich ganz wenig nur machen,
00:26:48: warum denn?
00:26:49: Und wenn wir so eine App sagen, hey, schau mal, aus den Gründen empfehle ich dir das,
00:26:53: weil du hast die letzten Tage ganz viel gemacht und schau mal in der Vergangenheit, letzten
00:26:59: Monat war es vielleicht ähnlich und dann hast du dich nicht dran gehalten und war es
00:27:03: dann krank oder so.
00:27:04: Aber das würde ich mir auch helfen, sowas nachzuvollziehen und vielleicht auch mehr
00:27:08: Vertrauen zu schenken.
00:27:09: Also, wer so eine Sache, die mir eingefallen ist, wenn ihr da eine Empfehlung habt, dann
00:27:15: sagt mir das bitte.
00:27:16: So eine KI-App?
00:27:17: Ja, genau.
00:27:18: So eine KI-Training-App.
00:27:19: Also wenn du da deine Masterarbeit schreiben möchtest, wer ich gerne probant.
00:27:26: Ich musste gerade an was anderes denken, weil das Thema von deiner Bachelorarbeit, das
00:27:31: war ja so eine Prognose und das ist ja eher so der Business-Context, dass ich jetzt in
00:27:35: einer Fachabteilung sowas habe, um jetzt Prognosen für irgendeinem Business halt irgendwie zu
00:27:41: machen.
00:27:42: Und da glaube ich, dass das schon ganz schön wichtig ist, wenn ich jetzt in der Abteilung
00:27:49: arbeite mit dem System, dass ich jetzt ohne eine große Feedback schleife die Frage beantworten
00:27:55: kann, ob ich der Prognose trauen kann oder nicht.
00:27:57: Weil wenn ich jetzt anrufen muss, erstmal bei dir in der Entwicklung oder bei dir Robin
00:28:02: in der Entwicklung nachfragen muss, so Hallo Herr Sänge, also hier ist eine 28 als Prognose,
00:28:07: ich hätte gesagt, es könnte maximal eine 13 sein, können Sie mal bitte danach schauen,
00:28:11: dann kannst du es wahrscheinlich als KI-Experte, kannst du sich da reinwühlen, kannst du das
00:28:16: genau anschauen, nachstellen, nachrechnen und mir dann sagen, ja stimmt, aber das dauert
00:28:21: ihr ewig.
00:28:22: Ja, tatsächlich ist Skalierbarkeit.
00:28:25: Also Skalierbarkeit von Service im Prinzip an der Stelle auch ein wichtiger Punkt.
00:28:36: Also diesen Fall den du beschrieben hast, dass genau die Fachabteilung zum KI-Team
00:28:42: kommt sozusagen und sagt, hey das kann hier ja gar nicht sein oder kannst du mir das mal
00:28:48: erklären.
00:28:49: Das ist ein sehr häufiger Fall.
00:28:51: Und das hat, ich will nicht vorgreifen, aber hat Alina tatsächlich auch in den User-Interviews
00:28:57: herausgefunden und habe auch ich selber in meinen Projekten so miterlebt, dass das
00:29:04: eine häufige Aufgabe von so einem Entwicklerteam dann ist.
00:29:09: Und dann müssen da zum Teil auch Ressourcen für freigehalten werden, einfach nur für
00:29:14: diese Anfragen, um diese Anfragen zu beantworten.
00:29:16: Es ist natürlich schon eine große Hilfe für so ein Entwicklerteam, wenn die User, also
00:29:24: wenn das Entwicklerteam sozusagen erst mal nur in zweiter oder dritter Reihe steht.
00:29:28: Und jetzt ist es natürlich innerhalb von so einer Firma häufig nicht so, dass man da
00:29:32: First Second Third Level Support hat, sondern dann wird halt der Wolfgang von nebenan angerufen.
00:29:37: Und deswegen ist so ein User-Interview super hilfreich, um solche Anfragen schon mal vorzuqueren.
00:29:46: Und dann wird halt sozusagen nur noch das, was überbleibt.
00:29:49: Also wenn jetzt dann wirklich nochmal irgendwie die eine oder andere Frage nicht klärbar
00:29:55: ist über das System, dann ist es so, dass man dann auch so eine Frage überlegt, und
00:30:00: dann wird es dann auch so, dass man dann auch so eine Frage überlegt, und dann wird es
00:30:06: dann auch so, dass man dann auch so eine Frage überlegt, und dann wird es dann auch so,
00:30:10: dass man dann auch so eine Frage überlegt, und dann wird es dann auch so, dass man dann
00:30:15: nicht klärbar ist über das User-Interface, dann erst an die Entwickler gerichtet.
00:30:20: Ich muss gerade, als du das so gesagt hast, ich muss ein bisschen so an meine Vergangenheit
00:30:25: denken, also an meine Vergangenheit als Software-Entwickler.
00:30:28: Da war es ja auch so, wenn du eine Software hast, kann irgendwas schiefgehen.
00:30:33: Und das Erste, was passiert, wenn was schiefgeht, es knallt irgendwo, und du hast im besten
00:30:38: Fall in deiner Lock-Datei eine kryptische Fehlermeldung.
00:30:42: Und als User bekommst du eine abstrakte Fehlermeldung.
00:30:46: Alles kaputt, SOS.
00:30:48: Und dann rufst du an, jetzt sind du bei den Entwicklern im Entwicklungsteam, und dann
00:30:52: schaut man sich es an, und dann wühlt man sich durch im Lock-Datei und merkt, datainame
00:30:58: hat ein ungültiges Zeichen enthalten, umlaut, ganz, ganz schlimm.
00:31:01: Und dann ruft man wieder zurück und sagt, ja, versuchen Sie es nochmal abzuspeichern,
00:31:07: versuchen Sie es aber bitte ohne umlaut, dann müsste das eigentlich funktionieren.
00:31:11: Okay, wenn ich mir das die Mühe mache, die häufigsten Fehlermeldungen vielleicht in
00:31:15: eine lesbare Form zu bringen, das bei dem Abspeichern angezeigt wird, hey, hallo lieber User,
00:31:21: du hast gerade was komplett Verrücktes versucht, du hast einen umlaut verwendet, bitte probierst
00:31:25: mal ohne und maximal acht Zeichen für den Dateinamen, dann müsst du das funktionieren.
00:31:31: Dann habe ich ja auch den End-User enabled, einfach das selbst zu tun.
00:31:35: Und vielleicht muss man sich am Anfang mal ein bisschen dran gewöhnen, aber dann ist
00:31:39: das doch auch ein Gefühl der Stärke.
00:31:40: Wenn ich als End-User weiß, hey, klar, es kann irgendwas schiefgehen, dann brauche ich
00:31:45: die Profis, die das gebaut haben, aber ich bin enabled, ich kann mit dem System zu 100
00:31:49: Prozent umgehen, denn dadurch, dass ich jetzt auch so eine Möglichkeit habe, Fehler zu
00:31:54: verstehen oder Unglalheiten zu verstehen, kann ich auf einmal ja viel, viel mehr.
00:31:58: Und ich muss nicht dieses Anführungszeichen fachkinesisch irgendwie drauf haben oder
00:32:04: noch vielleicht ein Informatikstudium irgendwie absolviert haben, um mit so einem System zu
00:32:08: arbeiten.
00:32:09: Und das ist ja bei KI-Systemen noch viel schlimmer als bei so normal Systemen oder Standard-Software-Systemen,
00:32:17: die jetzt keine KI-Module oder so beinhalten.
00:32:19: Also in der Regel, wenn ich mit Software interagiere und die keinen Fehler meldet, dann bin ich
00:32:28: mir eigentlich erstmal relativ sicher, dass sie tut, was sie soll.
00:32:31: Ja, so.
00:32:32: Telefonkurs.
00:32:34: ist natürlich auch nicht immer der Fall, aber erst mal ist man dazuversichtlich. Bei KI-Systemen
00:32:39: ist es insofern noch mal ein bisschen schwieriger, weil diese Prognosen, die sind ja nicht hart
00:32:46: verifizierbar. Also da kann auch jetzt das Software-System, sagt jetzt nicht, okay, ich
00:32:53: konnte diese, also in der Regel jedenfalls, ich konnte diese Prognose nicht mit gutem
00:32:59: Gewissen machen, sondern es wird halt eine Prognose gemacht. Und die Bewertung, ob das
00:33:05: jetzt ein Fehler ist, wie groß der ist, ob der nützlich, ob diese Prognose noch nützlich
00:33:09: ist und so weiter, das läuft alles ohne Fehlermeldung ab, so zu sagen. Und das ist, glaube ich,
00:33:17: auch einer der wesentlichen Punkte, warum jetzt so ein User von so einer Software eben
00:33:27: überhaupt sich die Frage stellt, kann ich dem System vertrauen. Weil sozusagen diese,
00:33:35: die Fehler in Anführungszeichen oder die Genauigkeit dieses Systems erst mal nicht sofort klar
00:33:42: ist. Und mit diesem Ansatz, Beispiel aus der Vergangenheit herauszusuchen, zu zeigen,
00:33:50: schau mal User, diese Prognose, die da gemacht wurde, die ist nicht völlig abwegig. In der
00:33:55: Vergangenheit wurden an ähnlichen Tagen ähnliche Absätze erzielt oder die vergangenen Prognosen
00:34:03: waren nicht weit weg von dem, was dann tatsächlich passiert ist. Das sind dann eben so Indikatoren
00:34:09: dafür, dass dieses System eben jetzt nicht völlig wild in der Gegend rumschießt. Wenn
00:34:15: ich jetzt die These aufstelle, dass durch so ein User-Centric-Explainable-AI-Ansatz
00:34:21: vor allem das passiert, du hast auf der einen Seite ein KI-System, das irgendwas tut. In
00:34:28: dem Use-Case von dir, Alina, ist uns Prognosen. Auf der anderen Seite habe ich aber auch Menschen
00:34:33: mit Fachexpertise die das nutzen. Und diese Menschen könnten das vielleicht auch auf Basis
00:34:37: ihrer Erfahrung in einer gewissen Qualität machen. Es ist dann nicht so, dass beide Systeme
00:34:42: auch enorm voneinander profitieren, wenn ich beide so auf Augenhöhe irgendwie bringe.
00:34:48: Also ich verstehe die Prognose, ich verstehe durch die Erklärung ja auch, wie die entstandene
00:34:54: sind. Ich kann die nachvollziehen und ich vertraue der, dass es erstmal gut. Aber dadurch habe
00:34:59: ich auch die Möglichkeit, vielleicht auch ganz zielgerichtet zu sagen, okay, ich verstehe
00:35:03: deine Erklärung, aber nee, das stimmt nicht. Weil es Infaktor gibt, den du nicht kennst,
00:35:07: liebes KI-System. Und ich bleibe da sehr, sehr gerne beim Beispiel vom Karneval in Köln,
00:35:12: weil Robin, wir haben uns da glaube ich auch mal unterhalten, dass bei allen Prognosen
00:35:16: und allen Sachen in Köln das nie funktioniert, wenn der Karneval ist, weil das so eine Singularität
00:35:22: ist, die man einfach nicht auf dem Schirm hat. Also könnte doch eigentlich dann dadurch
00:35:27: auch so ein KI-System enorm profitieren, weil ich mit meinem Fachwissen sehr genau sagen
00:35:32: kann, okay, hier passt was nicht, hier muss man nochmal in die Daten reingehen, hier braucht
00:35:36: man vielleicht nochmal irgendwie harte Regel oder irgendwas, was sonst nicht so einfach
00:35:41: wäre, wenn ich diesen Zuwärm ich hätte durch dieses User-Centric-Explanable AI.
00:35:48: Interface.
00:35:49: Interface, okay.
00:35:50: Ja, wichtiger Punkt und auch spannender Ausblick eigentlich, weil es natürlich auch Sinn machen
00:35:56: würde, wenn ich als User Feedback gebe und wir dann wirklich in diesen Dialog kommen
00:36:01: und dass man mit diesem Feedback, dass die Qualität von den Erklärungen verbessert und
00:36:06: gleichzeitig eben dieser ganze Ansatz, das Menschenzentriert zu denken, ja nie das Ergebnis
00:36:14: haben soll, Menschen zu ersetzen, sondern wir wollen eigentlich Menschen dabei unterstützen,
00:36:20: noch bessere Entscheidungen zu treffen auf einer viel größeren Datenbasis, die wir ja
00:36:25: gar nicht mehr überblicken können. Das kann ein DKI für uns übernehmen sozusagen. Und
00:36:31: was dabei noch ein ganz wichtiger Punkt ist, bei diesem ganzen Interface, da würde ich noch
00:36:36: gerne darauf eingehen, ist das Bedürfnis nach Kontrolle, was User haben. Gerade wenn sie
00:36:42: eine sehr hohe Domain-Expertise haben und im Zweifel denken, das passt nicht, wie das
00:36:47: gerade prognostiziert wird, ich möchte das gerne überschreiben. Das heißt, ich weiß
00:36:51: es eigentlich besser sozusagen und ich brauche eine Möglichkeit, das zu überschreiben, dass
00:36:57: ein sehr wichtiger Feature-Request, wie sich herausgestellt hat. Und deswegen habe ich
00:37:04: den Ansatz verfolgt, nicht nur einen Interface zu haben, was das ganze visuell abbildet,
00:37:10: sondern was auch interaktiv ist. Das heißt, wir haben quasi einen Simulations-View angeschlossen,
00:37:18: wenn man so möchte, wo User eben selber interagieren können. Das heißt, zum einen
00:37:25: Feature-Werte anpassen. Also ich kann zum Beispiel die Situation verändern. Ich kann
00:37:29: jetzt sagen, ich möchte verstehen, was passiert denn, wenn ich nicht die Prognosen für einen
00:37:35: Montag sehen möchte, sondern für einen Freitag oder wenn ich was am Preis drehe. Also zu zeigen,
00:37:40: wie verändert sich das Ergebnis, wenn ich die Situation veränder oder auch umgekehrt,
00:37:44: wie kann ich vielleicht, wenn ich ein bestimmtes Absatzziel erreichen will, das verändern
00:37:51: durch quasi interaktive Elemente, wie einen Slider zum Beispiel. Und dann gibt mir das
00:37:59: Modell Antworten auch wieder in Form von Beispielen, wie ich dahin kommen kann. Das heißt, diese
00:38:04: ganze Komponente, das explorativ zu machen und den User eigentlich die Möglichkeit zu geben,
00:38:09: selber zu erforschen, wie das Ganze funktioniert, führt eben auch dazu, dass es besser verstanden
00:38:13: wird und perspektivisch auch das Vertrauen stärkt. Das geht auch dann aber ganz stark in die Richtung,
00:38:20: dass die KI ein sehr, sehr leistungsfähiges Werkzeug für uns ist und jetzt nicht uns ersetzt,
00:38:27: weil viele haben ja irgendwie diese Angst, dass ganz viele Jobs ersetzt werden durch die KI,
00:38:32: dass die alles automatisiert macht, was heute wir Menschen machen. Ich selbst sehe das nicht so,
00:38:36: aber ich finde so was ist einfach ja so ein ganz leistungsschlagiges Werkzeug. Also wie
00:38:42: zum Science Fiction Film. Ich meine, in Science Fiction gibt es zwei Arten von KI, oder? Die eine
00:38:47: Art versucht uns umzubringen und die andere Art ist so unser Diener irgendwo. Also wie jetzt in
00:38:52: Star Trek, da hast du irgendwie die KI, der kannst du auch sprechen und kannst du sagen, hey, komm,
00:38:56: ich gut da, analysier mir mal was und der analysiert was und sagt, hey, so sieht es aus. Und dann
00:39:01: kann ich sagen, okay, aber jetzt versuch doch mal, Parameter XY anzupassen und mach mal das und
00:39:07: mach mal das. Ist dann eher so eine Art Sparing Partner für den Menschen. Der Mensch hat die
00:39:11: Expertise, aber er kann nicht alles durchrechnen, außer Data, aber Data ist kein Mensch, okay,
00:39:15: das ist ein Sonderfall. Aber der Mensch hat großen Überblick, hat das Big Picture im Kopf und für
00:39:21: einzelne Sachen hat er dann eine KI, die einfach viel leistungsfähig ist, wo dann mal Millionen und
00:39:27: Milliarden von Datensätzen durchrechnet und irgendwas tut, was der Mensch einfach ja zeitlich
00:39:32: nicht leisten kann. Aber am Ende ist es doch der Mensch, der dann das bewertet, vielleicht auch
00:39:37: überschreibt, was du gesagt hast und sich diesem Werkzeug bedient, um einfach dadurch mehr schaffen
00:39:42: zu können. Das Tolle an dem Ergebnis Alinas Bachelorarbeit an dieser UI ist tatsächlich,
00:39:50: dass damit auch ganz viele angrenzende Use Cases möglich sind. Also du hast es tatsächlich ganz am
00:39:58: Anfang schon gesagt, Preisgestaltung zum Beispiel, diesen Simulationsmodus, den Alina da in ihrer
00:40:07: UI untergebracht hat. Damit interagiert man ja quasi mit dem Modell. Und was bildet das Modell ab?
00:40:14: Das bildet die Nachfrage ab. Zum Beispiel der Milch von Wein, Stefan oder der Jaharmilch oder wie viele,
00:40:23: du bist auch ganz viele andere. Wie viele muss ich jetzt noch nennen, damit das noch... Es gibt auch
00:40:30: mal ganz viele, aber wissen Sie nicht von den öffentlich rechtlichen? Nein, wir dürfen Werbung machen.
00:40:34: Was macht das Modell? Das bildet sozusagen die Nachfrage Funktion ab, wenn man so will.
00:40:42: Gegeben den Kriterien, die jetzt, oder diese Situation, von der wir eben gesprochen haben,
00:40:49: ja, es ist also irgendwie Mittwoch, es ist im Sommer, der Preis ist 1,29 Euro zum Beispiel. Und mit der Hilfe
00:40:58: dieser, mit der Hilfe dieses Simulations-Views kann man jetzt quasi versuchen einen besseren
00:41:06: Preis zu finden, der eine bestimmte Nachfrage herleitet, so zu sagen. Also was passiert, wenn ich jetzt
00:41:15: 1,19 statt 1,29 machen? Mit wie viel mehr Absatz in Stück rechne ich dann? Das heißt also,
00:41:26: solche Use-Cases wie Pricing oder auch Dynamic Pricing, je nachdem, in welchem, sozusagen zeitlichen
00:41:34: Horizont man sich das anguckt, sind dann plötzlich super nah dran und kann der User dann wirklich,
00:41:40: wie Alina sagt, explorativ erfahren. Spannender Use-Case ist auch, wenn wir darüber sprechen,
00:41:48: was so frische Produkte angeht. Also wir haben Salat, Paprika, Tomaten, die haben ja alle
00:41:56: ein bestimmtes Halbbarkeitsdatum, irgendwann verfaunen die mir weg. Und jetzt kann es ja sein,
00:42:01: dass ich als Händler oder als Händlerin noch einen gewissen Bestand habe und ich weiß nicht,
00:42:08: wie ich den am besten loskriege. Das heißt, ich könnte jetzt in diesem View auch den Zielabsetzwert
00:42:15: angeben. Und auf Basis der bisherigen Erfahrungen gibt das Modell mir Beispiele, wie ich dahin komme,
00:42:24: dass ich diesen Absatz erreiche. Das nennt man dann Counter Factory Example, sozusagen. Also Beispiele
00:42:31: die Counter to the Fact sind. Also ich hab quasi das Absatz Ziel verändert und für diese Veränderungen
00:42:39: bekomme ich jetzt Beispiele angezeigt mit Situationen, die mich dahin fühlen. Zum Beispiel, indem ich den
00:42:45: Preis senke. Zum Beispiel, indem ich eine Rabattaktion schalte, wenn ich das noch so kurzfristig machen
00:42:51: kann. Handlungsempfehlungen gebe. Und dadurch kann man auch so ein Thema wie Lebensmittelverschwendung
00:42:58: am Ende des Tages ja zumindest mal angreifen, weil ich die Möglichkeit habe, das zu verändern und
00:43:04: quasi auf den Bedarf, den ich jetzt gerade habe einzugehen. Das ist spannend. Wenn ich jetzt weiß,
00:43:09: ist mein Supermarkt Samstag es ist geöffnet, Sonntag ist Ruhetag und ich dann weiß, ich hab jetzt
00:43:15: Donnerstag noch ganz viel Obst oder Gemüse im Lager und ich weiß, dass es nicht mehr so super
00:43:20: lang haltbar und ich kann es wahrscheinlich Montag nicht mehr verkaufen, weil es dann drüber ist.
00:43:24: Könnte ich mir dann überlegen, was für ein Preis das vielleicht am Freitag an und was sich am
00:43:28: Samstag für den Preis an. Ich könnte mit dem Modell aber auch schauen, wenn das jetzt so günstig
00:43:32: ist, kann ich dann am Montag wieder den vollen Preis verlangen oder denken dann vielleicht meine
00:43:35: Kunden oder kaufen die dann vielleicht eher weniger, weil sie wissen, okay, Montags kostet der Salat
00:43:40: immer irgendwie 2,50 Euro und Totonnasag kostet nur 1,50 Euro, dann essen wir lieber am Wochenende
00:43:45: Salat und anfangen der Woche vielleicht Kartoffeln, weil die günstiger sind. Also,
00:43:48: könnte ich sowas dann auch simulieren, solche Effekte? Kann man simulieren, genau. Ich meine,
00:43:54: es ist ja nicht so, dass diese Systeme, das es die nicht schon gibt, die großen Einzelhändler
00:44:00: in Deutschland, die haben für diese Use-Case-Systeme. Häufig ist es tatsächlich so, dass diese Systeme
00:44:05: gar nicht so viel voneinander wissen, was man eigentlich nicht erwarten würde. Man würde ja
00:44:10: eigentlich sagen, okay, naja, also es gibt da so eine Nachfragefunktion, die habe ich gelernt aus
00:44:14: der Historie und ich habe jetzt, das ist mein eines Modell, was sozusagen auch dann unterschiedliche
00:44:22: Use-Cases bedienen kann. Das Schöne ist einfach an dieser, an dieser UIUX von Alina, dass man,
00:44:29: dass man da so viele Use-Cases im Prinzip mit erschlagen kann, wenn man so will. Es ist natürlich
00:44:34: so, dass da dann, dass das natürlich auch eine Skalierungsfrage ist. Also natürlich will man
00:44:41: nicht jedes einzelne Obst, jedes einzelne Gemüse sozusagen händisch dann mit einem neuen Preis
00:44:47: belegen. Das macht natürlich auch keinen Sinn. Also das Use, also das User-Interface ist schon so
00:44:56: angelegt, dass man sich bestimmte Beispiele rauspickt, die man jetzt irgendwie, es geht ja immer am
00:45:04: Ende noch um die Erklärung. Aber potentiell ist das möglich. An der Stelle vielleicht auch noch mal
00:45:10: vielleicht ein anderes Beispiel, wo vielleicht die Zuhörer ein bisschen näher dran sind, weil das
00:45:17: ja jetzt schon irgendwie erstmal so ein Enterprise-Händler-Beispiel ist. Ich habe noch nicht versucht,
00:45:24: meinen VW-Bus zu verkaufen. Auf einer Plattform kann ich auch sagen, mobile, mobile ist ja auch Kunde
00:45:32: von uns. Bei mobile gibt es diese Preisempfehlung. Und da habe ich im Prinzip genau das gemacht,
00:45:44: was Alina eben beschrieben hat. Ich habe versucht, meine Feature zu tunen, sodass diese
00:45:50: Preisempfehlung von mobile für mein Auto eine möglichst guten Preis rausgespuckt hat. Also
00:45:55: da könnte man dann, kann man ja alle möglichen Dinge eingeben. Ich meine so ein paar Sachen,
00:45:59: kann man natürlich nicht verändern, die habe ich natürlich auch wahrheitsgemäß angegeben. Aber
00:46:03: manche Dinge, bei manchen Dingen konnte man schon noch sagen wir mal, hatte man Spielraum. Also
00:46:09: zum Beispiel, ob mein Fahrzeug neuen TÜV und AU hat als Beispiel. Und jetzt muss man sich natürlich
00:46:17: die Frage stellen, macht es Sinn, dass ich bevor ich mein Auto verkaufe, noch TÜV machen lasse. Also
00:46:24: steigert das sozusagen meinen empfohlenen Preis in diesem mobile Modell von Preisen so viel,
00:46:32: dass ich das für mich lohnt. Weil keine Ahnung für ein TÜV zahle ich vielleicht, also mit
00:46:37: Inspektion vielleicht, keine Ahnung, 1000 Euro oder so. Und wenn mir dann, wenn denn die Preisempfehlung
00:46:43: aber 2000 Euro höher ist, dann ist das für mich gut. Dann würde ich das machen. Deswegen ist das
00:46:49: genau das, was man dann ausprobieren kann. Also welches Feature sozusagen, kann ich meinem
00:46:54: Auto jetzt noch geben, vielleicht noch ein Satz Winterreifen oder so, sodass ich das dann für
00:47:01: mich auch lohnt. Und das ist im Prinzip so ein Spiel mit diesem Preismodell in dem Beispiel. Und
00:47:08: ich habe sozusagen dann, ja, wenigstens indirekt ein Gefühl dafür entwickelt, okay, was sind denn
00:47:15: diese einzelnen Dinge, was geben die mir an zusätzlichem Verkaufswert sozusagen für mein Auto.
00:47:23: Und das könnte man natürlich jetzt auch übertragen auf so einen Enderpreisfall, dass wenn ich jetzt
00:47:28: hier tätig bin bei einer Absatzprognose, dass ich dann jetzt natürlich nicht mit jedem OBS,
00:47:35: jede Woche experimentiere, was der perfekte Preis ist, aber ich könnte regelmäßig mir mal
00:47:40: verschiedene Produktgruppen anschauen und herausfinden, wo gibt es vielleicht hier noch
00:47:45: Optimierungsspielraum oder habe ich spezielle Use Cases, die ich mir mal anschauen möchte.
00:47:50: Das ist schon natürlich spannend. Und das würde natürlich auch mir dann als Fachexperten helfen,
00:47:57: so was autark durchführen zu können, ohne dass ich jetzt mir die Leute aus der KI-Abteilung
00:48:02: brauche, die natürlich nie Zeit haben, weil alle Unternehmen haben ganz viele coole KI-Projekte
00:48:08: und da hat niemand mal kurz Zeit um mir das mal kurz durchzurechnen mit so einem Juppie der
00:48:13: Nordbogger, das war. Vor allem will man das ja vielleicht auch gar nicht. Also du willst vielleicht
00:48:17: auch einfach selber es einfach kurz checken und dann gar nicht auf Hilfe angewiesen sein.
00:48:23: Trotzdem sieht man gleichzeitig, dass eben dieser Bedarf nach Erklärungen da ist, weil sonst würden
00:48:31: ja die Personen nicht die KI-Experten befragen und eben auf die Expertise vertrauen, dass die
00:48:41: Erklärung von Mensch zu Mensch gut ist, sondern das eben versuchen auf so einen Interface zu beziehen
00:48:47: und das alles abzufangen. Ja klar, ich meine am Ende kommt es ja wahrscheinlich auf das an, was wir
00:48:52: jetzt auch schon das eine oder andere mal angesprochen haben. Ich möchte Vertrauen haben zu diesem Tool,
00:48:58: das ich nutze und ich möchte aber auch das Verständnis dafür haben und ich glaube,
00:49:01: das bedingt sich gegenseitig. Also blindes Vertrauen finde ich schwierig, habe ich selten,
00:49:07: bin ich ehrlich. Und wenn ich richtig viel vertrauen, also natürlich nicht in Menschen,
00:49:14: das was anderes, aber in Systeme habe, dann brauche ich auch immer ein Verständnis dafür. Also ich
00:49:19: muss wissen für mich persönlich, wie funktioniert was und das muss es nicht auf dieser ganz krassen
00:49:24: technischen Ebene sein, wie jetzt bei so einem KI-System, wo vielleicht ja nicht nur eine Person
00:49:29: daran arbeitet in der Entwicklung oder vielleicht ein ganzes Team daran arbeitet, mit hoch spezialisierten
00:49:34: Leuten. So genau muss ich es ja gar nicht wissen, aber so grundlegend muss ich es wissen. So grundlegend,
00:49:39: warum kommt da jetzt X raus und ja, ich glaube, das hilft mir einfach beim Alltag und wenn ich
00:49:45: das vertrauen habe, dann ist das ja auch gut, weil da muss ich es nicht nochmal überprüfen. Das
00:49:50: schlimmste ist ja, wenn Leute vielleicht so ein System haben und sagen okay, aber ich überprüfe
00:49:54: das nochmal. Ich rechne das nochmal ganz kurz durch. Ich check das nochmal, damit ich auch 100%
00:49:59: sicher bin, weil dann erzeugt es ja am Ende nur mehr Arbeit. Ja und das ist natürlich die große
00:50:05: Preisfrage, wie wir denn da hinkommen, dass eben KI Produkte das täckeln sozusagen und was ich
00:50:15: total wichtig finde, ist diese Kombination oder diese Kollaboration aus Menschen, die damit mit
00:50:24: entwickeln. Also zum Beispiel, wir haben die KI-Expert*innen, die das Modell entwickeln und dann
00:50:30: aber auch die UI/UX Perspektive dazu zu nehmen, um eben auch am Ende des Tages die Nutzer*innen in
00:50:38: diesen Prozess einzubeziehen, damit wir überhaupt mal verstehen, für wen wir das eigentlich,
00:50:42: was stellen die sich für Fragen, was haben die sich für Antworten und welche, was können wir
00:50:47: daraus für unseren Prozess ableiten. Das heißt, wir sollten uns eigentlich erst mal fragen,
00:50:52: was soll erklärt werden, was haben User für Fragen und wie können wir das machen,
00:50:57: wie kann das dann aussehen und weil jeder Use Case so individuell ist, braucht es auch eine
00:51:03: individuelle Lösung, damit wir eben etwas entwickeln, was auch gerne genutzt wird,
00:51:10: was Akzeptanz erzeugt, weil wenn wir keine Nutzerakzeptanz haben für einen Produkt,
00:51:14: dann wird es ja nicht genutzt werden und dann haben wir am Ende des Tages ein Produkt,
00:51:20: der entwickelt, was niemand braucht oder niemand benutzen möchte. Sehen wir dann jetzt heute an
00:51:24: dem Punkt, wo wir solche KI Anwendungen nicht mehr im luftleeren Raum entwickeln können,
00:51:29: um zu schauen, was geht, sondern sind wir jetzt vielleicht, was so KI getriebene Anwendungen
00:51:35: angeht, ans vorigen Punkt angekommen, wo wir jetzt wirklich so eine ganzheitliche Betrachtung
00:51:43: brauchen, wo wir es KI-Leute brauchen, wo wir jetzt aber auch UI-Leute brauchen, genauso wie wir das auch
00:51:48: schon irgendwann mal in der traditionellen Software entwickeln erreicht haben, weil da war es ja
00:51:52: anfangs auch anders. Also als ich angefangen habe mit Softwareentwicklung, kurz nach Einführung des
00:51:58: Euros, ich habe gerade darüber nachgedacht, wie diese alte Währung hieß, demalch. Aber Spaß
00:52:06: beiseite, da war es ja auch so, da ging es um die Technik, da ging es um die Logik, da ging es, wenn man
00:52:10: übers Business gesprochen hat, ging es um die Business-Logik, die man implementiert hat, wo man
00:52:15: sich überlegt hat, okay, wir sehen irgendwelche Formeln aus, wie ist die Fachlichkeit, das implementieren
00:52:20: wir dann und ja, die User, die kriegen das schon irgendwie hin und ich habe Sachen erlebt, ich habe
00:52:28: eine Geschichte, die sich ganz prägend im Kopf habe, das war ein Redaktionssystem für ein großes
00:52:33: Medienhaus, an dem ich mitgearbeitet habe vor vielen, vielen Jahren und die Chefredakteurin damals,
00:52:39: die hat sich an uns gewendet in der Entwicklung, hat gesagt, ja, sie hat da so ein Problem, was ist
00:52:43: los? Ja, sie muss für dieses Redaktionssystem fürs Wochenende immer so auf Vorrat zum Partieser
00:52:49: einstellen, die da auf seiner Website ausgespielt werden und das ist aber so viel Arbeit, weil sie
00:52:53: braucht für jeden von diesen Teesern irgendwie, sie muss sie sieben, acht Mal irgendwo klicken und
00:52:57: so Arbeitsschritte, ob man das nicht vereinfachen kann und da haben wir uns das angeschaut und wir
00:53:00: konnten es mega vereinfachen, dass man so einmal klickt, so klickt, klickt, klickt, so drackend,
00:53:04: drackend, drackend, drackend, voll gut, aber die Ursprungsversion, die war halt sehr technisch,
00:53:09: also das war sehr technisch, so kassiert, Menü, man hat es hier rein und hier, hat alles funktioniert,
00:53:13: war aber super viel Arbeit, war unintuitiv und hat niemand Spaß gemacht, das war einfach eine
00:53:17: Strafarbeit und die blieb halt immer in dieser Chefredakteurin hängen und heute kenne ich so eine
00:53:23: Art von Softwareentwicklung zum Glück gar nicht mehr, sondern also die letzten Jahre waren jedem
00:53:29: Projekt, nämlich tätig war, war irgendjemand aus dem Bereich UX Design und man hat sie zusammen
00:53:34: gesetzt, so hat man einen coolen Workshop gemacht und hat auch dann so Kunden echt gut abgeholt und
00:53:39: das ist cool, macht super viel Spaß und ich glaube die Software die wir heute entwickeln ist viel
00:53:44: besser wie die Software die wir vor zehn Jahren entwickelt haben, man spart glaube ich auch viel
00:53:49: Geld und Zeit, weil man jetzt nicht mit irgendwas entwickelt, was später niemand benutzen kann
00:53:54: und ich habe es viel erzählt, aber ich habe den Eindruck, dass es bei KI jetzt langsam genauso ist,
00:53:59: am Anfang ging es voll um Machbarkeit, am Anfang ging es um die Jupyter Notebooks, da ging es darum,
00:54:03: dass man als Data Scientist explorativ zeigt, was man hier alles machen kann und am Schluss kommt ein
00:54:09: cooler Graph raus und das war auch beeindruckend, weil es was Neues war, aber kommen wir heute
00:54:16: an so einen Punkt, wo wir sagen okay wir haben so die Basics jetzt alle in der Tasche, wir wissen
00:54:20: jetzt bis geht es gibt immer noch neue coolen Entwicklungen, aber wir machen das jetzt auch mit
00:54:25: UI und UX Design gemeinsam. Das war eine sehr lange Frage, ich würde mal ja sagen.
00:54:31: Ja nein, also es ist tatsächlich so, ich glaube ich selber war ja auch viele Jahre in Projekten,
00:54:41: da ging es in der Regel immer um irgendwelche Machine Learning Komponenten, KI Systeme und
00:54:48: wie du das beschrieben hast, war es tatsächlich auch, also es ging am Anfang um die Technik,
00:54:55: wir haben versucht möglichst gutes Prognosesystem zu bauen und alle möglichen Feature eingebaut
00:55:00: und haben sozusagen versucht da wirklich ein gutes System hinzubauen, aber wir haben nicht
00:55:08: einmal daran gedacht, dass das vielleicht sich auch irgendjemand angucken soll. Und wir sind dann
00:55:15: tatsächlich auch in diese Petrouille gekommen, dass wir Useranfragen von außen hatten, die gesagt
00:55:21: haben okay ich verstehe das nicht, kannst du mal und ich vertraue ich auch nicht, also was ihr da macht.
00:55:28: Genau und ich meine eigentlich ist es völlig offensichtlich, aber das ist ja häufig so mit
00:55:36: guten Dingen. Also erst mal bis zu dem Zeitpunkt wo sie dann kommen, also bis zu dem Zeitpunkt,
00:55:42: wo Alina jetzt quasi ihre Bachelor wird geschrieben hat und mit dem an der Stelle sozusagen mir
00:55:50: die Augen geöffnet hat, war das für mich kein großes Thema, aber jetzt kann ich mir eigentlich
00:55:56: gar nicht mehr vorstellen, dass man so ein System baut ohne diese Komponente. Und ich meine ich glaube
00:56:02: schon, dass das nicht überall schon da ist dieser Einsicht, aber es ist ja wie gesagt eigentlich
00:56:09: offensichtlich. Ja es ist ja bei vielen offensichtlichen Sachen so, dass dann trotzdem der richtige
00:56:16: Zeitpunkt eintreten muss und irgendwas passieren muss, dass man Dinge mal anders macht, wie man es
00:56:21: immer gemacht hat. War auch ein sehr spannender Prozess, also diese ganze Arbeit, weil das für
00:56:28: mich auch sehr explorativ war, also weil ich ja nicht wusste wo ich ja meine rauskomme und das war
00:56:33: dann irgendwie eigentlich ja der proof of concept eben auch die User mit einzubeziehen und nachzufragen,
00:56:41: weil ich hatte ja selber keine Ahnung von dem use case und ich kann jetzt irgendwie hingehen und
00:56:45: irgendwas gestalten, aber wenn ich nicht weiß wer das eigentlich nutzt und was die Bedürfnisse sind,
00:56:50: dann ist es eigentlich nur ja ein Schuss ins Blaue und vielleicht trifft der was vielleicht aber auch
00:56:56: nicht und deswegen ja hat sich das total bestätigt und auch eben später in der in der Evaluation
00:57:05: von dem Interface, dass sogar auch eine andere Nutzergruppe also Entwickler*innen von diesen
00:57:13: Kaisystemen gesagt hätten oder gesagt haben, für mich ist das auch cool so was zu haben,
00:57:18: um zum Beispiel die Feature, die ich implementiert habe zu testen. Also diese ganze Lösung hat ganz
00:57:25: viele verschiedene use cases und auch Usergruppen, die man aber kennen sollte und verstehen sollte.
00:57:32: Alina, du hast dich jetzt ja viele Wochen mit dem Thema beschäftigt, also mit User-Santeric AI
00:57:39: Interfaces und mich würde jetzt interessieren, was glaubst du, welche Rolle wird sowas in der Zukunft
00:57:46: spielen? Also solche explainable AI Geschichten, glaubst du, dass das was Großes wird, was wir
00:57:52: bald überall sehen? Also ich glaube dadurch, dass wir gerade schon sehen, dass diese ganze AI-Thematik
00:58:01: in alle möglichen Bereiche Eintritt erhält, wird das super spannend werden und auch eben in Bereiche,
00:58:08: die wirklich kritisch sind, was die Entscheidung angeht, wenn du dir jetzt mal den Healthcare-Bereich
00:58:13: anguckst und du gibst eine Art, so eine Ärztin, eine Prognose, dann ist es wichtig, dass da Vertrauen
00:58:20: herrscht oder das Verständnis herrscht, wie diese KI dazu gekommen ist, damit es im besten
00:58:26: Fall diese Mensch AI Kollaboration geben kann und ich glaube, dass deswegen das Potenzial so hoch ist,
00:58:35: weil wir eben das schaffen können, dass diese Kombinationen gibt und dass durch auch so einen
00:58:43: Zusammenbring von Disziplinen, also zum Beispiel jetzt Machine Learning und UX, dass eben dafür
00:58:49: Lösungen gefunden werden können und am Ende geht es eben darum, eine Zusammenarbeit in jeder
00:58:55: Ebene zu schaffen und ich glaube, dass das ein cooles Potenzial und ein spannender Bereich,
00:59:00: wo es noch ganz schön viel zu erkunden gibt. Robin, du als jemand, der sich schon recht lange mit
00:59:06: dem ganzen Thema KI und Mathematik beschäftigt, wo geht für dich die Reise hin? Also ich fand
00:59:12: das jetzt super spannend mit dieser Kollaboration einfach zwischen KI und UI und auch diesen
00:59:19: ganzen User-Centric Ansatz, den finde ich super spannend, explainable UI sowieso, weil ich glaube,
00:59:26: die Blackbox macht uns halt einfach Angst, wenn wir damit arbeiten müssen bzw. Sie
00:59:30: schafft da keinen Vertrauen, wenn du ein bisschen in die Zukunft blickst und so vielleicht die ganz
00:59:36: kleine Kristallkugel ausprachst, was glaubst du, wo die Reise hingeht in die nächsten?
00:59:42: Naja, ich mag ja fast gar nicht sagen "jahre", aber vielleicht "jahre". Genau, also ja, also
00:59:50: Ausblicke sind immer schwierig, aber einen Wunsch hätte ich, ich hätte den Wunsch, dass überall
00:59:55: da, wo KI-Systeme eingesetzt werden, im Prinzip UI, UX-Aspekte mit einbezogen werden, weil die
01:00:04: Interaktion mit den Menschen dafür bauen wir ja diese KI-Systeme, dass sie den Menschen unterstützen
01:00:09: bei der Arbeit oder bei was auch immer sozusagen gerade getan werden soll oder entschieden werden
01:00:18: soll und da sind diese Aspekte einfach super wichtig und KI ist so breiteinsetzbar, wie die
01:00:25: Informatik insgesamt und deswegen wird das auch überall Einzug erhalten und da wäre dann sozusagen
01:00:32: mein Wunsch, dass man da dann auch auf den auf den Menschen eingeht und ich glaube, das würde
01:00:39: dann auch sehr viele Barrieren abbauen, die ja heutzutage auch wahrscheinlich sinnvollerweise
01:00:47: noch in den Köpfen der Leuten existieren. Ja, Robin, vielen Dank für deine Einschätzung. Ich glaube,
01:00:55: auch, dass das Thema AI spannend bleibt. Ich glaube, dass wir beide uns heute auch sicherlich zum
01:01:02: letzten Mal gehört haben hier im Rahmen von Podcast. Da wird es noch mal sicherlich ein paar
01:01:06: spannende Anknüpfpunkte geben im nächsten Jahr, hoffe ich. Ja, Alina, ich bin auch gespannt,
01:01:12: was es bei uns noch verspannende Anknüpfpunkte gibt. Ich fand und finde das Thema, dass du da in
01:01:18: deiner Bachelor-Tase behandelt hast, echt spannend, weil ich finde es halt cool, wenn man weiß,
01:01:24: wie Dinge funktionieren, wenn es nicht nur irgendwelche Black Boxen gibt, den man blind
01:01:28: vertrauen muss. Ich glaube, dass das auch gut für uns Menschen ist, wenn wir eine Möglichkeit haben,
01:01:33: so Dinge zu verstehen und dadurch auch Vertrauen aufzubauen. Und ich finde die Entwicklung cool,
01:01:40: dass man jetzt einfach UI, UX mit solchen KI-Ansätzen verbindet, um wirklich tolle Lösungen zu
01:01:48: erschaffen. Und ja, Frage in Dicht zum Schluss. Gibt es in dem ganzen Thema noch irgendwas
01:01:55: Spannendes, was wir bis jetzt noch nicht irgendwie besprochen haben oder was Spannend für die Zukunft
01:02:00: ist? Das gibt es tatsächlich und zwar warum das auch von einer ganz anderen Perspektive total
01:02:07: relevant ist für ganz viele Bereiche und zwar ist es der European AI Act, der das Recht auf
01:02:16: Erklärung zur Rechtssache macht. Das heißt, es gibt das sogenannte "right to explanation". Das heißt,
01:02:21: es ist vorgeschrieben, dass KI erklärbar sein muss. Das muss gewissen Standards entsprechen und
01:02:29: deswegen ist es total spannend, das Thema weiter zu verfolgen, weil es eben aufgrund von diesen
01:02:34: Regularien superrelevant für uns wird. Aber das ist aber wirklich spannend. Das hatte ich gar nicht
01:02:39: mitbekommen, wobei ganz ehrlich, ich bin jetzt auch nicht der Experte für solche gesetzlichen
01:02:43: Regelungen, aber ich finde, dass es ja in einigen Bereichen da ganz interessante Vorgaben gibt,
01:02:49: die uns Menschen auch helfen. Also ich erinnere mich an die Vorgaben für so Barrierefreiheit auf
01:02:55: Webseiten, da hatte ich mich mit dem Kollegen Matthias Reuter schon mal drüber unterhalten. Da
01:03:01: gibt es ja auch auf EU-Ebene Vorgaben, die man einhalten muss. Und wenn sowas für AI gibt,
01:03:06: beziehungsweise für die Erklärbarkeit, dann finde ich das auch eine gute Sache. Denn manchmal braucht
01:03:12: man vielleicht auch so eine gesetzliche Motivation, damit man am Ende das Richtige macht. Jetzt haben
01:03:19: wir uns sehr viel über deine Bachelorarbeit unterhalten, Alina. Wie sieht es denn aus? Gibt es
01:03:23: die Möglichkeit, sich diese Arbeit oder Ausschnitte mal irgendwo anzuschauen, vielleicht im Internet?
01:03:30: Wie gibt es Wolfgang? Und zwar habe ich zum Thema einen Blogartikel geschrieben, wo man auch
01:03:37: Ausschnitte aus dem Interface sieht und der auch noch mal so ein bisschen auf diesen Prozess eingeht
01:03:42: und die Ergebnisse aus den einzelnen Prozessschritten auch noch ein bisschen darstellt. Und wenn du
01:03:47: möchtest oder an alle Zuhörerinnen, die das näher interessiert, gerne auf unserem Blog vorbei
01:03:53: schauen, da findet man den Blogartikel zum Thema. Ja, und man findet natürlich den Link zu dem
01:03:59: Blogartikel auch hier in den Show-Notes. Also ich kann es nur empfehlen, schaut euch das gerne mal an,
01:04:04: das ist sehr interessant. Und ja, vielleicht ist es auch für die eine oder den anderen ein ganz schöner
01:04:10: Denkanstoß, wenn es um zukünftige KI-Lösung geht. Alina, vielen Dank für deine Zeit. Vielen Dank,
01:04:18: dass du da warst und natürlich auch vielen Dank für die tolle Bachelorarbeit, die du hier bei uns
01:04:21: geschrieben hast, die uns ja euch bezahlen ein Stückchen weitergebracht hat. Sehr gerne. Robin,
01:04:27: auch vielen Dank, dass du heute mal wieder da warst, ist immer wieder bereichernd und ja,
01:04:34: ich sage mal zu euch beiden bis bald. Ich hoffe, dass ihr demnächst mal wieder hier zu einem schönen
01:04:41: Thema zu Gast seid. Vielen Dank, Wolfgang. Bis dann. Das war das Gespräch mit Alina und Robin. Ich
01:04:47: hoffe, dass es euch Spaß gemacht hat. Wenn ihr Feedback habt, dann erreichte mich per e-Bell
01:04:51: unter podcast@innowax.de. Wir hören uns in zwei Wochen wieder. Bis dahin wünsche ich euch viel Spaß und eine gute Zeit.
01:04:58: [Musik]
Neuer Kommentar