Der Technologie-Jahresrückblick 2024
Shownotes
Am Ende des Jahres haben wir ein kleines Highlight. Zusammen mit unserem CTO Christian Meder blickt Wolfgang Schoch auf das Jahr 2024 zurück. Das Jahr war geprägt von spannenden Partnerschaften und dem unaufhaltsamen Fortschritt in der Künstlichen Intelligenz, der in Form von generativer KI Unternehmen neue Perspektiven eröffnet.
Lasst uns gemeinsam auf ein aufregendes Jahr zurückblicken und einen Blick auf die Tech-Welt von morgen werfen. Viel Spaß beim Zuhören!
Für diese Folge von Digital Future gibt es ein vollständiges Transkript. Dieses Transkript wurde automatisiert erzeugt und nicht nachbearbeitet oder korrekturgelesen. Es wird daher sicher Fehler enthalten. Das Transkript ist als Ergänzung zu verstehen, um beispielsweise die Inhalte durchsuchbar zu machen. Im Zweifel gilt immer das gesprochene Wort aus der Folge.
Dieser Podcast lebt von deinem Feedback! Melde dich gerne über die verlinkten sozialen Medien oder direkt per Mail an podcast@inovex.de.
Wenn dir der Podcast gefallen hat, abonniere ihn und erzähl deinen Freunden davon! Außerdem freuen wir uns über deine Text- und/oder Sternebewertung bei Apple Podcasts.
Instagram: https://www.instagram.com/inovexlife/ www.inovex.de www.inovex.de/blog
Transkript anzeigen
Voiceover: Hallo und herzlich willkommen bei Digital Future, dem Podcast zu Technologie
Voiceover: und Unternehmenskultur.
Voiceover: Mein Name ist Wolfgang Schoch und ich bin der Agile Coach bei InnoVex.
Voiceover: Ich habe aber auch schon ein paar andere Sachen gemacht und so die IT-Branche
Voiceover: aus verschiedenen Blickwinkeln kennengelernt.
Voiceover: Zum Beispiel als Softwareentwickler, als Experte für Suchtechnologie oder im Vertrieb.
Voiceover: Ich freue mich, euch in jeder Folge des Podcasts eine Kollegin oder einen Kollegen
Voiceover: vorzustellen und mich mit ihr oder ihm über das jeweilige Fachgebiet zu unterhalten.
Voiceover: So bekommt ihr einen Einblick in unseren technologischen und unternehmenskulturellen Alltag.
Voiceover: In der heutigen Folge spreche ich mit meinem Kollegen Christian Meder über das vergangene Jahr.
Voiceover: Christian ist CTO bei InnoVex und er beschäftigt sich viel mit Technologie und
Voiceover: aktuellen Entwicklungen.
Voiceover: Und darüber schreibt er auch in seiner monatlichen Kolumne. Wir lassen die vergangenen
Voiceover: zwölf Monate Revue passieren und stellen dabei fest, dass 2024 wieder mal ein
Voiceover: sehr KI-lastiges Jahr war.
Voiceover: Und jetzt wünsche ich euch viel Spaß beim Zuhören.
Wolfgang: Das Jahr neigt sich dem Ende zu, also das Jahr 2024.
Wolfgang: Und ich glaube, da lohnt es sich ja nochmal ein bisschen zurückzublicken und
Wolfgang: mal darüber zu sprechen, was dieses Jahr alles an spannenden Themen passiert ist.
Wolfgang: Das Jahr war ziemlich KI-lastig, deswegen gibt es heute auch viele KI-Themen.
Wolfgang: Und mir gegenüber sitzt Christian Meder. Christian, schön, dass du da bist.
Wolfgang: Ich freue mich, dass wir uns heute über das Jahr 2024 unterhalten.
Gast: Vielen Dank, Wolfgang. Freut mich auch, hier zu sein.
Wolfgang: Christian, für alle, die dich noch nicht kennen, kannst du dich mal ganz kurz vorstellen?
Gast: Ja, sehr gerne. Mein Name ist Christian Meder. Ich bin seit 2005 hier bei InnoVex
Gast: und in der Zeit habe ich verschiedene Rollen durchlaufen.
Gast: Ich habe angefangen mal in der Softwareentwicklung, Projektleitung,
Gast: dann auch Lob-Leitung, wie sich das damals noch nannte,
Gast: also dann für den Bereich eben, der sich rund um Java und Web-Applikationen
Gast: vor allem damals gedreht hatte und bin jetzt seit mehr als zehn Jahren in der CTO-Rolle unterwegs.
Gast: Also beschäftige ich mich sehr viel mit Technologien dann an der Stelle und
Gast: deswegen ist ja auch das Thema, dass ich da auch eine regelmäßige Kolumne dazu
Gast: schreibe zu den Technologiethemen und versuche, die in diesen größeren Kontext zu stellen.
Gast: Und vor diesem Hintergrund auch können wir jetzt so ein bisschen auf das Jahr
Gast: zurückblicken, weil ich ja jeden Monat da so ein paar Themen angesprochen hatte.
Gast: Und wie du schon gesagt hast, waren es eben sehr oft die KI-Themen in diesem
Gast: Jahr, weil da eben auch sehr viel Perspektive.
Wolfgang: Lass uns doch direkt mal einsteigen, Christian. Im Januar, da habe ich mir hier
Wolfgang: aufgeschrieben, da gab es in deiner Kolumne das Thema Tsunami in der KI.
Gast: Genau, also der Background dazu war ganz klar,
Gast: dass im Januar steht bei uns jetzt ja wieder bald bevor dann,
Gast: ist die CES, die Consumer Electronics Show und das prägende Thema im Januar
Gast: in diesem Jahr war eben genau das KI-Thema in Verbindung mit allen möglichen
Gast: Sorten von Technologien, die dann gezeigt wurden.
Gast: Und die Tagesschau beispielsweise hatte das dann überschrieben mit Tsunami der
Gast: KI, weil eben sehr viele Produktneuerungen gezeigt wurden.
Gast: Das sind oft nur Studien zu dem Zeitpunkt gewesen, wie man sich die Dinge in
Gast: Zukunft vorstellt, aber eben alles sehr KI-lastig an der Stelle.
Gast: Und was auch der Background natürlich war schon, das hat sich durch das Ganze
Gast: ja auch durchgezogen, dass ein großer Name, der jetzt gerade im Bereich der
Gast: Aktien beziehungsweise Unternehmen fällt, ist immer Nvidia,
Gast: die so ein bisschen den Motor liefern, hat man oft das Gefühl für das ganze
Gast: Thema KI und der CEO von Nvidia,
Gast: Jensen Huang,
Gast: ich hoffe, ich spreche das richtig aus.
Gast: Der ist ja sehr präsent auch und wenn er eine Präsentation gibt und das hat
Gast: er im Rahmen der CS damals auch getan dann hören auch alle zu und in dem Kontext
Gast: hat es ja angefangen damit schon mal diesen Ton zu setzen KI ist sehr wichtig,
Gast: auch in der Unterhaltungselektronik wir verbinden alles mit KI und das wird
Gast: so das übergreifende Thema sah ihm ja nur so aus,
Gast: ist nicht ganz falsch gelegen, würde ich auch im Rückblick sagen Ja.
Wolfgang: Absolut Gut, also gerade weil du jetzt noch Nvidia angesprochen hast,
Wolfgang: hat der Aktienkurs von Nvidia nicht irgendwie um 100% zugelegt dieses Jahr?
Gast: Ja genau, also Nvidia hatte, also ich habe es jetzt nicht im Detail verfolgt über das Jahr,
Gast: aber ist zu den wertvollsten Aktien ja aufgestiegen dann durchaus und es ist
Gast: enorm viel Geld in den Bereich reingeflossen und vor allem eben auch zu Nvidia's Aktien geflossen.
Gast: Ich finde es immer wieder spannend vor dem Hintergrund, dass Nvidia trotz allem
Gast: ja Hardware-Lieferant ist und damit sein Geld verdient und,
Gast: KI ja eigentlich eher eine Software-Sache ist, aber da Nvidia eben so prädestiniert
Gast: ist gerade für diesen Bereich Training von Modellen eben durch ihr Produktportfolio,
Gast: deswegen konzentriert sich sehr viel im Aktienmarkt eben auf Nvidia gerade.
Gast: Das hat ein bisschen wieder nachgelassen im Laufe des Jahres dann.
Gast: Also ich glaube, sie sind immer ganz so weit oben dann, auch wegen US-Wahl und
Gast: dass dann alles, was um Elon Musk außenrum geht, dann nach oben gegangen ist,
Gast: aufgrund dessen, dass Trump gewonnen hat.
Gast: Aber sie spielen sehr weit oben mit. Das hat sich Anfang des Jahres abgezeichnet,
Gast: dass Nvidia eben dann wirklich stark wachsen wird und das ist im Laufe des Jahres auch passiert.
Wolfgang: Ich glaube, man kann ja auch sagen, dass die ganzen großen KI-Anbieter,
Wolfgang: dass die mehr oder weniger alle auf Nvidia-Hardware setzen.
Wolfgang: Ich glaube, vor allem so diese H100-KI-Beschleuniger von Nvidia,
Wolfgang: die werden ja zu Hunderttausenden verkauft.
Gast: Genau, also es gibt auch ganz klar diesen Run dann auf Nvidia-Hardware.
Gast: Deswegen war das auch mit den Preisen, glaube ich, nie ein Thema in diesem Jahr,
Gast: dass sie das am Markt durchsetzen konnten.
Gast: Und wenn jemand anfängt, dann wirklich in das Training von großen Modellen zu
Gast: investieren, dann ist es eigentlich immer Nvidia-Hardware.
Gast: Also das jüngste Beispiel, was ich jetzt gesehen hatte, war im letzten Quartal auch das XAI,
Gast: dann was ja zu Elon Musks Firmenuniversum gehört,
Gast: dann auch nochmal ein neues Rechenzentrum mit Nvidia-Hardware hochgezogen hat,
Gast: relativ kurzer Zeit nach dem, was zumindest berichtet wurde.
Gast: Und da war auch nur die Rede von wieviel Hunderttausende, ich weiß gar nicht
Gast: die exakte Zahl, aber wieviel Hardware einfach von Entweder-Adapt verwandelt.
Wolfgang: Es ist unglaublich viel. Also gerade bei XAI, da gibt es auch ein cooles Video,
Wolfgang: wo ein Techniker mal durch das Rechenzentrum durchläuft und das zeigt.
Wolfgang: Und das ist schon richtig, richtig, richtig groß.
Wolfgang: Da sieht man schon richtig viel Hardware rumstehen und das muss ein Vermögen gekostet haben.
Gast: Ja, absolut. Und das ist ja jetzt nur eine kleine Facette, die im letzten Quartal gestartet ist.
Gast: Also wir reden ja gar nicht darüber, was bei den ganzen Hyperscalern überall
Gast: verbaut ist dann noch zusätzlich.
Gast: Und wahrscheinlich gibt es auch bei einigen Unternehmen dieses Fear of Missing Out dann.
Gast: Also wenn wir jetzt mit KI starten wollen, dann an der Stelle brauchen wir auch
Gast: erstmal einige Server eben mit Nvidia-Hardware dann. Und es gibt sicher auch
Gast: viele Unternehmen, die dann einfach mal eingekauft haben.
Wolfgang: Also ich frage mich bei der Sache ja vor allem auch eine Sache.
Wolfgang: Wie groß ist denn eigentlich so die Lebensdauer von der Hardware?
Wolfgang: Also jetzt nicht physikalisch, bis die kaputt ist.
Wolfgang: Aber wie lange kann ich denn jetzt meine H100-Beschleuniger überhaupt einsetzen,
Wolfgang: um noch konkurrenzfähig zu sein?
Wolfgang: Also hast du da eine Einschätzung über wie viele Jahre, dass man da spricht?
Gast: Also ich glaube schon sehr stark, dass das einige Jahre halten wird,
Gast: je nachdem welchen Anspruch man hat,
Gast: weil die Generationen, also wenn wir jetzt alles an Nvidia messen und das ist
Gast: eigentlich ja der Standard im Moment im Markt, dann sind die Generationen bei
Gast: Nvidia Hardware ja durchaus jährlich, zweijährlich, wo was Neues rauskommt und
Gast: in der Zeit gibt es auch nichts anderes.
Gast: Plus, es ist ja auch sehr stark so, wenn ich mal an der Stelle bin,
Gast: dass ich mein verteiltes System mit sehr vielen Grafikkarten dann skalieren kann.
Gast: Und dann ist nur noch die Frage, ob der Speicher auf einer lokalen Grafikkarte
Gast: groß genug ist oder ob ich den größer bekomme dann, um jetzt größere Dinge zu trainieren.
Gast: Ich glaube, das ist nicht mehr so relevant dann, wenn man mal an der Stelle
Gast: ist, dass man sowieso tausende von Grafikkarten braucht für das Training dann.
Gast: Deswegen kann man damit schon eine Weile leben. Also ob das dann jetzt zwei,
Gast: drei Jahre sind, die man in der Spitze das verwenden kann, wenn man vorne dabei bleiben möchte.
Gast: Oder ob das länger ist, ist schwierig im Moment zu sagen.
Gast: Aber auch Nvidia kann ja nicht zaubern an der Stelle. Die nächste Generation
Gast: ist eigentlich immer ein, zwei Jahre hintendran.
Gast: Und auch wenn die kommt, Und dann sind die Stückzahlen am Anfang immer noch sehr gering.
Gast: Also wer jemals das sich bei Grafikkarten ja angeguckt hatte,
Gast: früher bei Nvidia, das ist auch für die nicht so einfach mit zu skalieren.
Gast: Die haben das relativ gut hingekriegt.
Gast: Aber aktuell sind wir, glaube ich, in der Situation, dass die Nachfrage noch
Gast: immer sehr, sehr viel größer ist als das, was sie liefern können und auch weiterentwickeln können.
Wolfgang: Ja, ich kann mir auch gut vorstellen, dass man, wenn man jetzt so ein großes
Wolfgang: Rechenzentrum hat, wo Millionen Werte drinstecken an Hardware,
Wolfgang: dass man sich da sicherlich auch schon frühzeitig Gedanken zu irgendwelchen
Wolfgang: Migrationspfaden macht und sicherlich auch darüber nachdenkt,
Wolfgang: wie man die vorhandene Hardware vielleicht auch noch ein bisschen besser nutzen
Wolfgang: kann, indem man was Neues dazu stellt, vielleicht effizientere Algorithmen einsetzt,
Wolfgang: um auch das Maximum rauszuquetschen, weil ich weiß nicht, wenn du nach drei
Wolfgang: Jahren jetzt alles austauschen müsstest,
Wolfgang: das kannst du ja nicht mehr finanziell reinholen.
Gast: Ja, absolut. Und es ist auch so, dass wir reden ja eigentlich davon,
Gast: dass wir für das Training der Modelle eben diese massive Menge an Hardware brauchen.
Gast: Für den Fall, wenn wir mal ein Modell benutzen für die Inferenz,
Gast: brauchen wir auch gar nicht diese Mengen an Hardware.
Gast: Also jetzt bei den ganz großen LLMs vielleicht jetzt noch ausgenommen,
Gast: aber viele Dinge, die in Produktion sind, brauchen nicht diese Menge.
Gast: Das heißt, ich kann auch die letzte Generation durchaus dafür nutzen dann.
Gast: Und die Frage, wie viele Firmen und Organisationen in der Lage sind,
Gast: einfach große Modelle zu trainieren, ist ja sowieso auch eine spannende Frage.
Gast: Stand heute, ist das, muss man ganz klar sagen, eine sehr stark amerikanische Angelegenheit.
Wolfgang: Ja, und vielleicht noch abschließend zum Thema Trainieren. Ich frage mich auch
Wolfgang: ein bisschen, wie lange wird das überhaupt noch so weitergehen können?
Wolfgang: Weil auf der einen Seite, uns geht ja das Material aus, irgendwann das neue Trainingsmaterial.
Wolfgang: Wir haben jetzt die letzten fünf, sechs Jahre so das komplette Internet und Bibliotheken etc.
Wolfgang: Mal weg trainiert. Auf der anderen Seite gibt es für heute auch einfach inkrementelle
Wolfgang: Algorithmen, damit du nicht immer bei Null anfangen musst, wenn du irgendwie
Wolfgang: mal neues Material hast und dann dein vorhandenes Modell quasi nachtrainieren kannst.
Wolfgang: Also auch da ist vielleicht so die spannende Frage, wie lange braucht man überhaupt
Wolfgang: noch diese riesigen Supercluster für ein Training?
Gast: Ja, also auf jeden Fall. Und dieses Thema mit den Daten, das finde ich ein besonders
Gast: spannendes Thema in zwei Richtungen.
Gast: Ich hatte vor kurzem jetzt den Begriff auch Peak Data gelesen im Sinne von Peak Oil eben auch.
Gast: Dann zu sagen, ja, wir sind jetzt an der Spitze angelangt.
Gast: Wir werden nicht mehr Daten bekommen. Und die zweite Frage, die ich mir auch
Gast: immer stelle, ist, wir brauchen ja qualitativ hochwertige Daten.
Gast: Jetzt ist es natürlich so, dass wir durch Gen.ai auch unseren eigenen Datenpool
Gast: ein bisschen verschlechtern, würde ich mal sagen, weil je mehr generierte Texte
Gast: ich jetzt auch draußen habe im Netz,
Gast: die dann irgendwo an irgendeiner Stelle beispielsweise auch bei Wikipedia auftauchen können,
Gast: dann kann es durchaus auch sein, dass die Qualität dadurch abnimmt.
Gast: Dann habe ich zwar mehr Daten auf einmal, aber jetzt nicht unbedingt bessere Daten.
Gast: Und das wird noch eine ganz spannende Diskussion sein. Also ich glaube auch
Gast: im Moment, dass wir an der Stelle sind, dass wir die meisten Daten abgegrast haben.
Gast: Plus eben das, was wir die nächsten ein, zwei Jahre sehen werden,
Gast: dass wir auch natürlich unseren Datenpool ein bisschen verwässern werden dadurch, dass wir,
Gast: Also ich möchte es mal ganz hart formulieren, dass wir mehr belanglose Texte
Gast: auch sehen, die einfach generiert wurden, um einen Text zu haben,
Gast: ohne dass er jetzt inhaltlich einen sehr großen Mehrwert liefert.
Wolfgang: Ja, da wird die hohe Datenqualität, die wir bisher im Internet und beispielsweise
Wolfgang: in so Orten wie Reddit hatten, noch schlechter werden.
Gast: Ja, ich fand vor kurzem das auch ganz spannend.
Gast: Ich hatte einen Talk gehört von Wikipedia, die ja im Prinzip auch sagen,
Gast: dass sie sind eine der Hauptquellen für LLMs, für Gen AI dann auch.
Gast: Das ist auch völlig in Ordnung.
Gast: Aber sie finden es aus ihrer Sicht eben, hatte einer der technischen Ansprechpartner
Gast: auch dann so formuliert, sie finden es besonders spannend, dass das,
Gast: was man auf Wikipedia eigentlich kostenlos nachlesen kann,
Gast: wenn er jetzt einfach dann seinen kostenpflichtigen Chatbot frägt,
Gast: dann bekommt er aber die gleiche Antwort, weil das ist die Datenquelle,
Gast: von der es oft eben gezogen wird.
Gast: Und wie dieses Modell sein kann, auch das zu finanzieren, also es läuft ja gerade
Gast: wieder diese Wikipedia,
Gast: Spendenkampagne da auch, wie sie auch da partizipieren können als Wikipedia
Gast: daran, eben, dass das jetzt hinter einer Bezahlschranke ist,
Gast: dieses Wissen dann, zumindest im Chatbot-Kontext.
Gast: Das ist auch eine ganz spannende Diskussion, die ich dann zum ersten Mal realisiert
Gast: hatte, dass auch die Frage ist der ganzen, die guten Datenquellen,
Gast: wie monetarisiere ich das dann? Wie gebe ich was zurück?
Gast: Woher kommen die Dinge eigentlich? weil das natürlich ein ganz großes Thema
Gast: auch sein wird die nächsten Jahre.
Wolfgang: Es ist absolut ein riesengroßes Thema. Aber wenn du gerade schon ansprichst,
Wolfgang: die nächsten Jahre, dann sehe ich hier auf meinem Zettel den nächsten Monat,
Wolfgang: und zwar den Februar 2024.
Wolfgang: Da gab es wieder ein KI-Thema, und zwar die rasante Entwicklung der LLMs.
Gast: Genau, in diesem Jahr hatten wir ja gesehen, dass die hohe Dynamik in dem Bereich
Gast: einfach beibehalten wurde.
Gast: Also es sind sehr viele Player, die neue Modelle vorstellen.
Gast: Es gibt sicher eine Unterscheidung, dass einige Modelle eben Open Source sind,
Gast: dann wirklich auch verfügbar sind, dass man sie selbst verwenden kann.
Gast: Meta ist natürlich da, die Organisation, die einem immer sofort in den Sinn kommt.
Gast: Auch von Google ist es ja so, dass diese Teile der Modelle, die hinter Gemini
Gast: stecken, Gemma dann, dass die auch Open Source bereitgestellt werden.
Gast: Und wir sehen eben einige große Player, Meta verwendet.
Gast: Und alles, was sie außenrum machen, in ihren Produkten dann und geben Open Source
Gast: das Ganze frei, aber bieten jetzt keinen extra Chatbot in dem Sinne an.
Gast: OpenAI ist natürlich super präsent, hat auch Bezahlmodelle dafür.
Gast: Google auf der anderen Seite hat diese ganze Gemini-Familie,
Gast: die sie in ihre eigenen Produkte eben sehr stark integrieren.
Gast: Send-A-Load bereitstellen, aber eben auch sehr stark integrieren.
Gast: Da werden wir eine große Dynamik sehen. Also wer eben beispielsweise ein Google-Mail-Postfach
Gast: verwendet, der hat in den letzten Wochen schon gesehen, dass dann irgendwie so ein Pop-Up da war.
Gast: Ja, jetzt mit Gemini-Unterstützung und man muss in OK klicken und dann hat man das.
Gast: Also da wird Google eben seine Marktmacht auch wirklich in die Richtung lenken.
Gast: Und dann gibt es noch einen unabhängigen Player, der sehr oft auftaucht aus
Gast: meiner Sicht, das ist Anthropik, die eben mit Claude dann ihr eigenes Modell haben.
Gast: Und das ist für mich jetzt in diesem Jahr sehr oft aufgetaucht,
Gast: wenn man für ein Open-Source-Projekt eine Integration sucht mit einem zugänglichen,
Gast: stabilen, konsistenten LLM.
Gast: Und da hatte ich oft wahrgenommen, dass eben Claude die präferierte Wahl dann ist, die Empfehlung.
Gast: Also es ist meistens immer so aufgebaut, dass ich verschiedene Dinge anbinden
Gast: kann, aber die Empfehlung dann in diesen Open-Source-Projekten ist dann Claude,
Gast: wo ich das beispielsweise gesehen hatte, war bei Home Assistant.
Gast: Home Assistant haben eben auch so eine Integration, die sie im zweiten Teil
Gast: des Jahres gelauncht haben und da ist eben auch Anthropic und Claude eben die
Gast: präferierte oder die empfohlene Variante dann. Also sehr viel Dynamik.
Gast: Es gab das ganze Jahr Releases in diesen Themen von diesen verschiedenen Playern dann auch,
Gast: Spannend wird es sein, wenn wir in die Zukunft gucken, ob diese hohe Dynamik
Gast: nächstes Jahr beibehalten wird oder ob es sich ein bisschen entschleunigen wird.
Gast: Wir hatten ja vorhin schon gesprochen über Peak Data. Also das Gefühl im Moment
Gast: ist, es wird nicht mehr ganz diese hohe Dynamik haben, es wird ein bisschen
Gast: Konsolidierung geben und längere Fristen zwischen Releases dann auch.
Wolfgang: Ja, also Peak Data ist sicherlich ein spannendes Thema, wo ich ein bisschen
Wolfgang: noch drüber nachdenke ist, was gibt es denn vielleicht für sonstige Features,
Wolfgang: die die großen Anbieter in ihre Modelle einbauen können, um auf Basis der ganzen
Wolfgang: Daten, die es gibt, besser zu werden.
Wolfgang: Also wir hatten jetzt bei OpenAI, ich glaube, das letzte große Ding,
Wolfgang: was die vorgestellt hatten, war ja die Möglichkeit, dass das Modell erstmal mehr nachdenkt.
Wolfgang: Also das war diese Chain of Thought, glaube ich, um dir dann womöglich ein Ergebnis
Wolfgang: zu präsentieren, das in Anführungszeichen durchdachter ist.
Wolfgang: Und ich glaube auch, wenn es um so Reasoning-Fähigkeiten geht,
Wolfgang: das sind die meisten Modelle einfach nicht gut.
Wolfgang: Also Mathematik ist glaube ich sowas wie jetzt, weiß nicht, Wolfram Alpha ist
Wolfgang: natürlich super, wenn es um Logik geht, Physik, Mathematik, aber,
Wolfgang: Open AI-Modelle oder halt auch jetzt irgendwelche anderen Sprachmodelle,
Wolfgang: die sind halt gut, was Sprache angeht und nicht, was Logik angeht.
Wolfgang: Da bin ich mal gespannt, was wir da nächstes Jahr noch erwarten können,
Wolfgang: weil ich glaube, das würde so generell die Qualität nochmal auf ein anderes Level packen?
Gast: Ja, definitiv. Da passiert gerade sehr viel.
Gast: Ich habe da noch keinen richtigen Überblick, muss ich ehrlicherweise sagen,
Gast: wie gut es funktioniert, weil alles so in Pre-Release ist oder man hat einen Direktzugang.
Gast: Das, was ich in der jüngsten Vergangenheit auch gesehen habe,
Gast: wer, glaube ich, bei Google dieses Gemini-Abo hat, gibt es jetzt auch Gemini
Gast: 2 Preview, den man dann wählen kann, wenn man Englisch hat und nicht Deutsch
Gast: und so weiter, nur in der Web-App und nicht in der mobilen App wieder.
Gast: Und da gibt es dann auch ein Feature in die Richtung, was du gerade angesprochen
Gast: hast, eben Deep Research.
Gast: Also, dass ich in ein Thema eben dann auch in der Zusammenfassung,
Gast: in der Recherche tiefer reingehen kann, eben mit Reasoning dann.
Gast: Und das war jetzt aber auch, glaube ich, letzte oder vorletzte Woche,
Gast: dass das Thema jetzt publiziert wurde und eben nur in dieser speziellen Umgebung.
Gast: Das glaube ich auch, da wird eine Menge passieren.
Gast: Ich bin noch gespannt darauf, wie groß die Nutzendengruppe ist an der Stelle.
Gast: Braucht es jeder dann? Oder ist es eher etwas, was man in der Akademie braucht?
Gast: Also wenn man wirklich sich mit Research beschäftigt, dann bin ich mir noch
Gast: sehr gespannt, wie die Ausprägung sein wird, ob das für jeden spannend ist und
Gast: wie gut es funktioniert.
Wolfgang: Das ist ein bisschen eine philosophische Frage. Ich würde sagen,
Wolfgang: es ist für alle interessant, weil wenn man sich mal so die aktuellen Trends anschaut,
Wolfgang: geht es meiner Meinung nach schon auch ein bisschen dahin, dass ChatGPT,
Wolfgang: was sicherlich am bekanntesten ist in der breiten Masse der Bevölkerung,
Wolfgang: dass ChatGPT so ein bisschen in Richtung neue Google-Suche geht.
Wolfgang: Und wenn ich heute was wissen will, gebe ich es bei Google ein.
Wolfgang: Wenn ich wissen will, wie viel Euro sind, jetzt irgendwie polnisches Lottie,
Wolfgang: dann gebe ich ein, 50 Euro in polnisches Lottie und Google zeigt mir das an
Wolfgang: und ich vertraue dem auch.
Wolfgang: Also, dass die Zahl dann stimmt. Oder wenn ich einen Flug buchen möchte,
Wolfgang: kann ich es auch bei Google einfach eingeben und Google hat dann auch entsprechende
Wolfgang: Suche noch integriert, erkennt das, zeigt es mir an.
Wolfgang: Und ich habe das in meinem Bekanntenkreis auch schon von Leuten,
Wolfgang: die jetzt nicht so in der IT sind, auch schon immer mitbekommen,
Wolfgang: hey, guck mal, ich habe da mal mit ChatGPT irgendwas gemacht und ich glaube,
Wolfgang: heute ist natürlich viel einfach nicht valide, was da rauskommt,
Wolfgang: vor allem wenn es um Logik geht.
Wolfgang: Aber wenn Chat, GPT oder OpenAI so ein bisschen in die Richtung schielt,
Wolfgang: das neue Google zu werden, dann müssen sie da einfach so gut werden,
Wolfgang: dass die Leute dem Vertrag.
Gast: Genau, aber das ist genau der spannende Punkt Vertrauen und wie kann ich überhaupt
Gast: bewerten, dass das, was ich jetzt recherchiert hatte,
Gast: von dem ich wahrscheinlich auch wenig Ahnung habe, weil das war ja der Sinn
Gast: des Ganzen eben zu recherchieren, wie stark kann ich dem Vertrauen dann und
Gast: wie faktenbasiert wird mir das auch präsentiert dann.
Gast: Das wird noch die große Herausforderung sein. Und da sehen wir ja erst die Ansätze dazu.
Gast: Und gerade bei unbekannten Themen das bewerten zu können, da brauche ich eine Menge Vertrauen.
Gast: Und das muss ich erst mal aufbauen. Also das wird, glaube ich,
Gast: ein sehr zentrales Thema sein.
Wolfgang: Absolut. Und ich meine, du kannst bei ChatGBT sagen, hey, gib mir die Quellen
Wolfgang: an. Habe ich schon gemacht.
Wolfgang: Und dann kriegst du auch Quellen. Ich habe das bei ein paar Themen mal ausprobiert.
Wolfgang: Und ich dachte mir dann so, okay, cool, funktioniert.
Wolfgang: Hab mir die Quellen angeschaut und da stand aber was ganz anderes drin.
Wolfgang: Und dann dachte ich mir, okay, ich bin vielleicht so ein Fakten-Nerd und ich schaue mir es an.
Wolfgang: Aber ansonsten würde ich doch den Text lesen und ich sehe, das sind drei Quellen.
Wolfgang: Und ich schaue mir vielleicht die URL von der Quelle an. Das ist vielleicht
Wolfgang: wie eine Zeitung, eine bekannte oder vielleicht Scientific American.
Wolfgang: Okay, also das ist eine valide Quelle, da habe ich Vertrauen.
Wolfgang: Und dann passt dieser Extrakt auch.
Wolfgang: Genauso habe ich aber auch schon mit Dings gearbeitet, mit der Perplexity,
Wolfgang: das ist so eine KI-Recherche-Frage-Antwort-Maschine.
Wolfgang: Zu einem gewissen Grad funktioniert die gut und von der Aufbereitung sieht das
Wolfgang: total vertrauenserweckend aus.
Wolfgang: In meiner Erfahrung ist es aber nicht bei 100% Qualität, weil 60% vielleicht.
Gast: Ja, genau. Und das wird die spannende Herausforderung sein zu sagen,
Gast: du hattest vorhin ja auch gesagt, der Suchmaschine vertraue ich.
Gast: Ja. Das ist ja auch schon eine Prämisse, wo man immer ein bisschen vorsichtig
Gast: sein soll, weil natürlich stehen da auch manchmal Sachen oben,
Gast: die jetzt gefärbt sind. Ja, klar.
Gast: Wann wir an der Stelle sind, dass die KI-basierte Antwort dann ein höheres Vertrauen
Gast: hat als die Suchmaschine, das ist genau, glaube ich, gerade im Moment die Herausforderung.
Wolfgang: Ja, aber ein Gedanken, den ich dazu noch habe, ich finde es ein bisschen gefährlich, denn dadurch,
Wolfgang: dass mir ChatGPT so einen Text formuliert, der ja schon auch so wirkt,
Wolfgang: als ob der menschlich geschrieben ist,
Wolfgang: ist hier schon auch, glaube ich,
Wolfgang: so ein gewisses, so ein implizites Vertrauen bei vielen Menschen schon da.
Gast: Absolut.
Wolfgang: Also wenn ich schon so einen Text sehe, hey, guck mal, vorhin ist es passiert,
Wolfgang: bla bla bla bla, dann denke ich mir, ach joch, wenn das da steht,
Wolfgang: das sieht so schlüssig aus irgendwie.
Gast: Ja, absolut. Also das ist, glaube ich, das Riesenproblem im Moment,
Gast: wobei ich das Gefühl habe, das ist auch schon besser geworden,
Gast: weil im ersten Schritt sieht das alles vertrauenserweckend aus.
Gast: Also auch das Thema Quellen, was du angesprochen hattest. Es gab ja auch am
Gast: Anfang dann Beispiele davon, wo Quellen einfach generiert wurden, die es gar nicht gab.
Gast: Also es sah eben vertrauenserweckend aus, hier gibt es ein Paper und das war
Gast: eine Referenz dann auf ein Paper oder auf eine Webseite, wo es Papers gab,
Gast: aber es gab das Paper gar nicht, was referenziert wurde.
Gast: Und dieses ganze Thema sieht erstmal so vertrauenserweckend aus, aber ist es nicht.
Gast: Das hat sich, glaube ich, schon gebessert. Also die Menschen sind vorsichtiger
Gast: geworden, weil eben auch sehr viel darüber berichtet und geschrieben wurden.
Gast: Aber sich dieses Vertrauen zu erarbeiten dann, das glaube ich kein ganz kurzer Weg.
Gast: Also das sehe ich auch im Moment, dass das nicht so schnell gehen wird.
Gast: Ein Beispiel, also eine Anekdote eigentlich nur, ich hatte öfter mir mal auch
Gast: Texte generieren lassen dann, um zu sehen jetzt zu einem bestimmten Thema,
Gast: um zu recherchieren und ich hatte immer so diese Assoziation dann,
Gast: ja das ist ein Text so, wie ich das in der Schule erwarten würde,
Gast: wenn jemand über das Thema nicht so richtig Bescheid weiß, wenn man so ein bisschen
Gast: anfängt dann außenrum zu reden und um den Lehrer zu beeindrucken,
Gast: obwohl man es eigentlich nicht richtig verstanden hat,
Gast: was das Thema im Kern bedeutet. Und das ging mir sehr oft so.
Gast: Also das bessert sich allmählich, aber das ist eben auch ein langer Weg,
Gast: dahin zu kommen, dass es nicht nur schön aussieht, sondern dass es inhaltlich auch solide ist.
Wolfgang: Also du beschreibst gerade mein Erfolgsrezept in der Schule damals.
Gast: Ja, also es ist ja auch ein beliebter Weg, wenn man eben dann die Frage nicht
Gast: beantworten kann, dann fängt man eben an, viel Text zu schreiben.
Gast: Und das ist dieser Reflex, den ich manchmal merke dann auch.
Wolfgang: Hat auch in mündlicher Prüfung so gut funktioniert, bis der Lehrer irgendwann
Wolfgang: sagte, ja Wolfgang, jetzt komm mal bitte auf den Punkt.
Wolfgang: Ja, vielleicht brauchen wir einfach mehr Regeln, wenn es um KI geht.
Wolfgang: Und das ist meine Überleitung auf den Mai.
Wolfgang: Da hattest du nämlich auch ein KI-Thema und zwar Künstlerische Intelligenz und
Wolfgang: Digitalisierung in Deutschland und in Europa.
Wolfgang: Da ging es auch um den EU-KI-Act.
Wolfgang: Und ja, kannst du da mal vielleicht zusammenfassen, was da so deine Gedanken waren damals?
Gast: Genau, also zu dem Zeitpunkt war es eben so, dass der EU-AI-Act ja dann auch
Gast: verabschiedet wurde und dadurch eine größere Diskussion da war,
Gast: wie viel wird das helfen dann?
Gast: Wie viel ist das jetzt nur eine realitätsfremde Regelung?
Gast: In der Auslegung ist es in der Folge noch immer schwierig dann.
Gast: Also auch die Frage, wen muss ich wie, wann schulen beispielsweise im Umgang mit AI.
Gast: Wir hatten ja auch schon angesprochen, also diese Frage, wie stark vertraue ich eben?
Gast: Na, KI steht ja da auch mit drin. Auch die Unterscheidung zwischen den verschiedenen
Gast: Modellen, die dort drinsteht, ist eben auch eine schwierige Diskussion,
Gast: ob es diese Unterscheidung wirklich auch in der technischen Realität dann gibt.
Gast: Das hat diese große Diskussion eben auch nochmal befeuert, was sehr gut war zu dem Zeitpunkt.
Gast: Und die begleitet uns aus meiner Sicht seitdem auch immer wieder.
Gast: Also es geht ja auch darum, was wir vorhin auch schon angesprochen hatten,
Gast: die Datennutzung, also woher kommen die Daten?
Gast: Ist das eigentlich rechtlich auch sauber? Also immer wenn es um Bilder beispielsweise geht, wird es ja,
Gast: Sehr schweigsam dann auch, auf welchen Bilddaten dann alles trainiert wurde.
Gast: Und dieses Thema begleitet uns seitdem verstärkt.
Gast: Und das ist auch aus meiner Sicht zumindest ein Erfolg, dass es jetzt diese
Gast: Regelung gibt. Und dann auch, ich würde es ein bisschen analog sehen,
Gast: wie bei der DSGVO damals.
Gast: Da ist sicher eine längere Diskussion vorher dem Ganzen vorangegangen und ich
Gast: würde es auch als Erfolgsstory im Rückblick sehen.
Gast: Bei dem EU-AI-Act war es eine kürzere Diskussion zu einem unübersichtlicheren Thema nochmal dann.
Gast: Aber es hat die Diskussion eben angestoßen und es wird auch weltweit über diesen Kontext gesprochen.
Gast: Also, wo ich es auch immer wieder sehe, ist das Jan Lequin von Meta.
Gast: Immer wieder darüber postet, eben was der EU AI Act eben bedeutet für Open Source,
Gast: KI-Modelle, wie er das einschätzt.
Gast: Und das ist dadurch befeuert, eben dass es dieses Thema überhaupt gibt und dass
Gast: es als die europäische Position gesehen wird.
Gast: Wenn es diese Einigung auf diesen Gesetzakt nicht gäbe, dann würde Meta wahrscheinlich
Gast: mit einzelnen Staaten oder überhaupt nicht mit den Europäern reden.
Gast: Von da ist es, glaube ich, ein ganz wichtiger Startpunkt dann,
Gast: auch wenn ganz viel interpretationswürdig ist.
Wolfgang: Ja, würdest du generell unseren AI-EU-Act positiv einordnen, dass wir sowas haben?
Gast: Dass wir was haben, würde ich positiv einordnen. Grundsätzlich,
Gast: wie in der Praxis welche Auswirkungen er haben wird, werden wir erst im nächsten Jahr so richtig sehen.
Gast: Dann werden sich Dinge daran orientieren müssen auch.
Gast: Er stellt die richtigen Fragen oder stellt die richtigen Themen auch in den
Gast: Mittelpunkt, worüber er mal reden muss.
Gast: Aber ob er jetzt ein Erfolgserlebnis wird, würde ich sagen...
Gast: Wird sich erst zeigen. Es ist ein wichtiger Diskussionsbeitrag und ich glaube zumindest Stand heute,
Gast: dass er jetzt nichts ausbremst in dem Sinne, dass wir sagen,
Gast: dass in Europa bestimmte Dinge gar nicht gemacht werden dürfen.
Wolfgang: Ja, mich hat es halt ein bisschen so erinnert an die große Diskussion,
Wolfgang: die wir auch mit der DSGVO hatten.
Wolfgang: Da gab es ja auch viele Stimmen, die dann gesagt haben, das ist einfach hier
Wolfgang: Gift für den Innovationsmotor in Europa.
Wolfgang: Auch jetzt mit dem AI-Act hat man vor allem aus Übersee gehört,
Wolfgang: dass es natürlich jetzt schwierig ist, wenn es jetzt irgendwelche Regularien gibt in Europa.
Wolfgang: Man hat es aber auch in Deutschland gehört, ein bisschen aus der Wirtschaft,
Wolfgang: aus manchen politischen Ecken,
Wolfgang: dass das jetzt natürlich auch wieder so ein typisches europäisches oder auch
Wolfgang: deutsches Ding ist, dass wir hier keine Innovation zulassen,
Wolfgang: weil wir jetzt halt keinen wilden Westen hier mehr erlauben.
Gast: Ja, absolut. Wobei man ehrlicherweise natürlich sagen muss, an der Stelle wird
Gast: global sehr viel mehr diskutiert, auch sowieso schon über KI und Ethik.
Gast: Also es gibt ja auch in Amerika die großen Diskussionen darüber immer wieder,
Gast: dass wenn wir mal eine generelle künstliche Intelligenz erreichen,
Gast: ob man da außenrum dann Rahmenbedingungen bauen muss.
Gast: Also in dem Einsatz einer künstlichen Intelligenz.
Gast: Das heißt, die Diskussion, die gibt es im Gegensatz, würde ich zumindest sagen,
Gast: bei der Data-Privacy-Diskussion war das schon eher, dass es in Europa stark
Gast: dann in die Welt rausgeschwappt ist.
Gast: Das ist sowieso jetzt im Moment eine globale Diskussion.
Gast: Europa hat jetzt einen Stand mal festgelegt.
Gast: Aber auch in Amerika gibt es beispielsweise Tendenzen, darüber zu sprechen,
Gast: brauchen wir eine KI-Gesetzgebung.
Gast: Also das unterscheidet es ein bisschen an der Stelle dann.
Gast: Und von daher glaube ich, dass es im Moment eben nichts bremst.
Gast: Vor allem im Hintergrund auch, dass die großen Themen, wir hatten es ja vorhin
Gast: schon angesprochen, die großen Modelle im Moment sowieso eher amerikanischer
Gast: Natur sind. Also es gibt in Europa wenige Firmen, die auf diesem Level mitspielen.
Gast: Das ist eben Mistral in Frankreich dann auch, die ihre Modelle Open Source veröffentlichen.
Gast: Natürlich wird mit den Lama-Modellen auch in Europa sehr viel gemacht,
Gast: eben die als Open Source bereitstehen.
Gast: Es gibt Aleph Alpha, die sich aber jetzt auf den öffentlichen Bereich konzentrieren
Gast: dann und speziell Modelle trainieren
Gast: und jetzt kein allgemein zugängliches Modell mehr bereitstellen.
Gast: Und auch die Firmen, die es bei uns gibt, wie beispielsweise Black Forest Labs,
Gast: die Flux als Bildgenerator bereitgestellt haben und die auch eine Historie haben,
Gast: die Leute hinter Black Forest Labs, die werden vor allem amerikanisch auch finanziert.
Gast: Und der erste Einsatzort zumindest, den ich jetzt mitbekommen habe,
Gast: war ja auch bei Twitter-Ex, dann wo eben Flux auch eine sehr kontroverse Diskussion,
Gast: da sind wir wieder bei einem Ethik-Thema zurück,
Gast: befeuert hat, weil der Bildgenerator bei Ex dann ja kaum Schränkungen hatte.
Gast: Er konnte ja wirklich alles dann fotorealistisch generieren.
Wolfgang: Es ist ein Problem für uns Europäer, dass wir da nicht so viel Geld in die Hand genommen haben?
Gast: Es ist, glaube ich, aus meiner Sicht eine Verlängerung davon,
Gast: dass wir das traditionell uns schwer tun als Europäer, jetzt große IT-Firmen
Gast: dann auch mit viel Geld auszustatten.
Gast: Also es gab immer wieder Ansätze, aber aktuell ist es so, Spotify ist natürlich ein großer Player da.
Wolfgang: Schweden, oder?
Gast: Genau, der europäisch ist, aber wir haben wenig große IT-Konzerne und in dem
Gast: Kontext ist das ganze Thema passiert in der Tech-Szene.
Gast: Und auch wenn man sich anschaut, wo die verschiedenen Firmen herkamen,
Gast: Mistral sind, soweit ich weiß, auch Leute, die aus dem Google-Universum mal kamen.
Gast: Also da gibt es immer Anknüpfungspunkte zu den großen Tech-Firmen und dann unsere
Gast: Firmen groß zu machen, viel zu investieren, ist meistens auch amerikanisches
Gast: Venture-Kapital, muss man sagen.
Wolfgang: Ja, ich überlege gerade, also so richtig große Weltkonzerne.
Wolfgang: Ich meine, klar, wir haben sowas wie SAP in Deutschland, in Europa,
Wolfgang: aber wenn man es jetzt mal vergleicht,
Wolfgang: allein schon mit den großen Hyperscalern, die wir in den USA haben,
Wolfgang: da haben wir nicht wirklich was in der Dimension einfach hier in Deutschland oder in Europa.
Gast: Ja, man muss natürlich auch ehrlicherweise noch sagen, wir reden immer von den
Gast: amerikanischen Konzernen, wenn es uns passt, aber so ein Konzern wie Google
Gast: oder Microsoft sind ja auch global.
Gast: Ja, das Headquarter ist dort, aber bei Google ist es so, die haben enorm viele
Gast: Rechenzentren in Europa,
Gast: die haben in der Schweiz ihr großes Forschungszentrum dann, wo auch sehr viel
Gast: um KI eben auch immer rum passiert ist.
Gast: Also das sind ja globale Konzerne, muss man auch ehrlicherweise sagen.
Wolfgang: Ja, das stimmt.
Wolfgang: Ja, jetzt haben wir gerade schon ein bisschen über Ethik und so gesprochen,
Wolfgang: Christian, und ich glaube, da
Wolfgang: könnten wir wahrscheinlich sehr gut mit dem Thema vom Oktober anknüpfen.
Wolfgang: Da gab es bei dir nämlich zwei Dinge, zum einen KI-Risiken und das Thema Notebook LM.
Gast: Genau, also KI-Risiken war ganz spannend.
Gast: Ich hatte damals einen Talk gesehen von Eva Wolfangel, die über Chatbots Talk
Gast: Too Much gesprochen hatte,
Gast: also darüber dann, wie man als investigative Journalistin einfach mit Chatbots kommunizieren kann,
Gast: eben dadurch, dass man einfach nur Sprache verwenden kann.
Gast: Das ist ja der Riesenvorteil, jeder kann das erstmal dann und an die Stelle
Gast: kommen kann, dass Dinge ausgeplaudert werden, die eigentlich so nicht geplant waren dann auch.
Gast: Das ist natürlich sehr stark in dieser Anfangszeit jetzt zu finden gewesen,
Gast: weil es oft so war, dass natürlich die Sicherung dieser Chatbots gegenüber unwissentlichem
Gast: Ausplaudern von zum Beispiel Prompts oder Initial Prompts nicht besonders stark war.
Gast: Aber es war ein sehr unterhaltsamer Talk, den sie in ähnlicher Form auch letztes
Gast: Jahr auf dem 37C3-Kongress gehalten hat.
Gast: Und den fand ich nochmal ganz spannend, weil man einfach gesehen hat.
Gast: Dadurch, dass wir jetzt natürliche Sprache verwenden, ist es erstmal für jeden zugänglich.
Gast: Und jeder kann damit auch experimentieren.
Gast: Und jeder kann auch die Schwachstellen dann in den Chatbots,
Gast: also gerade Chatbots, die jetzt spezialisiert sind, die auf Homepages beispielsweise
Gast: von Unternehmen eingesetzt werden, kann eben versuchen, die umzugehen.
Gast: Da gab es ja viele Geschichten auch dann, dass Dinge, Flüge verkauft wurden
Gast: für Preise, die es gar nicht so gab und so weiter.
Gast: Und das ist einfach dieser Phase im Moment geschuldet, dass wir da noch sehr am Anfang stehen.
Gast: Und dadurch, dass es dynamisch ist, die Entwicklung, dass die Sicherung dieser
Gast: ganzen Chatbots eben noch nicht sehr weit fortgeschritten ist.
Gast: Und ein anderes spannendes Thema war das Thema, was wir vorhin schon mal angesprochen
Gast: hatten, Vertrauen dann auch in solche Experimente und wir sehen ganz stark,
Gast: dass es in der Akzeptanz eben immer wieder sehr schwierig ist.
Gast: Es gab dieses Experiment in Polen, wo ein polnischer Radiosender einfach mal
Gast: offiziell auch angekündigt hat, dass er die Moderatoren durch Personas,
Gast: KI-basierte Personas ersetzt hat und dann die Moderation durch diese Radiomoderatoren durchgeführt hat.
Gast: Und da gab es eine riesen Diskussion dann in Polen, obwohl das jetzt kein großer
Gast: Sender war, aber einfach dadurch,
Gast: dass das jetzt jemand auch konsequent ausprobiert und die Reaktionen dann sich
Gast: anschaut, hat man eben gesehen,
Gast: dass diese Akzeptanz an der Stelle, auch wenn es technisch gut aussieht und
Gast: auch wenn das alles Sinn macht, eben noch nicht gegeben ist.
Gast: Und das hat man ja vorhin auch schon angesprochen, das wird eine große Fragestellung
Gast: sein, der nächsten mehreren Jahre, glaube ich, dieses Vertrauen aufzubauen,
Gast: zu sagen, ja, wenn ich dann so ein Experiment durchführe,
Gast: dann bekomme ich auch eine Akzeptanz dafür und das wird nicht daran scheitern,
Gast: dass die Leute sagen, ja, nee, das können wir, das ist zu radikal.
Wolfgang: Ja, ich glaube Vertrauen ist ein immens wichtiges Thema.
Wolfgang: Also gerade was du gerade angesprochen hast wegen diesem Radiocenter in Polen.
Wolfgang: Ich erinnere mich an was ähnliches in diesem Jahr aus den USA.
Wolfgang: Ich glaube das war auf Hawaii ein kleiner TV-Sender und dort wurden halt auch
Wolfgang: die Moderatorin und der Moderator durch so KI-Avatare ersetzt.
Wolfgang: Und ich habe mir das angeschaut im Internet und das sah schon sehr realistisch aus.
Wolfgang: Also man hat es jetzt nicht gemerkt, also auf den ersten Blick zumindest nicht,
Wolfgang: dass das keine echten Menschen sind.
Wolfgang: Irgendwann wurde dann klar, dass die von der Bewegung schon eher so eingeschränkt
Wolfgang: sind und ein echter Mensch sich vielleicht auch von der Gestik her noch anders
Wolfgang: oder vielfältiger bewegen würde.
Wolfgang: Aber das sah gut aus, gab aber auch einen riesen Aufschrei und das wurde dann
Wolfgang: auch wieder abgeschafft.
Wolfgang: Vertrauen ist wichtig. Ich glaube, für uns Menschen ist es halt immer irgendwo
Wolfgang: wichtig, Dinge nachvollziehen zu können, wie Dinge funktionieren.
Wolfgang: Und das ist, finde ich, gerade bei KI-Themen so ein generelles Problem.
Wolfgang: Ich habe mich dieses Jahr auch mal mit meiner Kollegin oder mit unserer Kollegin
Wolfgang: Alina unterhalten über das Thema Human-Centric Explainable AI.
Wolfgang: Sehr langes Wort. Und ich bin stolz, dass ich es ohne Fehler aussprechen konnte.
Wolfgang: Da gibt es auch einen Podcast.
Wolfgang: Kann man gerne mal reinhören, denn bei ihr in ihrer Arbeit geht es halt auch
Wolfgang: genau darum, wie kann ich eine AI oder AI-basierte Systeme so gestalten,
Wolfgang: dass die User auch ohne ganz tiefes Fachwissen verstehen, was da passiert.
Wolfgang: Wie können User leicht verifizieren, dass das auch korrekt ist,
Wolfgang: was da rauskommt und es eben halt nicht nur eine Blackboard ist.
Gast: Absolut, ja. Ja, also sehr spannendes Thema, hatte ich über das Jahr auch verfolgt
Gast: eben, was Alina da in ihrer Arbeit auch gemacht hat.
Gast: Und dieses Human Centered eben,
Gast: was jetzt ja auch in dem Wort schon drinsteckt, das ist auch ein Gedanke,
Gast: den ich immer wieder jetzt gerade im zweiten Halbjahr gehört habe und wo ich
Gast: persönlich auch denke, das ist so die zentrale derzeitige Botschaft.
Gast: Also nicht die Fragestellung, wie ersetzt KI den Menschen vollständig in bestimmten Bereichen,
Gast: sondern wie kann KI den Menschen unterstützen, eben human centred und was sind
Gast: die sinnvollen Use Cases, wo es diese Unterstützung dann auch verlässlich hinbekommt,
Gast: also sodass man auch vertrauen kann.
Gast: Und Vertrauen ist auch immer ganz spannend, weil beim Thema Vertrauen hatte
Gast: ich auch gelesen eben dann,
Gast: dass wenn man der KI dann für einen bestimmten Use Case eben vertraut,
Gast: dann ist es auch ab einer gewissen Stelle gar keine KI mehr,
Gast: weil es ist was Selbstverständliches, es funktioniert immer, es ist zuverlässig.
Gast: Dann empfindet man das gerade auch mehr als künstliche Intelligenz,
Gast: weil es ist ganz normal eben, dass es so funktioniert.
Wolfgang: Ja, ein Beispiel von mir ist beispielsweise die Foto-App auf meinem Handy.
Wolfgang: Ich habe viele Fotos auf dem Handy und mit KI werden die Bilder klassifiziert
Wolfgang: und ich kann da eine Suche durchführen. Ich kann eingeben Weihnachtsmarkt und
Wolfgang: ich finde dann Bilder vom Weihnachtsmarkt von den letzten Jahren.
Wolfgang: Oder ich kann auch Bilder suchen, wo bestimmte Personen drauf sind.
Wolfgang: Und ja klar, das KI, die da im Hintergrund performt und die Bilder klassifiziert,
Wolfgang: das ist heute für mich aber was Selbstverständliches.
Wolfgang: Und ich denke da nicht drüber nach. Ich habe da auch keine, in Anführungszeichen,
Wolfgang: Angst oder Hemmung irgendwie.
Wolfgang: Und das ist was, was genau, wie du es gesagt hast, selbstverständlich geworden ist.
Gast: Genau, also es gab jetzt diesen Foliensatz eben zu AI is the world,
Gast: eigentlich ja genau unser Thema dann.
Gast: Und da stand eben dieses Zitat drin, was ich da auch eben sehr spannend fand.
Gast: When automation works, it disappears. Also wenn die Automatisierung eben dann
Gast: so vollständig ist, dass ich mich darauf verlassen kann, dann nehme ich das
Gast: auch gar nicht mehr als Automatisierung in irgendeiner Form.
Gast: Ja, und das ist definitiv so. Und es gibt einige Bereiche, in denen das sich schon abzeichnet.
Gast: Du hattest eben das Beispiel der Bilder angesprochen, aber auch so Themen wie Übersetzung.
Gast: Also ich persönlich bin bei Übersetzung nimmer so skeptisch,
Gast: dass ich oft hin- und herschalten muss zwischen Originalseite,
Gast: also bei Sprachen, die ich jetzt auch einigermaßen verstehe,
Gast: und der Übersetzung, weil das einfach so zuverlässig inzwischen geworden ist,
Gast: dass zumindest der Kern auf jeden Fall transportiert wird.
Gast: Und selbst die Formulierungen in der Übersetzung sind oft sehr gut.
Wolfgang: Ja, das stimmt auf jeden Fall. Übersetzungen haben die letzten fünf,
Wolfgang: sechs Jahre richtig zugelegt.
Wolfgang: Also ich erinnere mich noch an den Google Translator von vor zehn Jahren oder so.
Wolfgang: Da kam dann teilweise so ein Quatsch raus, dass es ja auch lustig war,
Wolfgang: sich irgendwelche englischen oder deutschen Texte dann in jeweils andere Sprache zu übersetzen.
Gast: Absolut. Und inzwischen liest sich das auch flüssig. Also inzwischen gibt es
Gast: ja auch sehr oft die Empfehlung auch wirklich von Betreuenden dann,
Gast: wenn man irgendwie eine Arbeit schreibt und der Abstract ist in Deutsch geschrieben
Gast: und man muss den dann noch Englisch einreichen,
Gast: nimmt eben automatische Übersetzungen, weil das ist gut genug dann für diesen
Gast: Kontext, bevor sich Leute, die eben nicht oft Englisch schreiben,
Gast: beispielsweise einen abbrechen und jetzt einen Abstract übersetzen.
Wolfgang: Ja, also wenn du halt nicht geübt bist, dann ist deine händische Übersetzung
Wolfgang: definitiv schlechter, weil die Grammatik halt dann nicht passt.
Gast: Absolut, ja. Und deswegen, das ist so ein Beispiel auch, wo ich sagen würde,
Gast: when automation works, it disappears.
Gast: Da sind wir an der Stelle, dass es bald passieren wird.
Gast: Genau. Anderes Beispiel, wo ich es noch nicht ganz so sehe, ist so Textzusammenfassung.
Gast: Je nachdem, also wenn ich einen längeren Text habe und lasse mir den zusammenfassen,
Gast: dann ist es so ein bisschen unterschiedlich, ob ich, ich habe nicht immer das
Gast: Gefühl, dass die Schwerpunkte, die der Autor, die Autorin gesetzt hat im Text immer abgebildet sind.
Gast: Das ist ein bisschen Hit und Mist aus meiner Sicht dann. Also ich weiß nicht,
Gast: was deine Erfahrung da ist, aber das ist natürlich einer der Kernbereiche eben
Gast: der aktuellen KI, dann auch Texte zusammenzufassen und da bin ich noch nicht immer so überzeugt.
Gast: Also das ist für mich nicht selbstverständlich, um es mal so zu sagen.
Wolfgang: Ja, sehe ich ähnlich. Also Texte zusammenfassen oder wenn man vielleicht nochmal
Wolfgang: den Sprung macht zu Generative AI Texte generieren, ist für mich aktuell auch
Wolfgang: eher in so einem experimentellen Stadium.
Wolfgang: Ich lese zwar oft, dass Leute pro Woche 20 Stunden Zeit sparen durch KI generierte
Wolfgang: Texte, die ihnen die Arbeit erleichtern.
Wolfgang: Den Effekt habe ich noch nicht. Ich probiere das regelmäßig aus.
Wolfgang: Wir haben hier bei InnoVex auch den InnoVex-Chatbot, der auf OpenAI basiert
Wolfgang: und wenn ich jetzt mal im Job irgendwie Texte schreiben muss,
Wolfgang: dann hole ich mir da auch gerne mal Inspiration.
Wolfgang: Ich habe es aber noch nicht erlebt, dass ich irgendwie mir eine Seite Text generieren
Wolfgang: lasse und die ist gut und ich verwende die so weiter. Das ist oftmals so ein
Wolfgang: bisschen viel um heißen Brei rumgeredet.
Wolfgang: Von den Formulierungen, das ist immer so ein bisschen ähnlich und halt genau
Wolfgang: so, wie ich es nicht machen würde.
Gast: Ja, also kann ich absolut bestätigen, geht mir auch so.
Gast: Also wenn ich mir mal einen kompletten Text und sei es nur ein kurzer Text über
Gast: ein paar Absätze generieren lasse,
Gast: dann ist es immer schon im ersten, zweiten Satz, im dritten Satz irgendwo was,
Gast: wo ich sage, ah, das stört mich, das ist jetzt nicht das, was ich,
Gast: wie ich es gern formulieren würde oder es wiederholt sich, so wie du gerade angesprochen hast.
Gast: Also dass ich einen Text dann für mehr als Inspiration genommen habe,
Gast: ist mir auch bisher noch nicht passiert.
Gast: Irgendwas hat mich dann immer gestört.
Wolfgang: Ich glaube, das liegt ganz stark dran, wie erfahren oder wie gut du in was bist.
Wolfgang: Also es gibt ja so viele Bereiche, so Code-Generierung, normalen Text generieren, Bilder generieren.
Wolfgang: Bei mir ist es so, ich bin künstlerisch nicht sehr begabt. Also ich sage mal, es ist überschaubar.
Wolfgang: Ich kann gut mit Stockfotos hantieren.
Wolfgang: Und wenn ich mal für eine Illustration mal ein Bild brauche und ich finde in
Wolfgang: meiner Stockfotodatenbank nichts, dann finde ich es auch in Ordnung, mir was zu generieren.
Wolfgang: Das ist immer viel, viel besser als alles, was ich selbst machen kann.
Wolfgang: Bei Code habe ich dieses Jahr viel experimentiert. Ich programmiere ja nicht
Wolfgang: mehr hauptberuflich, aber im Hobbybereich schon noch.
Wolfgang: Habe da viel experimentiert, weil ich es auch gehört habe, hey,
Wolfgang: du kannst so viel Zeit sparen.
Wolfgang: Ich dachte mir, hey, wenn ich in meiner Hobbyzeit vielleicht irgendwas programmieren
Wolfgang: möchte und ich kann da viel Zeit sparen, das ist ja doppelt so gut eigentlich,
Wolfgang: war ich nicht so extrem begeistert.
Wolfgang: So am Anfang war es cool, weil du hast erstmal Code und der kompiliert auch
Wolfgang: und im Detail passt er aber dann nicht. Das heißt, du brauchst schon noch die
Wolfgang: Expertise, um den zu bewerten und du hast natürlich auch keinen Test.
Wolfgang: Wobei, natürlich, du kannst auch einen Test generieren, aber wenn die KI mir
Wolfgang: das Code und Test generiert, naja, ich weiß nicht, ob das dann vielleicht so gut ist.
Wolfgang: Aber da habe ich es gemerkt, an manchen Bereichen, wenn es so Boilerplate-Code
Wolfgang: war, war das schon okay. Aber im Detail musste ich da schon viel Hand anlegen.
Wolfgang: Und bei Text ist es so, das mache ich halt beruflich ziemlich viel.
Wolfgang: Da würde ich mich auch als ziemlich gut einordnen. Und dann merke ich halt einfach,
Wolfgang: das ist nicht so, wie ich es eigentlich für mich selber erwarte.
Gast: Also was ich an der Stelle immer noch eine ganz spannende Metrik finde,
Gast: ist auch, wie viel Zugang man selbst zu diesem Thema hat. wie lästig das vielleicht auch ist.
Gast: Also ein Beispiel, was in die Richtung geht, die du auch gerade angesprochen hast.
Gast: Ich würde mir vielleicht kein Code generieren lassen, aber Dokumentation zu
Gast: diesem Code generieren lassen, weil das ist oft ja nicht der Teil,
Gast: den man besonders schätzt dann und wo man auch damit leben kann, wenn die Dokumentation,
Gast: jetzt nur okay ist, weil solange sie keine Fehler enthält, dann würde ich sagen,
Gast: ja, den Code schreibe ich selbst, aber die KI lasse ich dann eben,
Gast: weil es ein bisschen lästig auch ist,
Gast: den Code dokumentieren beispielsweise oder eben zusätzliche Dokumentation generieren lassen.
Gast: Also das wären Dinge. Oder ein anderes Beispiel, was du eben auch schon angesprochen
Gast: hast, Test Cases ist ja auch nicht oft nicht das beliebteste Thema dann.
Gast: Also zumindest mal als Ausgangspunkten zu sagen, ja, das ist der Code,
Gast: den habe jetzt ich geschrieben, weil ist mir auch wichtig und da lege ich auch Wert drauf.
Gast: Aber für die Tests mach mal einen Vorschlag dann an der Stelle,
Gast: dass das, glaube ich, ein ganz wichtiger Auslöser.
Gast: Und das ist bei Text, wo wir es vorhin von hatten, wahrscheinlich ganz ähnlich.
Gast: Wenn ich keinen Zugang zu Text habe und sage, Text, ich muss jetzt leider Text
Gast: schreiben, ist mir eigentlich egal, wie der aussieht dann, dann habe ich da
Gast: auch weniger Skrupel, um es mal so zu sagen.
Wolfgang: Ja, was heißt ein Skrupel? Dann ist es vielleicht einfach auch ein wertvolles
Wolfgang: Tool, wenn du den Text schreiben musst und sagst, boah, ich will damit jetzt
Wolfgang: keinen Pulitzer-Preis gewinnen, aber ich muss das jetzt irgendwie schreiben
Wolfgang: und du generierst dir was und hast damit mal schon so ein Grundgerüst und sagst, okay,
Wolfgang: da gehe ich jetzt nochmal drüber, die Formulierung ist nicht gut,
Wolfgang: hier passe ich noch was an und dann sind vielleicht 50 Prozent von der AI und
Wolfgang: 50 Prozent sind von mir selber, dann ist es am Ende wahrscheinlich immer noch
Wolfgang: besser, als wenn du es komplett alleine machst, weil es sonst vielleicht sehr holprig ist.
Wolfgang: Dann ist es gut. Ich glaube, es kommt immer so ein bisschen individuell drauf an.
Wolfgang: Und ich glaube schon, dass es viele Use Cases gibt, wo du individuell davon profitieren kannst.
Wolfgang: Also eine Sache, die ich mal dieses Jahr ausprobiert habe mit einer AI war,
Wolfgang: oder es war auch mit ChatGPT.
Wolfgang: Ich habe so Minified JavaScript Code genommen und habe den mal reingeworfen
Wolfgang: und habe gesagt, hey, hier ist mein JavaScript Code, erklär mir den doch mal bitte.
Wolfgang: Und ja, ich könnte das auch selbst, wenn ich mir da zwei Tage Zeit nehme und
Wolfgang: extrem viel Kaffee trinke, dann könnte ich den auch selber analysieren und reverse-engineeren.
Wolfgang: Aber das hat gut funktioniert.
Wolfgang: Also Chad Chippity hat mir den schön formatiert, hat mir den erklärt.
Wolfgang: Und das war nicht perfekt, aber es hat mir gereicht, um zu verstehen,
Wolfgang: was passiert da eigentlich.
Wolfgang: Und das sind auch so Use Cases, wo ich sage, da profitiere ich enorm von.
Gast: Genau, und das geht ja auch in die Richtung, die wir eben auch angesprochen
Gast: hatten, zu sagen, ja, ist das human-centered, also es erweitert das,
Gast: was ich tun kann und möchte auch dann beispielsweise.
Gast: Und das ist genau dieser Begriff, der eben schon lange existiert,
Gast: der auch aus diesem Thema eigentlich ursprünglich mal kommt von Cyborgs eben,
Gast: dass ich meine Fähigkeiten als Mensch dann auch erweitern kann.
Gast: Augmented Intelligence und das geht ja genau in die Richtung zu sagen,
Gast: ja, also ich habe eben gewisse Fähigkeiten, bei denen bin ich gut,
Gast: da brauche ich jetzt wenig Unterstützung vielleicht auch, ein Review,
Gast: was auch immer möglich ist, aber da habe ich auch einen hohen Qualitätsanspruch.
Gast: Es gibt aber Dinge, die kann ich einfach nicht und da brauche ich einen Ausgangspunkt
Gast: oder zumindest mal irgendeine Form von Startpunkt dann, du hattest vorhin das
Gast: mit den Bildern angesprochen, jetzt in deinem Fall,
Gast: und damit erweitere ich meinen, Meine Möglichkeiten einfach.
Gast: Und ich bin auch immer im Zentrum als Mensch, aber ich habe eben viel mehr Möglichkeiten,
Gast: als ich es jetzt früher hatte.
Gast: Und das ist so für mich der zentrale Punkt, wo ich auch glaube,
Gast: über die nächsten Jahre wird sich KI hin entwickeln.
Gast: Weniger den Menschen zu ersetzen, sondern zu sagen, ja, er gibt mir weitere
Gast: Hilfsmittel in die Hand, eben um mehr Dinge tun zu können, die ich jetzt persönlich nicht kann.
Gast: Und weil ich vielleicht auch niemand einfach zugänglich habe.
Gast: Wo ich es nämlich auch als Beispiel, weil wir es vorhin auch schon kurz angesprochen
Gast: hatten, immer wieder gesehen habe, in dieser Home Assistant Community ist es
Gast: ja so, dass es viele Leute gibt, die Heimautomatisierung eben dann keine Erfahrung drin haben.
Gast: Und da sich erste Entwürfe geben zu lassen und zu sagen, ja,
Gast: ich fange jetzt damit mal an, gib mir mal eine Automatisierung und ich bastle darum,
Gast: dann bis die genau meinen Use Case trifft mit der mangelnde Erfahrung,
Gast: die ich eben auch habe, dann dafür ist es eben super geeignet,
Gast: weil es erweitert eben das, was ich in der Lage bin, eben auch abzubilden.
Wolfgang: Also ich finde den Gedanken total gut und positiv, denn das ist auch so ein
Wolfgang: bisschen so eine Liberalisierung.
Wolfgang: Also alle Menschen können durch solche KI-Geschichten so die gleichen Skills
Wolfgang: haben oder was heißt vielleicht nicht die gleichen, aber die Skills,
Wolfgang: die bei ihnen halt nicht so stark sind, verbessern.
Wolfgang: Also du hast Lust zu programmieren, du kannst das aber nicht,
Wolfgang: du kannst dir was generieren lassen oder du kannst vielleicht auch von einem
Wolfgang: Chatbot sagen, hey, bring mir doch mal irgendwie bei, wie ich folgendes mache.
Wolfgang: Oder Heimautomatisierung, du weißt nicht, wie das funktioniert,
Wolfgang: hast du aber Lust drauf und für deinen privaten Gebrauch reicht es ja auch aus.
Wolfgang: Das ist ja nichts, was dann irgendwie in Production geht und irgendwo kommerziell vermarktet wird.
Wolfgang: Oder du hast zuhause den C64 und hast Lust da was dafür zu programmieren,
Wolfgang: kannst du ja auch C64 Basic Code generieren lassen von JetGP,
Wolfgang: die wir auch schon ausprobieren.
Wolfgang: Das ist cool, da kommen so ganz starke 80er Jahre Vibes wieder auf.
Wolfgang: Und dafür finde ich sowas großartig und wenn wir mal in die Zukunft denken und
Wolfgang: sagen, okay, ich habe mein Smartphone, da ist vielleicht auch eine leistungsstarke
Wolfgang: KI drauf und die hilft mir im Alltag.
Wolfgang: Die hilft mir im Alltag in Situationen, wo ich allein nicht weiter weiß,
Wolfgang: finde ich das großartig.
Gast: Du hattest es auch schon gerade angesprochen, wo ich auch glaube,
Gast: dass viel passieren wird, ist die individuelle Lernerfahrung durch KI zu verbessern,
Gast: weil du die Möglichkeit hast,
Gast: KI in deinen Lernpfad einzubauen.
Gast: Und es gibt Beispiele, die ich jetzt auch dieses Jahr schon gesehen habe,
Gast: die noch ausbaufähig sind, um es mal so zu sagen.
Gast: Aber ich persönlich bin Duolingo-Benutzer und Duolingo hat jetzt so eine Version,
Gast: wo man auch Konversation mit einer der Figuren, die es bei Duolingo gibt, eben durchführen kann.
Gast: Und diese Konversation ist darauf basiert, dass sie hintendran eben ein Large
Gast: Language Model haben, mit dem sie
Gast: das eben weiterreichen und dann auch die Lernerfahrung individualisieren.
Gast: Also das typische freie Sprechen, was ja immer die riesen Herausforderung ist
Gast: im Rahmen der Sprachenlern-Apps.
Gast: Diese Individualisierung, das wird eben damit eingebaut. Und ich glaube,
Gast: das ist nur ein Beispiel.
Gast: Da wird sehr viel passieren, wo man eben diese Lernpfade individualisiert und
Gast: sagt, so wie wir es eben auch besprochen hatten, es gibt einen Ausgangspunkt
Gast: und an diesem Ausgangspunkt kann ich auch iterativ daran arbeiten und lerne dabei.
Wolfgang: Ja, ein Freund von mir, der nutzt ziemlich viel Chat-GPT, der hat auch diese
Wolfgang: Plus-Subscription und da gibt es in der Mobile-App die Möglichkeit,
Wolfgang: dass du auch Konversationen pflegst.
Wolfgang: Da gibt es eine extrem niedrige Latenz und ich war da schon mal dabei und habe
Wolfgang: das auch mal ausprobiert. Das wirkt sehr, sehr realistisch.
Wolfgang: Du kannst dann Chat-GPT auch unterbrechen, also musst nicht immer warten,
Wolfgang: bis irgendwie die KI fertig ist.
Wolfgang: Ja, und der Freund von mir, der macht das oft beim Autofahren,
Wolfgang: hat oft lange Autofahrten, hat dann einfach so sein Handy dabei,
Wolfgang: hat es dann quasi in sein Auto angeschlossen, dass er halt mit der Freisprechanlage
Wolfgang: dann mit dem Handy reden kann.
Wolfgang: Ja, und der unterhält sich dann einfach mit ChatGBT. Okay, das klingt vielleicht
Wolfgang: auch ein bisschen schräg, wenn man sich das so anhört.
Wolfgang: Ja, aber wenn der irgendwelche Gedanken hat, dann fragt er halt so,
Wolfgang: hey, wie funktioniert denn das oder das? Erklär mir das doch mal.
Wolfgang: Und das ist für ihn so wie ein Podcast halt.
Wolfgang: Aber halt ganz individuell auf so sein aktuelles Interesse. Und das fände ich auch super spannend.
Gast: Ja, also in diesem Bereich explorativ Dinge eben auszuprobieren,
Gast: mal anzutesten, Dinge zu lernen.
Gast: Da sehe ich eben auch ganz großes Potenzial, dass da die nächsten Jahre das
Gast: auch in den ganzen Bereich Ausbildung Einzug bekommt.
Gast: Also es gibt ja auch die große Diskussion an Hochschulen, Universitäten.
Gast: Wenn man Labore hat, wie viel davon wird inzwischen vielleicht schon generiert?
Gast: Und das ist aber auch in Ordnung, weil natürlich ist es ein Hilfsmittel,
Gast: so wie wir gesagt hatten, Augmented Intelligence.
Gast: Wir haben jetzt ein zusätzliches Hilfsmittel, was man mit einbauen sollte dann,
Gast: um beispielsweise auch Code zu schreiben, wenn ich eben diese Lernerfahrung unterstützen möchte.
Wolfgang: Ja, ich meine, wahrscheinlich brauchen wir einfach auch noch eine gewisse Zeit,
Wolfgang: damit die Dinge irgendwie sich auch festigen in der Gesellschaft.
Wolfgang: Genauso wie man eben früher Rechtschreibkorrektur im Schreibprogramm hatte oder
Wolfgang: auch so eine Grammatikkorrektur und das ja auch sicherlich viele Diplomarbeiten
Wolfgang: auf ein anderes Level gehoben hat.
Wolfgang: Ich glaube, genauso wird es auch mit diesen ganzen KI-Sachen sein.
Wolfgang: Wichtig finde ich die Transparenz halt einfach, dass auch klar ist,
Wolfgang: wo man hier eine Unterstützung hatte.
Gast: Genau und wichtig finde ich auch, ich persönlich eben dieses Human Centered,
Gast: dass ich die Kontrolle darüber behalte und dann Sachen transparent und bewusst
Gast: einsetze dann, aber noch immer im Zentrum steht eben,
Gast: was möchte ich erreichen und jetzt nicht die Fragestellung ist,
Gast: wie kann ich mich ersetzen dann in dem Bereich.
Gast: Also das kann auch eine Fragestellung sein natürlich und viele denken da auch drüber nach,
Gast: aber ich persönlich finde es viel spannender, den Bereich anzuschauen,
Gast: wie kann ich meine Möglichkeiten und die Möglichkeiten auch in meiner konkreten
Gast: Lebenssituation dann Dinge zu tun einfach verbessern.
Gast: Und dazu passt eben dieser Augmented Intelligence Begriff sehr gut oder das,
Gast: was eben Alina auch als Human Centered bezeichnet hat.
Gast: Und da sehe ich schon eine Tendenz, auch gerade im letzten halben Jahr,
Gast: mehr in diese Richtung zu denken, als die Diskussion, die wir vor allem im ersten
Gast: halben Jahr auch sehr stark hatten, immer auch gesellschaftlich zu sagen, ja,
Gast: wie viele Jobs werden wegfallen, wie viel wird KI vernichten dann auch an Arbeitsprofilen, dass es...
Gast: Finde ich erstens nicht so positiv und ich persönlich glaube auch nicht,
Gast: dass es in die Richtung gehen wird.
Wolfgang: Ich glaube auch nicht, dass es ganz viele Berufe gibt, die man auf einmal nicht
Wolfgang: mehr benötigt. Ich glaube durchaus, dass sich Berufe verändern werden.
Wolfgang: Aber das ist schon immer passiert, wenn Technologie voranschreitet.
Wolfgang: Du brauchst heute niemanden mehr, der Stenografie beherrscht,
Wolfgang: was ich übrigens mal gelernt habe.
Wolfgang: Vor 25 Jahren braucht man heute, glaube ich, nicht mehr. Heute muss man dafür
Wolfgang: wahrscheinlich sehr gut irgendwie Zinnfingersystem schreiben können in manchen Jobs.
Wolfgang: Und man merkt auch, dass das gesellschaftlich auch gar nicht so akzeptiert ist,
Wolfgang: wenn man stark damit Werbung macht, dass Jobs wegfallen oder Menschen ersetzt werden.
Wolfgang: Es gab letzte oder vorletzte Woche gab es so einen Skandal in San Francisco,
Wolfgang: da gab es ein Startup, mir fällt der Name gerade nicht mehr ein,
Wolfgang: die haben großflächig plakatiert und die haben Werbung dafür gemacht,
Wolfgang: dass man eben mit ihrer AI Menschen ersetzen kann.
Wolfgang: Und die haben auch gesagt, hey, unsere AI, die beschwert sich niemals über Work-Life-Balance oder so.
Wolfgang: Und die haben halt solche AI-Avatare, ich glaube aktuell für den Bereich Sales
Wolfgang: und haben auch noch andere Dinge in Vorbereitung und die sagen halt,
Wolfgang: okay, du kannst dir halt diesen Avatar halt quasi mieten oder diese Dienstleistung
Wolfgang: mieten und du stöpselst dann wahrscheinlich dein CRM-System an und dann macht
Wolfgang: eben die AI deine Sales-Aufgaben für dich.
Wolfgang: Kontaktiert deine Kunden, überlebt sich Kampagnen etc.
Wolfgang: Und du brauchst dann halt die ganzen Menschen nicht mehr und brauchst vielleicht
Wolfgang: nur noch einen Supervisor oder so.
Wolfgang: Und da gab es echt ganz schön fiese Plakate. Ich habe da im Internet Bilder
Wolfgang: gesehen, weil wirklich drauf stand, dass man jetzt eben halt Menschen ersetzen kann.
Wolfgang: Und da gab es riesengroße Proteste in San Francisco.
Gast: Ja, absolut. Ja, also und ich habe das Thema, weil du das Thema Stenografie
Gast: angesprochen hast, Das auch nochmal live mitbekommen und da war auch wieder
Gast: dieser Begriff Human Center dann im Kern des Vortrags.
Gast: Es war die Leiterin der Schweizer Parlamentsbibliothek, die eben berichtet hat,
Gast: wie KI im Moment im Einsatz ist in der Parlamentsbibliothek und was für Pläne es für die Zukunft gibt.
Gast: Und ein großes Thema war eben Transkription der Parlamentsdebatten.
Gast: Und sie hat da auch gesagt, ja, das ist schon sehr zuverlässig an der Stelle,
Gast: aber es gibt eben immer noch trotzdem den Menschen, der drüber liest dann nachher
Gast: und schaut, dass eben dieses Transkript dann auch wirklich die Debatte wiedergibt.
Gast: Und das ist ja genau die Richtung, also die mechanische Arbeit des Transkribierens eben abzunehmen,
Gast: da sind wahrscheinlich auch wenige jetzt unglücklich drüber,
Gast: aber dann eben zu sagen, wir kontrollieren das eben nochmal,
Gast: wir schauen eben, dass das auch zusammenpasst, das ist glaube ich auch die Richtung
Gast: in die Transkribierung.
Wolfgang: Ja, ich glaube auch, was so ein Transkript angeht, also wenn es ein wichtiges
Wolfgang: Transkript ist, muss ich es ein Mensch durchlesen, sonst ist es auch nicht rechtssicher,
Wolfgang: also gerade auch im Gericht oder so.
Wolfgang: Das heißt, die Leute, die sonst das Transkript schreiben, ich glaube nicht,
Wolfgang: dass die traurig sind, weil ich glaube, das macht gar keinen Spaß.
Wolfgang: Und das Ding zu kontrollieren, ist ja auch eine sehr anspruchsvolle Aufgabe
Wolfgang: und es gibt andere Bereiche, wie beispielsweise auch dieser Podcast,
Wolfgang: da gibt es ein Transkript, das ist auch AI generiert, aber das würde es sonst ja nicht geben.
Wolfgang: Also ich würde mich ja jetzt nicht hinsetzen und ich weiß jetzt nicht,
Wolfgang: wie lange wir uns unterhalten haben, eine Stunde ungefähr, von einer Stunde
Wolfgang: ein Transkript zu schreiben, dauert ja viel länger als eine Stunde.
Wolfgang: Das dauert ja zwei oder drei Stunden und ich glaube auch nicht,
Wolfgang: dass ich drei Stunden am Stück Transkript schreiben könnte. Also ich glaube,
Wolfgang: das würde ich mental nicht hinbekommen.
Wolfgang: Insofern, das würde es sonst nicht geben und wenn es ein Transkript gibt,
Wolfgang: kann man es jetzt nutzen, keine Ahnung, wenn man jetzt vielleicht eine Einschränkung
Wolfgang: hat mit dem Gehör oder auch für eine Suche, kann man so einen Podcast durchsuchbar
Wolfgang: machen durch ein Transkript und dann ist das ja eher so ein Benefit,
Wolfgang: den es obendrauf gibt, den würde es sonst nicht geben.
Gast: Genau, genau. Also geht in beide Richtungen.
Gast: Also existierende Use Cases wie Transkription eben zu verbessern, weil,
Gast: habe ich jetzt noch keine Studie zugesehen, aber ich würde auch davon ausgehen,
Gast: dass die Transkripte nicht so fehleranfällig sind, wenn sie automatisiert generiert
Gast: sind und jemand drüber liest, weil er hat ja auch mehr Zeit,
Gast: sich auf die Debatte zu konzentrieren dann, um nochmal das später zu kontrollieren.
Gast: Und andererseits eben Transkripte zu haben in Fällen, wo man es sonst sich gar
Gast: an den Aufwand gemacht hätte. Also das sind sicher zwei Richtungen.
Gast: Aber beides aus meiner Sicht eben auch human-centered, weil das davon ausgeht,
Gast: eben das zu erweitern, was man eben.
Wolfgang: Ja, absolut. Und ich glaube, das ist halt einfach ein cooles Werkzeug dann,
Wolfgang: das man hier einsetzen kann und wo man dann halt vielleicht einen Teil der bisherigen
Wolfgang: Tätigkeit dadurch ersetzt.
Wolfgang: Aber es ist halt dann eher so der mechanische Teil.
Gast: Genau, und setzt auch eine ganz andere Rahmenbedingung, dann eine positiveren Grundhaltung,
Gast: dann stellt es in den Raum im Vergleich zu dem, wenn wir darüber sprechen, was alles wegfällt.
Gast: Also auch für die gesellschaftliche Diskussion, für die Akzeptanzdiskussion.
Gast: Wir hatten es ja vorhin auch bei dem polnischen Radiosender.
Gast: Niemand hätte wahrscheinlich was dazu gesagt, wenn man Teile der Moderation
Gast: eben KI generiert hätte oder unterstützt hätte.
Gast: Der Schritt zu sagen, wir ersetzen das komplett, dann das war das,
Gast: was die Emotionen ausgelöst hat.
Gast: Der Schritt aber zu sagen, wir unterstützen und wir haben dadurch mehr Möglichkeiten,
Gast: das hat dadurch schon mal ein ganz anderes Setting und das ist auch sehr viel positiver.
Gast: Wir sind ja jetzt auch in der Weihnachtszeit, also von daher ist das auch das
Gast: Setting, in dem ich gerne über die Zukunft eben von KI nachdenke, zu sagen,
Gast: ja, also der Mensch kontrolliert das ganze Thema Und wir denken mehr über die
Gast: Chancen nach, die wir dadurch erhalten und weniger darüber,
Gast: was wir alles weggenommen bekommen.
Wolfgang: Jetzt hast du mir fast schon meine letzte Frage vorweggenommen,
Wolfgang: Christian, und zwar die Frage nach dem Ausblick fürs nächste Jahr.
Wolfgang: Also ich würde sagen, KI wird ein großes Thema auch 2025? 25?
Gast: Absolut, ja. Also wir werden ein bisschen Entschleunigung sehen,
Gast: hatten wir vorhin ja schon angesprochen, glaube ich.
Gast: Wir haben kritischere Fragen auch schon in diesem Jahr jetzt gegen Ende des
Gast: Jahres gesehen, also Richtung Kosten beispielsweise.
Gast: Energieverbrauch ist ja auch ein Riesenthema, wo es immer wieder drum geht.
Gast: Es wird da ein bisschen Entschleunigung geben.
Gast: Es wird sicher auch ein bisschen Konsolidierung geben.
Gast: Dann also als neuer Player in diesen Markt reinzukommen, wird,
Gast: glaube ich, schwieriger werden. dann auch in der Zukunft.
Gast: Und ich glaube auch, dass die Diskussion sich verlagern wird darüber,
Gast: dass wir eben den Mensch im Zentrum haben und weniger darüber sprechen,
Gast: was wird alles wegfallen, was wird alles vernichtet, sowohl auch Jobs als auch
Gast: die gesamte Menschheit. Die Diskussion haben wir ja auch immer mal wieder.
Gast: Ich glaube, davon werden wir ein bisschen wegkommen im nächsten Jahr.
Gast: Und das empfinde ich persönlich auch als etwas sehr Positives,
Gast: wenn wir in diese Richtung unterwegs sind.
Gast: Und da gibt es sehr viele Aspekte, die wir ja auch jetzt in der vergangenen
Gast: Stunde angesprochen haben, die es auch unterstreichen, also welche Möglichkeiten
Gast: es auch gibt, was eben auch besser funktioniert, sodass man da auch wirklich mit,
Gast: dem großen Selbstbewusstsein diese Diskussion reingehen kann,
Gast: zu sagen, ja, also das kann auch ein Ansatz sein, eben den Mensch im Mittelpunkt
Gast: zu lassen und nicht darüber nachzudenken, wie die KI alles außenrum.
Wolfgang: Ja, finde ich eine schöne Vorstellung für das nächste Jahr und ich sehe das ähnlich.
Wolfgang: Also ja, ich glaube auch, KI wird groß. Ich glaube nicht, dass es einen neuen
Wolfgang: Player gibt, also außer irgendeine sehr finanzstarke Gruppierung entschließt
Wolfgang: sich, da nochmal ein paar Milliarden in die Hand zu nehmen.
Wolfgang: Ich sehe aber gerade auch gar nicht irgendwo die Motivation,
Wolfgang: jetzt als ganz neuer Player bei Null vielleicht anzufangen und anfangen,
Wolfgang: eigene Modelle zu trainieren, wo es jetzt schon einfach viel gibt,
Wolfgang: auf das man aufbauen kann.
Wolfgang: Also ich finde so die Idee viel interessanter, jetzt zu überlegen,
Wolfgang: wo sind die spannenden Use Cases, mit denen ich mir einfach die Kunden schnappe.
Wolfgang: Weil da wurde dieses Jahr einfach super viel experimentiert.
Wolfgang: Es gibt viel, mit dem man schon ein bisschen was machen kann.
Wolfgang: Es gibt auch viel, gerade im Generative AI-Bereich, super viel, was magisch wirkt.
Wolfgang: Also ich kann mich begeistern dafür, dass ich irgendwie ein Prompt eintippe
Wolfgang: und es kommt ein Bild, das cool aussieht.
Wolfgang: Auch bei Text, selbst wenn ich die Qualität nicht so gut finde,
Wolfgang: ist es immer noch cool, dass sowas überhaupt funktioniert und auch bei vielen
Wolfgang: anderen Dingen, über die wir gar nicht gesprochen haben.
Wolfgang: Sowas wie Suno zum Beispiel, wo ich mir Musik generieren kann.
Wolfgang: Und das ist echt cool. Also ich habe mir da viel generiert dieses Jahr und es
Wolfgang: war oftmals wirklich sehr witzig und das war auch bei mir im Freundeskreis war es,
Wolfgang: wo ich Leuten dann irgendwie lustigen Songs zugeschickt habe,
Wolfgang: wo ich mir vorher den Songtext mit ChatGPT irgendwie generiert habe,
Wolfgang: also natürlich irgendwelche Songs über Freunde von mir und denen dann irgendwie
Wolfgang: so einen Punkrock-Song zugeschickt habe über sie,
Wolfgang: war immer witzig oder sowas wie.
Wolfgang: Ich weiß ihren Namen gerade gar nicht mehr, Wurzel glaube ich,
Wolfgang: was Wurzel, wo man sich so,
Wolfgang: Oberflächen generieren kann, Prototypen von Anwendungen generieren kann,
Wolfgang: Auch super, super beeindruckend und da bin ich super gespannt,
Wolfgang: wo geht die Reise hin, was für konsolidierte Use Cases und Produkte wird es geben.
Wolfgang: Großer neuer Player mit einem komplett neuen Modell, da glaube ich ehrlich gesagt auch nicht dran.
Gast: Ja, also sehe ich auch so. Also es ist sehr viel experimentiert worden.
Gast: Es wird weiterhin sehr viel experimentiert werden.
Gast: Es muss sich noch zeigen, dann welche Use Cases davon die Experimentierphase
Gast: eben auch überleben und dann im Business-Alltag ankommt. Das ist noch ein bisschen
Gast: die große Frage im Moment.
Gast: Aber da wird auch im nächsten Jahr weiterhin sehr viel passieren und du hattest
Gast: jetzt gerade das Thema Musik angesprochen.
Gast: Ich bin mir auch sicher und hatte auch, glaube ich mal, gelesen,
Gast: dass es Ansätze gibt, dass beispielsweise Spotify natürlich über so Sachen auch nachdenkt.
Gast: Weil die haben ja einen sehr großen Musikkatalog, das jetzt noch zu ergänzen
Gast: durch andere Dinge und automatisiert oder Mixes dann automatisiert zu machen.
Gast: Also da werden ganz viele Unternehmen jetzt eben auch darüber nachdenken,
Gast: wie sie das integrieren.
Gast: Das gilt, glaube ich, für alle Branchen dann.
Wolfgang: Ja, und ich weiß nicht, ob wir es 2.25 sehen, eher nicht, aber vielleicht 26, 27.
Wolfgang: Da wird sicherlich auch noch einiges passieren im Bereich von so Gen-AI-Videos.
Wolfgang: Wir haben jetzt Sora und Gemini hat jetzt auch was vorgestellt,
Wolfgang: beispielsweise Google hat was vorgestellt.
Wolfgang: Da kannst du ja diese kurzen Clips generieren mit 10 Sekunden,
Wolfgang: die auch schon beeindruckend sind.
Wolfgang: Da bin ich mal gespannt, was wir vielleicht in ein, zwei, drei Jahren sehen,
Wolfgang: dass man da vielleicht auch Kurzfilme hat, die generiert werden und ob die gut sind.
Gast: Absolut. Also der ganze Bereich Produktlaunches, Video- und Bildmaterial oder
Gast: so Dinge wie Crowdfunding-Kampagnen,
Gast: da kann man sich natürlich an vielen Stellen dann auch schon mal einen Ausgangspunkt
Gast: schaffen durch eben Gen.AI.
Gast: Da ist ein bisschen noch rechtliche Unklarheit heute da an vielen Stellen,
Gast: aber das wird sich verbessern, wird sich lösen und da glaube ich wird auch sehr viel passieren.
Gast: Also immer wenn es um Produkte geht, Produktpräsentation ist ein Riesenthema auch.
Gast: Manchmal habe ich ja auch keine Bilder, also wenn man sich Marktplätze anschaut,
Gast: dann gibt es keine Bilder. Da kann ich natürlich sehr viel machen dadurch.
Wolfgang: Ja, oder vielleicht last but not least noch ein Beispiel, das ich im Kopf habe,
Wolfgang: weil ich es dieses Jahr auf einer Konferenz gesehen habe, da ging es um Unternehmenskommunikation
Wolfgang: und das war ein Talk von DHL und da ging es um interne Unternehmenskommunikation
Wolfgang: und da wurde auch gezeigt,
Wolfgang: wie da mit KI-Tools gearbeitet wird, um beispielsweise so kleine Schulungsvideos zu generieren.
Wolfgang: Die haben viel auf Stockfotos und Stockvideos zurückgegriffen aus dem Konzern.
Wolfgang: Aber auch hier ist es natürlich denkbar, dass ich, wenn ich jetzt so ein Riesenkonzern
Wolfgang: bin mit ganz vielen Mitarbeitenden, dass ich halt meine eigenen Stockmaterialien
Wolfgang: vielleicht auch verwende und dann halt auf Basis von dem Zeug was Eigenes generieren kann.
Wolfgang: Also den DHL-Boten, der jetzt gerade irgendwo entsprechend fährt,
Wolfgang: was in meinen Kontext reinpasst.
Gast: Ja, das knüpft ja auch an das an, was wir vorhin gesagt hatten,
Gast: dass diese Lernpfade, weil du jetzt Schulungsvideos angesprochen hast,
Gast: dass man auch ganz viel dort eben noch potenzialer Dinge zu tun,
Gast: die bisher einfach nicht getan wurden, weil sie zu aufwendig waren, auch unter Umständen.
Gast: Also gerade bei internem Material ist es ja auch völlig in Ordnung unter Umständen,
Gast: wenn das jetzt nicht perfekt ist, aber wenn es auf jeden Fall eine Möglichkeit
Gast: bietet, die wir bisher nicht hatten, dann wird da, glaube ich,
Gast: auch sehr viel passieren.
Wolfgang: Ja, absolut. Und ich meine, bei internen Schulungsmaterialien,
Wolfgang: da kommt es halt darauf an, dass die Message rüberkommt, wenn ich mit AI dann
Wolfgang: solche Dinge auch übersetzen kann, was heute Tools auch schon können,
Wolfgang: dass auch Audio übersetzt wird,
Wolfgang: dann muss es auch gar nicht 100% perfekt sein, weil oftmals ist da vielleicht
Wolfgang: auch nicht das Millionenbudget dahinter, sondern es sind vielleicht ein,
Wolfgang: zwei, drei Leute, die sowas halt machen mit begrenzten Mitteln und wenn die
Wolfgang: solche Tools haben, ist das gut.
Gast: Genau, man muss auch immer das in den Vergleich stellen, wenn ich vorher beispielsweise
Gast: gar keine Übersetzung hatte, weil es zu aufwendig war, dann ist es ja trotzdem
Gast: mehr wert, wenn wir jetzt auch eine einigermaßen verlässliche Übersetzung eben
Gast: für Schulungsmaterial auch.
Wolfgang: In der Box haben. Absolut. Ja, aber Christian, da kann man ja zusammenfassen,
Wolfgang: es wird auch nächstes Jahr spannend bleiben.
Gast: Absolut, ja. Es wird spannend bleiben und ich glaube,
Gast: wir werden mehr über die Möglichkeiten nächstes Jahr auch sprechen,
Gast: als dass wir diese negativ konnotierte Diskussion, die wir gerade im ersten
Gast: halben Jahr dieses Jahr hatten, auch.
Gast: Man muss weiterhin über die ethischen Aspekte sprechen, ganz klar.
Gast: Aber ich glaube, aus den Experimenten und aus dieser positiveren Sichtweise
Gast: sozusagen, der Mensch bleibt weiterhin im Driver's Seat, dann auch werden wir
Gast: nächstes Jahr da noch ganz spannende Entwicklungen sehen.
Wolfgang: Ja, da bin ich sehr gespannt drauf. Christian, vielen, vielen Dank für deine Zeit.
Gast: Vielen Dank dir.
Voiceover: Das war das Gespräch mit Christian. Ich hoffe, es hat euch Spaß gemacht.
Voiceover: Wenn ihr Feedback habt, dann erreicht ihr mich per E-Mail unter podcast.innovex.de.
Voiceover: Wir hören uns in der nächsten Folge wieder. Bis dahin wünsche ich euch viel
Voiceover: Spaß und eine gute Zeit und natürlich auch entspannte Feiertage und einen guten Rutsch ins neue Jahr.
Neuer Kommentar