Künstliche Intelligenz

Wir hören den Vortrag "Künstliche Intelligenz" von shorty beim openchaos in Köln.
Sendung vom 2024/08/14 17:00:00 GMT+2
Download: pta240814.mp3

ki

Künstliche Intelligenz, Vortrag von shorty: koeln.ccc.de/updates/2024-06-27_OC_KI.xml

Video des Vortrags: media.ccc.de/v/c4.openchaos.2024.06.kuenstliche-intelligenz

Musik Playlist

Transkription

politopia-magazin:
Hier ist das Politopia Magazin, euer gesellschaftspolitisches Magazin bei Radio X, dem Frankfurter Bürgerradio. Schön, dass ihr dabei seid, schön, dass ihr zuhört. Wir unterhalten uns heute mal wieder über künstliche Intelligenz.

Das Thema ist ja wirklich nach wie vor ein Dauerbrenner und wir müssen uns auch damit beschäftigen, weil es wird nicht weggehen und schon gar nicht von alleine. Wir haben euch einen Vortrag mitgebracht und zwar heißt er Künstliche Intelligenz, gehalten jetzt hier im Juni beim Open Chaos. Das ist vom Chaos Computer Club in Köln.

Die haben da in kürzeren Abständen Vorträge, wo sie sich bestimmten Themen widmen. Und hier haben wir jetzt den Shorty, der erzählt was zum Thema Künstliche Intelligenz. In seinem Vortrag spricht er ein paar Punkte an.

Was ist KI? Woher kommt sie? Wie funktioniert KI eigentlich?

Wie funktionieren Large Language Models? Was sind die Risiken von KI? Und was bringt KI in der Zukunft?

Das ist natürlich jetzt ein bisschen Rundumschlag, aber wir kommen nicht drum rum, uns wirklich dem Thema von verschiedenen Ebenen zu nähern, um auch selber zu verstehen, was da los ist. Weil es bringt nichts zu sagen, ja, kann man alles lösen, eine KI wird schon gut. Wenn man das einfach umdacht macht und nicht genau weiß, was man da tut oder vorhat, kommt da unter Umständen nicht so viel weiter aus.

Oft hören wir ja Beispiele, wie das funktioniert mit so einzelnen Elementen. Da ist von Perzeptronen die Rede, die dann so eine menschliche Hirnzelle nachbilden sollen. Das ist bestimmt wichtig, das alles zu verstehen, aber das kann nur die Grundlage sein, um auch weiter verstehen zu können, wie Künstliche Intelligenz funktioniert, was sie kann und auch was sie nicht kann.

Wir müssen uns damit beschäftigen, weil jeder von uns hat wahrscheinlich so in den Kindheitstagen mal ein bisschen ausprobiert, wie zum Beispiel so ein Wasserschlauch, so ein Gartenschlauch funktioniert. Also was man damit machen kann, wie das zusammenhängt, wenn man den Ventil aufmacht, wenn der Druck auf der Leitung ist, wenn man ein Ventil hat und dass man damit Faxen machen kann und andere nachsplitzen kann. Das ist natürlich eine grundlegende Erfahrung, die notwendig ist, um auch nachher vielleicht zu verstehen, dass so eine Wasserversorgung, die wir als Infrastruktur ja haben wollen, zu verstehen, wie die funktioniert, was da wie ineinander spielt und dass es da eben manche Sachen, die sehr ähnlich sind, eine einfache Konstruktion mit einem Gartenschlauch, aber manche Sachen auch ein bisschen anders sind, weil es einfach größer skaliert sein muss, wenn da hunderte, tausende von Leuten in einer Stadt alle mit Wasser versagt werden sollen. Ähnlich ist das ein bisschen mit der KI.

Wir kommen nicht drum rum, um zu verstehen, wie das im Grunde auf kleinster Ebene funktioniert, um dann auch beurteilen zu können, wie wir auf einer großen Ebene Systeme einsetzen können, bauen können, anwenden können oder eben auch nicht anwenden wollen. Jetzt also der Vortrag von Shorty vom Open Chaos Künstliche Intelligenz.

shorty:
So, um was geht es heute allgemein? Was ist Künstliche Intelligenz? So ein bisschen zur Geschichte.

Wie lange sind wir da schon dran? Wo kommt das her? Dann relativ ausführlich, wie funktioniert das überhaupt?

Was ist denn in der Blackbox drin von der Künstlichen Intelligenz? Welche Anwendungen gibt es, wird es geben? Unser Blick in die Zukunft ist immer so ein bisschen hypothetisch natürlich.

Gucken wir mal. So, was ist Künstliche Intelligenz? Das ist eben kein festes Programm mehr, wie man das bisher klassisch hatte, dass das Programm eben irgendwas macht und daher vorhersehbar arbeitet.

Es lernt, also es werden Daten eingelesen, das sind dann neuronale Netze, und das wird als Lernen bezeichnet und damit versucht man dann einerseits Sachen zu lernen und das Wichtige dabei ist, dass man das auf Unbekanntes überträgt. Das heißt, man gibt dann irgendwelche Eingangsparameter an und erhofft sich ein sinnvolles Ergebnis. Und KI wird in der Regel realisiert durch neuronale Netze.

Es gibt so ganz kleine Teilgebiete, was so Entscheidungsbäume sind, was man auch noch mit unter KI fassen könnte, aber das, was uns heute so bewegt und diese großen Fortschritte gemacht hat, sind alles neuronale Netze. Das werde ich jetzt auch gleich noch mal etwas genauer vorstellen, wie das funktioniert. Es ist natürlich ein, das habe ich ja gesagt, Blockchain war der letzte Hype, jetzt kommt der KI-Hype, ist erst vor kurzem in das Blickfeld der breiten Masse gerückt, weil es eben jetzt Ergebnisse liefert, die relativ erstaunlich sind.

Es hat aber etliche Jahre gedauert, bis es so weit war. Also das ist seit den 50er Jahren ist man da dran. Hat dann auch gedacht, das geht ganz schnell.

Hat jetzt doch ein paar Jahre gedauert. Es hat natürlich auch seine Grenzen, was in dem Hype so ein bisschen, ja, übertrieben wird, wie es auch damals mit Blockchain war und sagte, okay, das wird die ganze Welt auf den Kopf stellen, wird alles revolutionieren und so weiter. Bei KI ist das schon ein Stück weit so weit, dass es eine große Revolution werden wird, viel mehr als die Blockchain.

Aber jetzt in völliger Hype zu verfallen, ist auch nicht angesagt. So, zur Geschichte der KI. Es haben sich mal zwei Wissenschaftler hingesetzt und haben geguckt, ob es möglich ist, die Funktion des menschlichen Gehirns irgendwie digital oder mathematisch nachzubauen.

Das ist dieses Metcolach-Pitts-Neuronen-Modell. Zeige ich auch noch gleich etwas genauer. Das war eben ein Neurophysiologe und ein Mathematiker, die sich da zusammengetan haben und haben geguckt, wie funktioniert denn so eine Gehirnzelle und wie könnte man das mathematisch nachbilden.

War, also ist 1943 gemacht worden. Dann hat man da ein bisschen drauf rumgekaut und es gab dann diese DOSMOS-Konferenz im Jahr 1956, wo man diese Technologie etwas genauer beleuchten mochte und dachte, okay, wir können da Maschinen entwickeln. Also das war das Ziel der Konferenz, Entwicklung von Maschinen, die Aufgaben, die man normalerweise menschliche Intelligenz erfordern, automatisch ausführen können.

Jetzt auch immer noch die Frage, wie definiert man Intelligenz? Das ist auch gar keine feste Definition. Und da dachte man, naja, wenn wir da mal zwei, drei Jahre dran arbeiten, dann werden wir sicher solche Maschinen entwickeln können.

Also das wäre dann 1960 gewesen. Das hat aber nicht funktioniert. Es gab auch in der ganzen KI-Geschichte immer wieder sogenannte KI-Winter, wo man einen großen Anlauf genommen hat und gesagt hat, hey, das wird alles revolutionieren und wird super toll sein.

Das dann versuchte zu implementieren und dann merkte, oh, das wird aber nichts und da kommt das nicht raus und dann sind alle Investoren wieder abgesprungen, das Interesse wieder abgeflaut und dann war erst mal wieder hängen im Schacht, bis dann irgendjemand wieder kam und das wieder neu entdeckt hat und dachte, naja, jetzt soll es aber gehen. Und ja, erst jetzt funktioniert es wirklich so weit, dass man sagen kann, hey, das ist wirklich erstaunlich. Aber andere Anwendungen wie Mustererkennung oder so, das gibt es schon seit zig Jahren.

Also eine der Sachen, die man immer versucht hat und wo es auch so Wettbewerbe für gab, ist Zahlenerkennung. Da hat man eben Muster, 8 mal 8 Bildpunkte, dann schreibt man irgendeine Zahl da rein und dann soll die KI erkennen, ist das irgendwie Zahl 0 bis 9, was ist das für eine Zahl. Und das gibt es schon länger, da gibt es auch schon eine Weile lang Wettbewerbe dafür, um das zu machen.

Das ist also gar nicht neu. Jetzt hat man halt geguckt, wie machen wir das, wenn wir ein künstliches Neuron nachbauen wollen, dann hat man erst mal die Sache genommen, wie ist es denn im Gehirn aufgebaut. Man hat hier vorne die eine Seite des Neurons, hier sind eben Eingänge, wo die Synapsen andocken und Impulse von anderen Neuronen ankommen hier vorne.

Und wenn es hier entsprechend viele Impulse ankommen, wird das über quasi dieses Axon weitergeleitet an weitere Neuronen. So sieht es im Gehirn aus. Man hat es dann mathematisch nachgebaut und hat gesagt, okay, wie ist es denn?

Ja, wir haben hier Eingangswerte. Sagen wir mal, das wäre jetzt eine Zahl von 0 bis 1, die hier reinkommen kann. Dann hat man hier W1, W2, Wn, das sind Gewichte.

Mit diesen Gewichten wird die Zahl multipliziert. Das wäre jetzt quasi das, was dann hier innen drin stattfindet. Und dann hat man noch eine Aktivierungsfunktion, wo man sagt, okay, wenn jetzt die Eingangswerte mal der Gewichte und die Summe davon einen gewissen Schwellwert überschreitet, dann gebe ich auch was hinten raus.

Ansonsten, wenn es den Schwellwert nicht erreicht, gebe ich nichts nach hinten raus. Das ist so die einfachste Geschichte. Ich habe es hier noch mal etwas genauer, wie es funktioniert.

Das sind die Eingangswerte, die von anderen Neuronen kommen oder eben die Werte, die in das neuronale Netz eingespeist werden, sind normiert. Das muss man halt vorher festlegen und sagen, okay, das kann zwischen 0 und 1 variieren. Und dann hat man Gewichte, mit denen werden diese Eingangswerte multipliziert.

Und hier hinten werden sie dann alle zusammen addiert. Das gibt dann einen gewissen Wert. Und dann kann man sich eine Ausgangsfunktion überlegen und sagen, okay, ist dieser Wert, den ich jetzt da zusammengerechnet habe, hat er eine gewisse Schwelle, dass hier ein Ausgangssignal erzeugt wird oder nicht.

Diese Aktivierungsfunktion, die hier das Ausgangssignal bestimmt, da gibt es ganz verschiedene Aktivierungsfunktionen. Wenn es unter 1 ist, gebe ich gar nichts raus. Es gibt auch lineare Funktionen.

Ich mache gar keine Funktion hier hinten dran. Ich gebe einfach das raus, was hier als Summe entstanden ist. Es gibt auch Funktionen, die sagen, okay, wenn es kleiner 0 ist, was hier hinten rauskommt, gebe ich nichts raus.

Wenn ich einen Wert größer 0 habe, gebe ich einfach diesen Wert weiter und so weiter. Das macht sehr viel aus, wie das neuronale Netz danach arbeitet. Fragen dazu?

Ist das so einigermaßen verstanden? Weil das ist so die Grundlage dafür. Ändern, ganz wichtig, ändern tue ich nur die Gewichte hier.

Dadurch lernt das neuronale Netz etwas. Ich beurteile den Ausgang und kann dann über eine Funktion, die hier Backpropagation wird genannt, kann hier auf die Gewichte Einfluss nehmen und kann sagen, wie müssten die sein, damit das Ergebnis etwas besser dem entspricht, von dem ich erwarte, dass es da hinten rauskommt. Jetzt ist es wichtig, in jedem Lernschritt, um den Ausgang hier etwas besser anzupassen, werde ich die Gewichte nicht vollständig anpassen, weil dann passt es für genau den einen Fall, den ich hier habe.

Aber es wird dann für den nächsten Fall nicht mehr passen. Deshalb werden diese Gewichte immer nur ganz vorsichtig angepasst. Ein neuronales Netz besteht auch aus sehr vielen dieser Einheiten hier.

Sieht dann so aus. Ich habe hier vorne, da fehlen eigentlich noch Pfeile, wo das reinkommt, dann sind hier vorne die Gewichte, dann kommt hier die Aktivierungsfunktion und dann wird der Wert, der aus der Aktivierungsfunktion rauskommt, hier an die nächsten Neuronen weitergegeben. Hier sieht man wieder, da kommen drei Pfeile rein.

Das sind die Werte von diesen drei Neuronen in der ersten Schicht. Diese Werte werden dann mit den Gewichten, die diesen Neuronen hier zugeordnet sind, multipliziert, über die Ausgangsfunktion geleitet und dann hier nach hinten weitergegeben. Hier passiert wieder dasselbe.

Jedes Eingangssignal wird mit dem Gewicht, das hier in dem Neuron festgelegt ist, multipliziert und dann wird hier ein Ausgangssignal erzeugt. Das ist jetzt ein Dreischichtenmodell. Man kann das beliebig groß machen.

Also die großen Large Language Models haben 96 Schichten hier und auch mehrere Milliarden Gewichte, die dann multipliziert werden müssen. Das ist auch sehr interessant bei diesen neuronalen Netzen. Die mathematischen Operationen sind extrem einfach.

Also ich multipliziere zwei Zahlen miteinander und summiere die Ergebnisse auf. Wenn ich die Ausgangsfunktion nicht zu kompliziert mache, kann ich das auch mit einer sehr einfachen mathematischen Repräsentation den Ausgangswert ermitteln. Die lernneuronalen Netze, hatte ich eben schon gesagt, das ist jetzt die Anpassung der Gewichte.

Das ist auch das Einzige, was passiert. Die ganzen Ausgangsfunktionen und die Struktur des Netzes bleiben unverändert. Es werden nur diese Gewichte, mit denen die Eingangssignale multipliziert werden, die werden geändert.

Dann werden die Gewichte neu angepasst durch einen Backpropagation-Algorithmus und da wird quasi der Fehler für jedes Gewicht ermittelt. Also wer ist wie viel daran schuld, dass das Ausgangssignal jetzt nicht so war, wie wir es gerne gehabt hätten. Und dann werden die Gewichte ganz vorsichtig angepasst, damit man eben das schon Gelernte nicht wieder gleich kaputt macht.

Es gibt eine schöne Geschichte im Internet von Google, TensorFlow Blackground. Da kann man sich das mal genau ansehen. Ich mache das mal auf hier.

Das läuft im Browser, deshalb können wir es auch nicht kaputt machen. Das kann auch jeder von Ihnen ausprobieren. Hier, playground.tensorflow.org.

Jetzt zeige ich erst mal, was wir hier sehen. So. Hier rechts ist eigentlich das, was das neuronale Netz macht.

Das hat hier eine Klassifizierungsaufgabe. Wir haben orange und blaue Punkte. Und wenn jetzt, man sieht es, das ist so ein bisschen gruppiert.

Das heißt, rein vom Menschenverstand würde man sagen, wenn ich jetzt einen neuen Punkt hier hinzubringe, wenn ich ihn hier in den blauen Bereich lege, sollte es ein blauer Punkt sein. Und wenn ich ihn in den orangenen Bereich lege, sollte es wohl ein orangener Punkt sein. Dem neuronalen Netz werden jetzt als Eingangsparameter hier die x- und y-Achse angegeben.

Das geht hier von minus 6 bis plus 6 in beiden Achsen. Das ist x1 und x2. Und das neuronale Netz soll lernen, wenn ich jetzt hier beliebige Punkte hineintue, welche Farbe die haben müssen.

Dann habe ich erst mal Trainingsdaten. Also das sind die Punkte, die hier drin sind. Daran wird das neuronale Netz trainiert.

Es kriegt also diese x- und y-Koordinaten von den Punkten und dann sagt man ihm, wenn hier ein Punkt kommt, das ist jetzt ein orangener Punkt, dann solltest du als Ausgabe haben, dass das ein orangener Punkt sein soll. Und wenn ich einen hier nebendran machen würde, dann sollte es, und das ist dieses Übertragen auf Unbekanntes, ich weiß ja gar nicht, welche Farbe der haben soll, aber dann soll es eben auch ein orangener Punkt werden. Genau dasselbe mit den blauen Punkten.

So und das Schöne ist bei dieser Simulation hier, wir sehen im Hintergrund, was das neuronale Netz ausgibt. Hier wird einmal das ganze neuronale Netz abgefahren von minus 6 nach plus 6 in x- und y-Richtung und wir sehen, was es ausgeben würde. Das heißt, das ist noch überhaupt untrainiert, weil hier ist im orangenen Bereich würde es sagen, ja das ist alles blau hier.

Und hier im blauen Bereich ist das hier unten auch orange. Und jetzt kann man anfangen es zu trainieren. Drückt man hier auf Start.

Hier, das ist die Lernrate. Das ist also, wie stark diese Gewichte angepasst werden. Das kann man dann auch ändern.

Das ist die Aktivierungsfunktion. Da gibt es auch eine ganze Menge an verschiedenen Aktivierungsfunktionen, die man dann ausprobieren kann. Und kann das dann lernen lassen.

Das ist der Eingangslayer. Jetzt haben wir hier einen Zwischenlayer mit vier Neuronen, die dann eben von diesen Eingangsneuronen jeweils zwei Signale bekommen. Und dann auf zwei weitere Neuronen im Ausgangslayer gemappt sind, die dann sagen, das ist eher rot oder das ist eher blau.

Gut, starten wir die ganze Sache mal. Das wird sich jetzt relativ schnell einstellen. Da hat er das auch in etwa.

Ich stoppe das mal. Hier sieht man, wie er gelernt hat. Wie viele falsche Ergebnisse hat die Sache zutage gefördert, wenn ich jetzt irgendwelche variablen Punkte hier reintue.

Und zwar gibt es dann immer Trainingsdaten und Testdaten. Einmal die Trainingsdaten sehen wir hier. Das sind die Punkte, an denen er gelernt hat.

Das wird natürlich alles richtig klassifiziert. Das sind zwei Kurven. Einmal für das Training und einmal für den Test.

Und dann gibt es auch noch Testdaten. Jetzt blendet er mehrere Punkte ein, wo er sagt, okay, um das Gelernte zu testen, tue ich jetzt Punkte hinein und lasse die klassifizieren. Anhand deren lerne ich nicht, sondern anhand deren überprüfe ich nur, ob das Gelernte auch übertragbar ist auf unbekannte Sachen.

Also Punkte, die es hier beim Training überhaupt nicht gab, an anderen Positionen, sollen richtig klassifiziert werden. Und das macht er hier relativ gut. Das ist auch eine relativ einfache Aufgabe.

Man sieht aber hier, dieser blaue Bereich ist ein bisschen dreieckig und nicht ganz rund. Man könnte natürlich auch sagen als Mensch, naja, da könnte man schon so einen Kreis drum machen und das andere könnte man auch irgendwie eingreisen. Das hängt halt immer davon ab, wie viele Neuronen habe ich hier in meinem Netzwerk und wie viel Informationen kann das gesamte Netzwerk speichern, um das dann exakt abzubilden.

Ich kann mal hier nochmal einen weiteren Hidden Layer reinmachen mit nochmal vier Neuronen. Dann kann es das etwas besser abbilden. Ich starte das nochmal, das Lernen.

Kommst du jetzt voran oder kommst du nicht voran? Okay. Das hat uns heute auch wirklich im Griff, die Technik, würde ich sagen.

Da ist aber mein Netz wieder. Mal gucken, vielleicht kommen wir ja nochmal zu irgendwas. Wo ist mein Startknopf?

Dann gucken wir mal. Schaffst du das? Ja, er versucht das jetzt.

Er kriegt es gar nicht hin. Doch, plupp. Das sieht man auch hier.

Beim Lernen, plötzlich hat er dann den Weg gefunden und sagt, ah, ich muss nochmal irgendwas anders machen. Jetzt sieht es auch etwas kreisförmiger hier aus. Was wir da gerade gesehen haben, ist tatsächlich so eine Problematik, die es öfters mal gibt, wo sich das neuronale Netz nicht so ganz sicher ist und auch nicht das dann richtig lernen kann, um wirklich hier alles abzubilden.

Manchmal bleiben die auch einfach hängen. Das hat damit zu tun, so ein neuronales Netz, dass diese Gewichte, wenn ich das Initial starte, dann werden die Gewichte mit Zufallszahlen initialisiert. Und daraufhin werden die dann verschoben und angepasst.

Aber wenn ich natürlich immer ein komplettes, neues Zufallszahlenfeld hier initialisiere, komme ich mehr oder weniger schnell und mehr oder weniger zu einem guten Ergebnis. Ja. Okay.

Gut. Es gibt ja auch kompliziertere Aufgaben. Man kann das in mehrere Felder teilen, hier diese Aufgabe.

Dann sieht man dann, es dauert ein bisschen länger, bis er jetzt merkt, was wohin muss und wie er das macht. Er hat jetzt hier so Schrägsträche gemacht, kriegt es aber auch nicht ganz hin. Er läuft noch.

Genau, er läuft noch. Okay. Der hat das deutlich besser gemacht.

Das ist immer so auch ein bisschen eine experimentelle Wissenschaft. Es gibt niemand, der auch genau weiß, was innerhalb dieser neuronalen Netze perfekt abläuft. Gerade nicht, wenn es große neuronale Netze ist.

Ich meine, dieses Ding könnte man sogar noch von Hand nachrechnen. Man könnte so ein bisschen gucken, wie macht er das? Da gibt es auch Visualisierungsalgorithmen für, wo man sieht, wie lernt das und wieso hat es das jetzt nicht geschafft, hier ein gutes Lernergebnis herbeizuführen.

Aber je größer das Netz wird und wenn man da Milliarden von Parametern drin hat, dann wird es sehr, sehr schwierig, da den Überblick zu erhalten. Man merkt dann halt, okay, es funktioniert oder es funktioniert nicht. Man kann so ein bisschen gucken, wieso das so ist, aber dann wirklich die Sache in der Tiefe zu verstehen, ist eine anspruchsvolle Aufgabe.

Jetzt mache ich mal hier noch ein sehr kompliziertes Muster. Das wird er nicht schaffen mit diesem kleinen Netz. Ja, okay.

Dann bleibt er komplett hängen. Man kann das Netz dann in voller Größe aufblasen. Gucken, wenn ich hier noch mehr Layer hineinmache und noch mehr Neuronen hineinmache, dass er ein bisschen mehr Informationen speichern kann.

Ja, dann fängt er. Da habe ich lang mit rum experimentiert, aber diese Figur hier richtig abzubilden, ist relativ komplex mit diesem kleinen Netz. Was man dann auch machen kann, man kann ihm hier verschiedene virtuelle Eingangsinformationen geben, die ja auch nur abgeleitet sind von X und Y.

Dann wird es ein bisschen besser. Aber nur mal so als generelle Illustration, wie ein neuronales Netz von innen aussieht, was es genau macht und wie das genau funktioniert, auch mit den Gewichten. Wer sich da ein bisschen weiter reinfuchsen möchte, der kann das hier natürlich tun und den Playground da mal weiter benutzen und ein bisschen rum experimentieren, um das genauer kennenzulernen.

Gut, jetzt ist der Vortrag abgestürzt. Wir nehmen heute jedes Fettnäpfchen mit. So, haben wir gesehen, wie es mit einfachen neuronalen Netzen ist.

Large Language Models, das was wir heute benutzen und was auch diese Riesen-Furore und diesen Hype ausgelöst hat, sind auch nichts anderes, aber sehr viel spezieller und unglaublich viel größer. Man hat da Milliarden von Gewichten und Millionen von Neuronen. Deshalb sind die auch, selbst mit der heutigen Rechenleistung, entsprechend langsam.

Kurz noch ein bisschen zu den nächsten Folien. Wo liegen die Gemeinsamkeiten und Unterschiede? Wie funktionieren diese Large Language Models?

Wie wird ein Prompt in LLM eingespeist und wie wird die Ausgabe generiert? Ist gar nicht so kompliziert, wie man das denkt. Also LLMs sind sehr große neuronale Netze, haben auch neuronale Netze mit spezialisierten Teilfunktionen, wurden mit extrem viel Trainingsdaten trainiert.

Das ist eine der ganz wichtigen Geschichten. Man hat da so gut es ging, das gesamte Weltwissen zusammengekratzt, um diese Large Language Models zu trainieren. Deshalb kommen die uns auch so intelligent vor, weil die halt wirklich viel wissen.

Das ist halt so eine typische Maschinensache. Das war ja auch am Anfang der IT so. Ja, das kann viel speichern, das vergisst nichts, das kann hundertmal schneller rechnen als irgendein Mensch und so weiter und so weiter.

Das ist natürlich dem Menschen haushoch überlegen. Ja, in diesen Maschinendisziplinen ist es dem Menschen haushoch überlegen, aber wenn es dann um Kreativität geht, wird es wieder schwierig. Wenn man sich so vorstellen möchte, was ist eigentlich so ein Large Language Model?

Das ist eigentlich, ich habe länger darüber nachgedacht, wie kann man das sehen? Es ist wie ein Bibliothekar, der alle Bücher dieser Welt gelesen hat, ohne etwas zu vergessen und all das Wissen wiedergeben kann und auch so ein Stück weit miteinander kombinieren kann. Ja, das ist so eigentlich die beste Beschreibung, die ich bisher gefunden habe, was diese LLMs, Large Language Models, betrifft.

Deshalb, das ist halt wieder so richtig Maschinentechnik, kann unendlich viel lesen, mehr als ein Mensch in seinem ganzen Leben lesen kann, wird auch nichts vergessen und kann es auch irgendwie wiedergeben, weil es eben eine Maschine ist, die nach Schema F arbeitet und sagt, okay, jetzt gibst du das aus deinem Fundus wieder. Haben wir auch in der IT schon gehabt, dass eben die Computer genau das besonders gut können. So, wie kommt Text in die Large Language Models hinein?

Das ist ja auch so, wir hatten jetzt mit Zahlen gearbeitet am Eingang der neuronalen Netze, aber Text ist eben Text. Wie machen wir daraus Zahlen? Der Text wird zuerst mal in Bestandteile, sogenannte Tokens, zerlegt.

Das sieht man hier unten, wie es gemacht ist. Ich habe da einfach mal so ein ganz tief unten so ein Brompt in den Tokenizer reingetan und dann gibt er das schön farbig aus. Ja, erstelle eine WordPress-Seite und dann sieht man schon R und dann st, l und dann teilweise ganze Wörter, aber nicht immer alles als Wörter.

Hat den Sinn, Verringerung der Vokabulargröße, würde ich ganze Wörter reintun, muss ich jede Sprache der Welt abbilden. Das wird dann relativ kompliziert. Hier kann ich auch Wortvarianten besser verarbeiten, weil vielleicht die letzten Zeichen eines Wortes separat tokenisiert werden.

Bessere Handhabung von unbekannten Wörtern, weil Teile von Wörtern dann schon eher bekannt sind. Ja, und sprachübergreifende Konsistenz, weil ich dann eben nicht alle Wörter aller Sprachen lernen muss. Das kann man auch hier ausprobieren.

Da gibt es den Tokenizer zum selber ausprobieren. So, das ist ja ganz schön, wenn wir dann die Tokens haben, die werden, wie soll ich sagen, also jedem Token ist ein Vektorfeld zugeordnet, wer weiß, was das ist. Ansonsten könnte man sagen, jeder Token besitzt eine Zahl und damit sind wir wieder bei den Zahlen, die eingespeist werden können.

Um den Sinn zu verstehen, braucht das Large Language Model aber noch deutlich mehr Information. Einmal die Position der Token im Satz, damit man weiß, okay, wie gehört das überhaupt zusammen, wie ist das aneinandergereiht? Und noch eine viel wichtigere Sache, die schließlich und endlich dann auch zur Funktion dieser neuronalen Netze geführt hat, nennt sich Self-Attention.

Bewertung der Bedeutung eines Wortes im Kontext der anderen Wörter im Satz. Damit man überhaupt, also das klingt schon so nach, ja, jetzt kann ich ein bisschen mehr den Sinn erfassen. Ist auch eine relativ komplizierte Sache, wie das gemacht wird, kann man sich auf YouTube ansehen, dauert 1-2 Stunden und danach hat man einen dicken Kopf, wenn man nicht gerade Mathe studiert hat und das so ein großes Vergnügen ist.

Ist aber eine ganz wichtige Sache, die dann auch mit in das neuronale Netz eingespeist wird. So, jetzt haben wir die ganzen Informationen, die vorne reinkommen. Wie generieren wir den Ausgang?

So, und das ist relativ simpel.


Jetzt haben wir die ganze Information, die am Eingang anliegt, und es wird ermittelt, welcher Token am wahrscheinlichsten folgt. Das sind also jetzt ein paar Buchstaben, und aus den ganzen Token, die wir kennen, kann das neuronale Netz jetzt ermitteln, welcher Token folgt am wahrscheinlichsten in den trainierten Daten. Und das gibt das Ding dann aus.

Also gar nicht so kompliziert. Und dieser ausgegebene Token wird dann wieder in die Eingangssequenz angefügt, der oberste fliegt raus, der neueste geht wieder rein, und dann wird die ganze Chose wieder von vorne durchlaufen lassen, und man sagt, okay, wenn ich diese Eingangssequenz habe, welcher Token folgt als nächstes, als wahrscheinlichstes. Das könnte man sich so vorstellen, wie wenn man ein neuronales Netz hat, das hat man trainiert mit Aktienkursen, und dann sage ich, okay, ich gebe Zahlen vor, das ist der Aktienkurs, und ich möchte wissen, wo wird der Kurs hingehen.

Dann nehme ich den Wert, kriege ich irgendeinen Wert, tue den wieder, auch fortschreiben in den Eingang hinein, und kann wieder den nächsten Wert des Aktienkurses am Ende des neuronalen Netzes ablesen. Ob das dann Sinn macht, ob das den zukünftigen Aktienkurs wiedergeben wird, ist natürlich immer die Frage. Aber das interessiert das neuronale Netz nicht.

Das ist mit irgendwelchen Daten trainiert und rechnet dann stur diese Rechenvorschriften durch und sagt, okay, das ist das Wahrscheinlichste, was da als nächstes rauskommt. Fertig. Deshalb, wenn man Large-Language-Models der ersten Generationen hat und sich auch mal die Entwicklung angesehen hat, dann war das auch teilweise so, dass die ein paar Wörter dann sehr sinnvoll rausgegeben haben und dann ist es irgendwie abgestürzt und hat Zeichensalat produziert.

Was man noch machen kann, ist, eventuell wird nicht der wahrscheinlichste Token ausgewählt, um gewisse Variationen in der Ausgabe zu erhalten. Da gibt es mathematische Modelle für, die dann sagen, okay, wir nehmen nicht immer das Wahrscheinlichste, dann kommt nämlich immer das Gleiche raus, wir nehmen ein bisschen weniger das Wahrscheinlichste, um eine gewisse Variation in der Ausgabe zu haben. Was gibt es für Probleme mit den ganzen Sachen?

Die Trainingsdaten entscheiden über die Ausgabe. Wenn ich komische Trainingsdaten habe oder Trainingsdaten, die irgendwie eine Weltsicht haben, dann hat das Ding diese eine Weltsicht. Ist ja auch richtig so, es wurde so trainiert, dann hätte man sagen können, das will man so haben.

Fehlerhafte Trainingsdaten führen zu fehlerhaften Ausgaben, klar. Also es gibt einen Reddit-Post, der so ein bisschen rumging, da wurde mal so spaßeshalber gefragt, wie kann ich verhindern, dass der Schinken von der Pizza rutscht und dann hat jemand geantwortet, das kann man mit essbarem Kleber festkleben. Ja, wenn sie Chat-GPT oder irgendwelche neuronale Netze fragen, die daraufhin nicht korrigiert wurden, dann sagt er ihnen, ja, ja, bei Reddit steht hier, das kannst du den Schinken mit essbarem Kleber festkleben, das habe ich da gelesen.

Ja, waren die Trainingsdaten, dann gibt es auch diese Antwort. So mit Humor ist halt noch nicht so weit. Dann ist auch so ein Fachbegriff, BIAS, also je nach Trainingsdaten ist die Ausgabe nicht neutral, es wird die Wahrscheinlichste ausgegeben.

Ist auch eigentlich ganz normal. Jeder Mensch macht das so, wenn ich von jemanden frage, mal mal irgendein Weihnachtsbild oder sonst irgendwas, greift man auf die persönliche Erfahrung zurück und malt dann irgendwie ein weihnachtliches Bild, was eben so ein bisschen aus der persönlichen Erfahrung heraus ist. Genauso macht das das neuronale Netz auch.

Wenn sie da wenig umgebende Daten machen und sagen, mach mal einfach irgendwie so, ja was soll das gute Ding machen? Es macht das, was es am wahrscheinlichsten ist und das ist eben das, je nach Trainingsdaten, je nachdem was da trainiert wurde, gibt es das dann entsprechend aus. Habe ich auch gleich noch ein paar Beispiele dafür.

Ja, das ist jetzt mit Double Diffusion, das macht Bilder aus Text und dann habe ich einfach als Prompt, ja, a Christmas Scene, also irgendeine Weihnachtsszenerie und dann sieht man, okay, das waren wohl eher amerikanische Bilder, die da reingegangen sind. Wenn sie das noch ein bisschen anders machen und sagen, eine Vorstadt, Außenansicht, kommen lauter so amerikanische Holzhäuser und so irgendwas. Aber ja, okay, wenn es damit trainiert wurde.

Ich kann aber auch dann noch mehr hingeben, ich kann sagen, nee, ich will nicht nur Christmas Szenen, sondern ich möchte das irgendwie in Deutschland mit Fachwerkhäusern und dann kommen deutsche Fachwerkhäuser raus. Es geht nur einfach darum, in welchem Kulturkreis ist dieses Ding ansässig, das ist aber auch nichts anderes, als wenn man das als Mensch eben so hat. So, jetzt haben wir auch gesehen, dass neuronale Netze, das ist ja ein rein mathematisches Modell.

Ich gebe irgendwelche Zahlen vorne rein, es kommen Zahlen hinten raus. Da kann sich das Ding nicht dagegen wehren. Also habe ich gesagt, gut, wir machen mal als Eingabe sowas hier unten.

Na, guck mal hier. Ja, das ist so zufällig generierte Daten und sage, okay, mal mir davon mal ein Bild. Da kommt dann etwa sowas raus.

Es muss halt rechnen, es rechnet und dann macht es irgendwas. Ist mittlerweile in größeren Netzen, ist das ein bisschen besser trainiert, aber wenn man die Anfänge von Stable Diffusion, solche initialen Modelle nimmt, funktioniert das heute auch noch. Kann man sich auf Hugging Face ansehen, dann tut man eben irgendwelche Zeichenmüll rein und der malt dann teilweise richtig schöne Bilder, wo man denkt so, hey, das ist echte Kunst, weil es relativ abstrakt ist, also auch wie das hier.

Das erinnert ja wie, ja, ist das ein Hochhaus mit irgendwelchen Balkons oder irgendwas? Ja, also es sieht schon ein bisschen künstlerisch aus. Habe ich einige gemacht, kamen tolle Sachen raus.

So, auch das LLM kann man mit Zufallszahlen füttern. Das waren die Daten. Ja, und dann, ich habe keine Kenntnis von mirabolisch, gibt es auch gar nicht, aber ich kann Französisch lesen, welchen Kontext und so weiter und so weiter.

Also der kann schon ein bisschen sich ausdrücken, sagen, ich weiß nicht, was du willst, aber er findet auch irgendwelche Sachen, die es nicht gibt. Das ist jetzt hier eins, ein Mistral 7b, der hat sieben Milliarden Gewichte, also auch ein relativ großes neuronales Netz und das kann man sich auf Hugging Face hier ansehen und kann da ein bisschen mit rumspielen. Das sind eben die Sachen, wo man sagt, ja, okay, du bist ein mathematisches Modell, ich gebe dir irgendwelche Zahlen rein, du rechnest das durch, du gibst irgendwas aus.

Ob das Sinn macht? Keine Ahnung. Also so könnte man, ich habe letztens noch eine Doku gesehen, wo es um Orca-Wale ging und dann auch deren Analyse von deren Lautsprache, das könnte man auch in LLM reintun und sagen, okay, was ist die wahrscheinlichste Lautäußerung nach diesen und jenen Sachen, die wir da am Eingang anlegen, dann wird doch sicher irgendwas rauskommen, könnten wir dann wieder ins Wasser einspeisen, dann können wir garantiert irgendwie mitreden, nur was wir dann sagen, haben wir keine Ahnung. So, dann wurde auch noch viel geschrieben über den Turing-Test, wie unterscheidet man Mensch und Maschine.

Dann besteht die Maschine, den Test, wird der Maschine einem dem Menschen ebenbürtiges Denkvermögen unterstellt. Das ist schon ein bisschen ein schwieriges Wort, Denkvermögen, was heißt das genau? Weil, ja, Maschinen haben spezielle Eigenschaften, das ist der Grund, wieso wir sie entwickelt haben und da gibt es dann wieder eben die Eigenschaften, wo man die Maschine wahrscheinlich auch dauerhaft dran erkennen wird, Maschinen sind nicht genervt, schlafen nicht, machen noch jede so dumme Arbeit, beziehen kein Gehalt, wenn man ein neuronales Netz nach diesen Sachen fragt, dann offenbart es sich relativ schnell, also bist du nicht genervt, ach nein, nein, ich mache hier diesen Dienst und so weiter und so weiter. Natürlich könnte man das nachbilden, aber ich glaube, genervte Maschinen sind einfach nur nervig, hat man hier auch gemerkt, bis wir das Bild an der Wand hatten, hat ein bisschen gedauert, wenn das Fahrrad nicht funktioniert und das Auto nicht fährt, dann hilft das relativ wenig.

Deshalb, ob es dann dem Menschen gleiches Denkvermögen hat und ob man es nicht mehr unterscheiden kann, weiß ich nicht, ob das auf Dauer dann so sich tarnen kann, dass man das niemals mehr sieht, ob man mit dem neuronalen Netz oder einer KI spricht oder nicht. Ja, was wird das an sozialen Auswirkungen haben? Da wird ja jetzt viel darüber diskutiert, auch ein Grund, wieso ich den Vortrag heute halte, Berufsfelder verändern sich, klar, das gab es schon öfter, schon zigmal, also auch mit der Dampfmaschine, mit der Eisenbahn, das war das erste Mal, dass man große Lasten über weite Strecken transportieren konnte, hat auch einen Riesenumbruch gemacht, die Computer, auch eine lange Geschichte, heute hat jeder das Rechenzentrum für die Hosentasche dabei, das Handy, es hat die Produktivität in immensem Maße gesteigert und es benötigt immer höher qualifiziertes Personal, das wird uns auch jetzt wohl passieren.

Also man muss dann auch schon mit der Zeit gehen, wer heute keinen Computer bedienen kann, der hat es auch schwer, so wird es wohl auch in Zukunft sein, dass man sich mit der künstlichen Intelligenz etwas beschäftigen muss, weil wenn man die dann nicht bedienen kann, wird es relativ schwierig werden, wobei die künstliche Intelligenz, so sagt der Name ja, vielleicht einem dabei auch deutlich weiterhilft. Jetzt ist das Problem, die Veränderungen durch KI scheinen sehr schnell, vielleicht auch zu schnell zu kommen, das ist jetzt so eine riesen steile Kurve gewesen, wie das hier reingebrochen ist, OpenAI, die Webseite, die schnellste sich jemals entwickelnde Webseite, was die Nutzerzahlen angeht, das mag einem ein bisschen Probleme bereiten, ich sehe das auch so, dass das jetzt halt relativ schnell kommt, wobei man sehen muss, der Faktor Mensch bremst es auch noch immer ein bisschen aus, also wenn man dann guckt, ja KI in Unternehmen und man sagen würde, ok, wenn man sich mit KI sehr viel beschäftigt, müsste das sofort forciert werden an manchen Dingen und man wird damit einen riesen Marktvorteil haben, es passiert aber einfach nicht so richtig, ja, also dann sitzen immer noch Leute oben drauf und sagen, naja, lass ich das erstmal entwickeln, das war auch früher mit der Computertechnik so, achja, mit diesem Commodore 64, was kannst du da überhaupt schon machen, 64 Kilobyte Gramm, wenn du da einen größeren Brief schreibst, stürzt die Kiste schon ab, komm, lass sein, ja, hat sich dann auch ein bisschen weiterentwickelt, sage ich voraus, wird hier auch so sein, wir brauchen im Moment noch sehr viel Rechenleistung, das wird aber aufgrund der hohen Parallelität, die man da in den neuronalen Netzen hat, auch zur Verfügung gestellt werden können, also diese ganze Gewichtsmultiplikation, das kann ja alles parallel erfolgen, ja, da müssen nur die Ausgangswerte für die nächste Ebene bereitstehen und dann kann es schon weitergehen, ja, und da ist Nvidia auch dran, eben diese Chips zu bauen, die sagen, okay, wir können, haben so und so viele, hunderttausende Multiplikationseinheiten, dass wir das alles parallel abarbeiten können, ich habe letztens noch ein Video gesehen, wo die sagten, ja, das Moorsche Gesetz ist ad und passé und wir steigern die Rechenleistung viel schneller, das ist natürlich auch so ein bisschen Augenwischerei, weil das Moorsche Gesetz bezog sich darauf, dass wenn ich einen CPU-Kern habe, wie viel schneller wird dieser eine Kern? Wenn ich sage, ich mache so und so viele Kerne parallel, ja, dann mache ich es halt parallel und wenn ich geschickt bin, dann mache ich das irgendwie auf riesigen Chips in drei Lagen mit Wasserkühlung und sonst irgendwas, parallel geht immer, ja, deshalb, das ist auch so ein bisschen ein Hype da, mal gucken, wo es hinführt.

Auch die Computertechnik hat sich wahnsinnig entwickelt, also das hat auch niemand vorhergesehen, deshalb, da muss man einfach nochmal zurückgucken und darf sich jetzt nicht blenden lassen von dem KI-Hype, der so jetzt über uns hier hereinbricht, ja, Festplattenspeichergrößen 5 Megabyte, 10 Terabyte heute, ist auch ein Faktor dazwischen, oder auch RAM-Speicher 1 Kilobyte, 1 Terabyte, eine Million, Flops zu Teraflops eine Milliarde, also Floating Point Operations per Second, also wie schnell ist die Rechenleistung und auch die IT hat eine unglaublich und völlig unvorhersehbare Entwicklung hinter sich, seit den 80er Jahren oder seit den 70er Jahren, hat viele Berufsfelder total verändert, arbeitslos sind wir trotzdem nicht alle, hat sich verändert, es gibt ganz viele ITler und trotzdem, dass wir so viele Leute haben, die in der IT arbeiten, so richtig im Griff haben wir das nicht, von daher, es gibt viel zu tun und es wird auch wahrscheinlich immer viel zu tun geben. Das Internet hat auch so eine Entwicklung gemacht, plötzlich war der Zugang zu diversen Informationen da, zumindest theoretisch, also heute geht es über Suchmaschinen, die auch nicht immer alles finden, aber die Möglichkeit auf Information zuzugreifen ist ungeheuer gesteigert worden, also man muss sich früher nochmal überlegen, wo geht man dann hin, wenn man kein Internet hat, naja, in die Bibliothek, da hilft dann aber auch keiner weiter, dann stehen die ganzen Bücher da, dann müssen die durchblättern und dann durchlesen und so weiter, also das muss man sich nur mal wieder in den Kopf holen und sagen, okay, da sind wir schon unglaublich viel weitergekommen, auch was YouTube heute macht, Nachrichten aus aller Welt, sofort verfügbar überall, keine Sache, die es früher gab, online handelig, ich will irgendwas aus China bestellen, geh mal schnell auf die Webseite, zack, da ist es. KI wird den Zugang zu Informationen und deren Verständnis noch deutlich verbessern, das ist ganz klar, heute, das habe ich da oben geschrieben, derzeit nur über Suchmaschinen, ja die Information ist da, aber ich muss mich schon sehr anstrengen, diese aus dem Internet herauszufinden. Wer mit ChatGPT schon mal gearbeitet hat, ja, ich frage nicht Google, ich frage ChatGPT, ich will eine Antwort, nicht irgendwelche komischen SEO-optimierten Webseiten, wo ich dann auch wieder ewig suchen muss, ja, da wird mir ja nur das Buch aus der Bibliothek, das Richtige und die richtige Seite vorgeschlagen, lesen und raussuchen muss ich es immer noch, dann hat ChatGPT das für mich schon gelesen, ich kann es gezielt fragen und kriege, wenn es richtig funktioniert, auch eine entsprechend gute Antwort. Tut es manchmal noch nicht, aber das ist ein anderes Thema, das werden wir sicher in den Griff kriegen, dass das funktionieren wird, dass es richtige und fundierte Informationen ausgeben wird, weil das ist einfach nur eine Frage, wie viel Information kann ich in das neuronale Netz reinstecken, wie groß muss das sein und da gibt es auch Forschungen dazu, die sagen, okay, wenn ich es größer mache, kann ich mehr Informationen speichern und die Ausgaben werden besser. Anwendung für KI allgemein, was man schon hatte, was kommen wird, Mustererkennung, das haben wir schon lange, das ist das, was diese TensorFlow-Geschichte auch gezeigt hat, ich habe irgendein Muster und will sagen, okay, ist es das oder ist es jenes, wo muss der Punkt hin, den ich da in diesen Bereich ablege, ist der blau oder ist der orange, dann gibt es auch hier die Mustererkennung, wie ich am Anfang sagte, für Zahlen, ich nehme eine Matrix, acht mal acht Punkte in 256 Helligkeitsstufen, dann habe ich meine 64 Eingänge, eben acht mal acht und dann kann ich Zahlen dort anlegen, null bis 255 und hinten habe ich eine Ausgangsmatrix in dem neuronalen Netz, Zahl null bis neun, was das eben sein kann und dann sagt mir das neuronale Netz, was ist das für eine Zahl, das ist eine ganz klassische Aufgabe, wo es auch diese Wettbewerbe dafür gab.

Was jetzt neu dazu gekommen ist, eben Bildgenerierung, relativ komplexe Geschichte, deshalb gehe ich da heute nicht näher drauf ein, aber da kann man halt viel mitmachen, Musikgenerierung, ich habe gerade einen Freund von mir drauf gestoßen und sagte, hör dir das mal an hier, das ist super gut, ja, ist auch so eine Aufgabe, ich habe eine gewisse Musiksequenz, was kommt als nächstes und dann schiebe ich das wieder eins hoch und gucke, was wieder als nächstes kommt, viel allgemeine Musik ist auch nicht besonders komplex, deshalb kann so ein neuronales Netz das halt relativ gut nachbilden und es hört sich genau so an, wie alles andere auch. Wenn es ein bisschen was Ausgefeilteres sein soll, kommt das schnell an seine Grenzen.

Erstellung von Texten, kennt jeder, JGPT, kann man natürlich verschiedenste Sachen mitmachen, komme ich gleich später noch ein bisschen drauf, Auswertung von Texten geht auch, ist eine sehr interessante Sache, wo ich einfach sage, okay, hol mir mal aus dem Text irgendwelche Daten raus, fass den zusammen, den Text, also wäre zum Beispiel auch für einen Rechtsanwalt interessant, kriegt wieder einen tausendseitigen Schriftsatz, KI, geh bitte mal hin, hol mir die wichtigsten Punkte aus diesem Schriftsatz raus, so viel Zeit habe ich nicht, das alles zu lesen. Das ist ein relativ unüberschaubares Feld von Anwendungen, was da auf uns zukommen wird, wird sich dann auch noch ein Stück weit entwickeln, wird auch nicht von heute auf morgen gehen. Weil immer noch der Faktor Mensch dabei ist, die Leute müssen es verstehen, die Leute müssen es anwenden und ich glaube, das ist der größte Bremsklotz, den wir im Moment haben und das ist auch ganz gut so, wenn es nicht direkt über uns hereinbricht.

Anwendungen für KI im Detail, also eine Sache, die mir sehr aufgefallen ist, Support-Chatbots, ist jetzt auch so eine Sache, wie soll man dazu stehen, ja, so ein Support-Mitarbeiter, der wird jeden Tag 25 Mal das Gleiche gefragt, ob der damit auch so super glücklich ist, weiß ich nicht. So ein Chatbot ist sehr geduldig, der kann auch sehr umfassende, sehr gute Antworten geben, wenn er gut trainiert ist, ist auf jeden Fall eine Sache, die schon richtig gut funktioniert. Hetzner hat sowas auch, also kann man hier ausprobieren und kann man sich beraten lassen, wenn man bei denen irgendwelche Server bestellen will, ich will einen, der so und so groß ist und für die und die Aufgabe und ich will ihn später noch erweitern können, mach doch mal ein paar Vorschläge und so weiter und so weiter, funktioniert richtig schick.

Generell einfache Informationsbeschaffung, klar, hatten wir gerade, ich frage nicht Google, ich frage ChatGBT, was kannst du mir geben und was hat er gelernt, komme ich viel schneller zum Ziel. Was ich denke, was ein großer Faktor wird, private KI-Agenten, wenn die Sache mal etwas einfacher geht, was in Sachen Rechenleistung ist, im Moment brauchen sie eine entsprechend gute Grafikkarte, um eine größere KI laufen zu lassen, die kostet mindestens 500 Euro, das ist also noch nichts für die breite Masse, aber wenn das mal in Hardware gegossen ist und jedem für kleines Geld zur Verfügung steht, wäre es natürlich relativ einfach zu sagen, okay, ich habe eine kleine KI, die läuft bei mir auf dem lokalen Rechner und kann verschiedene Sachen ausführen, dann kann ich dann sagen, okay, such mir mal irgendwelche Flugpreise raus oder fass mal die neuesten Nachrichten zusammen, die mich interessieren könnten und dann geht diese KI eben ins Internet und sagt, okay, das sind die und die Seiten, wir haben die und die Nachrichten gehabt und so weiter, das, was heute auch vielleicht die Algorithmen von Google machen und so irgendwas.

Denke ich, das kann auch ein größerer Markt werden, wenn es denn mal so weit ist, dass es wirklich in der breiten Masse verfügbar ist, im Moment ist das Problem ja bei KI, wenn man richtig leistungsfähige KI haben will, geht es nicht ohne teure Hardware und ohne den entsprechenden Aufwand, das ist also noch nicht in der breiten Masse angekommen, wir sind gerade in dem Status, wie die IT war, als es noch darum geht, hast du schon den allerneuesten Mikroprozessor und die neueste Generation ist 10% schneller, den brauchen wir jetzt, ja, heute ist das alles egal. Was auch kommen wird, kommerzielle KI-Agenten, Berater in verschiedenen Dingen, also ja, einfache Rechtsberatung, einfache Steuerberatung, Geld, Lifestyle, alles, wo Sie heute so einen Berater engagieren könnten, der wird sich auch in KI abbilden lassen demnächst, zumindest die einfachere Variante, die Einstiegsvariante, wo die KI dann sagt, ja, so in etwa ist es, wenn du jetzt weitere Beratungen willst, dann frag doch meinen Menschen, aber das wird sich sicher in großem Stil entwickeln, weil es einfach, ja, wie hier oben Support-Chatbots sind ja auch quasi Berater, sich sehr einfach realisieren lässt und diese nervige Arbeit, wo man immer wieder dasselbe erzählt, abnimmt.

Ich bin mal gespannt, hier habe ich geschrieben autonome Roboter, brauchen natürlich auch KI, aber noch ein bisschen mehr, wir brauchen dann auch eine richtige Hardware, wer Boston Dynamics kennt, der weiß, was der Stand der Technik ist, das wird auch immer besser, es wird sich dann irgendwann zusammen befruchten und dann werden wir gewisse Roboter haben, mal gucken, wann und wie. Eine Folie noch, KI in der Medizin, da sehe ich auch extremer Entwicklungspotenzial, was geht, Auswertung von Bildern, CT, MRT, weiß nicht, wer es schon mal hat machen lassen, KI ist da extrem weit vorne, was diese Auswertung von Bildern angeht, habe ich gerade auch bei einem Freund von mir erfahren, da gab es eine Fehldiagnose und dann kam später halt die Sache von wegen, lass es doch mal durch die KI laufen, zack, war sofort die richtige Diagnose da, wir haben die auch ein bisschen geschluckt. Das gibt es schon, Auswertung von Bildern, auch sehr gut, was es noch nicht gibt, Auswertung von Blutwerten, also wer hier nochmal 2-3 Milliarden Gewinn machen möchte, der macht bitte das hier, weil da ist ja auch eine Diagnostik hintendran zu sagen, okay, wenn ich Blutwerte nehme, was bedeutet das und da hat die KI natürlich auch einen Riesenvorteil, weil sie sich alle Blutwerte aller Leute mal angucken kann mit den ganzen Diagnosen hintendran und dann einen Wissenschatz aufbauen kann, den kann kein Arzt jemals im Leben aufbauen. Das heißt, wir werden da auch eine große Automatisierung haben, wo man sagt, okay, geh zum Arzt, lass deine Blutwerte nehmen, dann tun wir es durch die KI und kriegen wenigstens mal einen profunden Hinweis, was los sein könnte. Das wird auf jeden Fall kommen, ist im Moment noch in der Entwicklung, müsste eigentlich viel schneller gehen, die Unternehmen haben es aber nicht so richtig gemerkt, fangen jetzt damit an, dass da noch ein unbeackerter Bereich ist.

Dann natürlich später die Kombination aus allem, wo man sagt, okay, man gibt die komplette Patientengeschichte in die KI rein und der soll mal ein Statement dazu abgeben, das wird auf jeden Fall kommen und wird natürlich auch eine deutliche Verbesserung der medizinischen Versorgung zur Folge haben, gerade auch, weil das, was die Maschinen können, halt unendlich viel Daten speichern, nichts vergessen und alles miteinander kombinieren. Die Gefahren, die Kehrseite der Medaille, klar, Beherrschung von Technik kann einen sehr großen Vorteil bedeuten, hat man auch bei der Computertechnik gesehen, hat man am Anfang bei der Eisenbahn gesehen, die Computertechnik, klar, konnte plötzlich seine ganzen Kundendaten speichern, gucken, wer hat was gekauft, verschiedene Analysen machen, auch Tabellenkalkulationen zusammen mit Börsenhandel waren Riesendinger am Anfang, wurden von ganz wenigen genutzt, aber die, die es genutzt haben, hatten einen richtig dicken Vorteil davon.

Ist hier auch bei der KI auf jeden Fall der Fall, muss man sich im Klaren sein. Beeinflussung durch perfekte Fehlinformation, das ist auch so eine Sache, die sicher massiv kommen wird, also geht ja immer auch, auch demokratisches Thema, wir haben so ein gewisses Problem, dass ja, das Volk muss man hinter sich bringen, da kann man schon gewisse Informationen streuen und den Leuten irgendwas erzählen und das mit KI in größerem Umfang und perfekter denn je und das wird problematisch werden oder ist es auch schon, also wenn man sich bei YouTube verschiedene Kommentare anguckt, so ein bisschen kann man es noch sehen, auch anhand der Accounts, aber da ist schon Fake-Accounts automatisiert erstellen, dann Lebenslauf hinterlegen und so weiter und so weiter und das alles glaubwürdig machen, geht richtig gut mit KI.

Problem, dass wir in Zukunft kriegen werden? Ja, man hat das ganze Wissen aus dem Internet und sonst irgendwas genommen, um KI zu trainieren, jetzt wird das Internet natürlich zu sukzessive mit KI-Wissen angereichert, dass dann wieder für Training von neuer KI hergenommen werden kann, das wird nicht so richtig gut gehen, ja, also können Fakten entstehen, die gar keine sind oder es passiert irgendwas und wenn sich eine Technik sehr schnell entwickelt, werden immer Leute abgehängt, das haben wir bei der IT-Technik gesehen, ist eigentlich gang und gäbe, es kommt ja jedes Mal was Neues drauf, habt ihr schon Instagram, habt ihr schon TikTok, sonst irgendwas, irgendwann macht man nicht mehr mit oder muss sich eben aktiv drum kümmern, dass man den Anschluss nicht verliert, ist auch hier so.

politopia-magazin:
Das war jetzt der Vortrag von Shorty, Künstliche Intelligenz beim Open Chaos vom Chaos Computer Club in Köln. Wir haben auf unserer Webseite in den Shownotes natürlich auch Links versammelt, wo ihr zum einen unsere Sendung noch mal nachhören könnt und wo ihr auch das Originalmaterial mit Video noch mal nachverfolgen könnt und euch weiter schlau machen könnt. Wir sehen uns wieder nächste Woche, immer Mittwoch 16 Uhr, hier das Polytopia Magazin bei Radio X.

Bis dann!