
100 – KI-Diskussion von Amanda, Christoph, Holger und Nils
Zwischen Zwei Deckeln
Wie formt KI unser Denken und Verhalten?
Diskussion darüber, wie Interaktion mit KI Gewohnheiten, Erwartungen und Organisationskulturen verändert.
Es ist so weit! Am 1. Mai 2019 haben Christoph und Nils die ersten Episoden „Zwischen zwei Deckeln“ veröffentlicht. Es ging neben der „Nullnummer“ um „Resonanz“ von Hartmut Rosa und „Der Sieg des Kapitals“ von Ulrike Herrmann. Damals wussten wir noch nichts von Corona und nichts von der neuen Generation „Künstlicher Intelligenz“. Es gab keinen offenen Krieg in der Ukraine und der Konflikt zwischen Israel und den Palästinensern war noch nicht eskaliert.
Und doch haben uns ähnliche Themen über die sechseinhalb Jahre und jetzt 100(!) Episoden begleitet: Wir reden über Wissenschaft, über Kapitalismus und über das gute Leben. In unterschiedlichen Formen zu unterschiedlichen Anlässen, aber wenig von dem, was wir besprochen haben, ist heute nicht mehr aktuell.
Entsprechend haben wir uns für unsere Episode 100 den krönenden Abschluss unserer kleinen Serie über „Künstliche Intelligenz“ vorgenommen: Amanda, Christoph, Holger und Nils diskutieren mehr als zwei Stunden über die neuartige Technologie, die aber fast eher ein gesellschaftliches als ein technologisches Phänomen geworden ist.
Hört gerne rein und wir freuen uns wie immer über Rückmeldungen: zu dieser Episode, zu unserer kleinen Reihe und natürlich zu 100 Episoden „Zwischen zwei Deckeln“!
Transkript (automatisch erstellt)
Nils: [00:00:16] Hallo und herzlich willkommen zu Episode 100 von Zwischenzweideckeln, eurem Sachbuch-Podcast. Mein Name ist Nils und ich habe heute den Christoph dabei. Hallo zusammen. Und die Amanda.
Amanda: [00:00:30] Hoi miteinander.
Nils: [00:00:31] Und den Holger. Hallo. Genau, ihr habt es gehört, wir haben mal wieder eine Vollbesetzungsepisode, weil die 100 muss natürlich entsprechend gefeiert werden. Und wir haben es im Vorgespräch schon festgestellt, streng genommen ist das zwar die Episode 100, aber die 101. Weil es gab ja eine Episode 0. Und wir sind jetzt alle ganz happy drum, das auch schon jetzt in den Vorgesprächen ab und an besprochen, dass ich damals so größenwahnsinnig war, die Serie Folgennummern bei unseren Dateien und so sofort dreistellig anzulegen. Jetzt ist der Zeitpunkt gekommen nach rund sechseinhalb Jahren zwischen zwei Deckeln, wo sich das dann tatsächlich auszahlt und wir nicht nochmal an unsere Dateien umbenennen müssen oder die Sortierung durcheinander kommt. Also schön, dass ihr da seid, schön, dass ihr reinhört in unsere 100. Episode. Wir machen heute ein bisschen was anderes. Dazu kommen wir aber gleich. Jetzt will, glaube ich, Christoph euch erstmal kurz ein bisschen in unsere Geschichte mitnehmen. (….)
Christoph: [00:01:33] 100. Episode ist ja vielleicht für alle die, die noch nicht seit Anfang an dabei sind. Vielleicht habt ihr gar nicht geguckt, wann es denn eigentlich mal wirklich losging. Und es sind mittlerweile so knappe sechs, naja, ziemlich genau zur Aufnahme, also zur Veröffentlichung sind es ziemlich genau sechseinhalb Jahre. Also am 2. Mai 2019 sind, glaube ich, gleich, sind gleich drei Folgen online gegangen auf einmal. Ich glaube, die Nullnummer, Resonanz und Sieg des Kapitals sind die alle gleichzeitig. Naja, auf jeden Fall sind wir damals ja zu zweit gestartet, also Nils und ich. Und ich weiß noch, dass das Kennenlern-Treffen quasi, nachdem Nils auf Twitter als Twitter noch cool war, so lange ist das her, rumgefragt hat, ob nicht jemand Lust auf diese Art Podcast hatte, habe ich quasi die Hand gehoben und dann sind wir irgendwie schnell zueinander gekommen, hatten am Anfang noch die Idee mit einer dritten Person zusammen. Das hat sich dann aber zerlaufen und dann waren wir zu zweit. Und ich war, glaube ich, in der, ich war in Wolfsburg bei FreundInnen und habe da in der Wohnung das erste Kennenlern-Gespräch mit dir. [00:02:37] Das weiß ich noch nicht. Genau. Und dann hatten wir am Anfang auch so ein, zweimal waren irgendwie Gäste mit dabei, die sind dann aber nicht kleben geblieben, ganz anders als Amanda und Holger, die mittlerweile auch schon quasi ewig mit dabei sind. Also Holger ist mit Folge 31 eingestiegen. Wir haben am Anfang immer noch gefragt, wir sind zu zweit, eigentlich hätten wir gern mehr Menschen und dann war es Quantum Economics von David O’Reilly. Ich glaube, eine Folge, die wir auch weiterhin relativ häufig zitieren, in Hört doch auch mal hier oder da rein. Kann man ja.
Holger: [00:03:09] Ja, ich zitiere die immer mal wieder, wenn es irgendwie passt, ja.
Holger: [00:03:16] Das ist richtig.
Christoph: [00:03:18] Und dann ist Amanda mit Folge 35 mit eingestiegen und zwar mit Grandstanding von Justin Tosi und Brenton Warmke. Ich weiß nicht genau.
Amanda: [00:03:27] Ja, genau, irgend sowas. Ich bin gleich mit einem, ich sag mal, nicht ganz, hat nicht ganz zum Podcast gepasst, so das erste Buch, das ich vorgestellt habe.
Christoph: [00:03:40] Ah, okay. Die Folge habe ich ehrlicherweise nicht ganz so präsent. Ja, und das war dann auch schon irgendwie 2022 oder so. Also es sind jetzt echt insgesamt einige Jahre, die zusammengekommen sind und wir mittlerweile auch ganz etabliert in unserem dreiwöchigen Rhythmus. Am Anfang war es ja mal vierwöchig, aber dann, als ihr dazugekommen seid, sind wir auf diesen wirklich, glaube ich, weiterhin ungewöhnlichen Rhythmus geswitcht, weil ich glaube, kein Podcast-Fetcher, nee, also die Player, die man so hat. Podcatcher. Ich glaube, Podcatcher, die verstehen das ja alle nicht so richtig. Und von daher, ja, an alle von euch, die da draußen regelmäßig zuhören, reinhören, weiterempfehlen, anderen Leuten erzählen, dass sie das hier gut finden und uns mehr oder minder lange begleiten. Also egal, ob ihr seit Anfang dabei seid oder erst später dazugekommen seid. Vielen, vielen Dank. Wir sind vielleicht nicht der riesigste Podcast, aber von dem, was wir mitkriegen an Downloadzahlen und Bewertungen und so, ist es zumindest die kritische Schwelle, dass wir immer wieder in Redaktionssitzungen quasi zu dem Schluss kommen. [00:04:43] Das lohnt sich weiterhin, das macht weiterhin Spaß. Wir funken offenbar nicht einfach nur ins Nirvana. Das ist richtig schön. Vielen, vielen Dank an euch alle. Das vielleicht als kurzer Rückblick. Und genau, wir haben auf jeden Fall keine Pläne, jetzt aufzuhören. Also hier nach geht es einfach straight weiter. Amanda und ich haben die nächste Aufnahme schon geplant. Amanda hat das Buch rausgesucht. Also es geht einfach alles weiter, wie ihr es kennt. Nur jetzt diese kurze Spezialfolge.
Amanda: [00:05:11] Bis zum Zwischenzweideckeln Millennium Bug bei der tausendsten Folge.
Nils: [00:05:17] Ja, den Millennium Bug hatten wir ja, den Centennium Bug sozusagen hatten wir ja tatsächlich vor ein paar Wochen jetzt, wenn ihr das hört. Unsere Webseite und auch unser Feed ja mal für ein paar Tage offline. Da hat uns tatsächlich eine ungepatchte Lücke im Podcast Plugin erwischt. Und das hat dann auch zu einer kleinen Pause bei Spotify und so geführt. Aber macht euch keine Sorgen, die Feeds sollten jetzt eigentlich alle wieder da sein. Die Folgen sind alle wieder da. Die Webseite ist wieder da. Ihr könnt uns also auch da einfach wieder hören. Das war einfach perfektes Timing und gleich irgendwie drei Probleme hintereinander gekettet. Aber die haben wir jetzt auch alle wieder gelöst. Also unseren Millennium Bug hatten wir sogar schon. (……..) Gut, damit sind wir schon gleich beim Thema. Wir sind irgendwie bei Programmen, bei Software, bei Computern. Wenn ihr uns jetzt zumindest schon ein paar Episoden mal hört, dann wisst ihr, dass wir gerade zu unserer hundertsten Episode so ein kleines Themenspecial angegangen sind mit dem Thema Künstliche Intelligenz. [00:06:24] Da haben wir in den letzten drei Monaten, ja drei Monate sind das, viermal drei Wochen, sind zwölf Wochen, in den letzten drei Monaten vier Bücher euch vorgestellt. Jeder, jeder von uns eines vorgestellt. Den Anfang habe ich gemacht mit dem AI-Con von Alex Hanna und den zweiten Autor, den zweiten Autorin habe ich gerade vergessen. Wo es ja so ein bisschen um, ja allgemein ums Thema, so ein bisschen im allgemeinen Blick, auch einen frühen Blick im Grunde auf das ganze Thema ging. Dann kam Holgers Vorstellung von Live 3.0 oder Leben 3.0 von Max Tegmark, was jetzt dann doch eher so ein bisschen philosophisch, hochtrabend, sehr verkopft unterwegs war. Danach hat Amanda Empire of AI von Karen Howe vorgestellt. Da wurde es dann so im Gegenteil super konkret, so was ist denn eigentlich hier die wirtschaftliche Grundlage von dem, was da passiert. Vor allen Dingen eben dem Unternehmen Open AI, was in dem Bereich ja eine ganz große Rolle spielt. Und in der letzten Episode dieses Viererschlags kam dann Christoph mit Sisyphus im Maschinenraum. [00:07:28] Da habe ich die Autorin jetzt auch gerade nicht präsent. Wo es halt so ein bisschen um einen historischen Blick auf Geschichte und Blick auf Technik und das Verhältnis von Mensch und Technik ging. Ich glaube, wir haben mit diesen vier Büchern doch ein ziemlich großes Spektrum irgendwie auf das Thema abgedeckt. Das war am Anfang gar nicht so koordiniert, aber es hat sich tatsächlich sehr so gefügt, dass es gut zusammenpasst. Und wir wollen jetzt heute noch so ein bisschen die Gelegenheit mal nutzen, auf Grundlage dieser Lektüre, aber natürlich jetzt nicht darauf beschränkt, dieses Thema KI mal ein bisschen in der großen Runde zu diskutieren. Wir haben mal so aufgeschrieben, was sich uns so an Fragen ergeben haben bei der Lektüre, bei den Episoden, die wir hier in der Runde mal so ein bisschen ansprechen wollen. Bevor wir damit loslegen, würde ich jetzt erstmal einmal so eine kleine Runde geben und euch mal fragen, was ist bei euch von den anderen Büchern irgendwie besonders hängen geblieben? Also von denen, die ihr nicht selber gelesen oder vorgestellt habt, sondern wo ihr zugehört habt oder wo ihr die Episoden gehört habt. [00:08:31] Übernimm mal, wer anfangen möchte. (……)
Amanda: [00:08:39] Kann ich gerne machen. Also für mich, ich werde jetzt nichts Spezifisches dazu sagen. Was ich spannend fand, als ich die Folgen gehört habe und auch mein eigenes Buch dazu gelesen habe, ist einfach, wie breit der Zugang zu diesem Thema ist. Also Christoph, dein Buch, das sehr diese historische Komponente drin hatte, dann das Buch, was Holger vorgestellt hat, mit dieser ganz, wirklich ganz anderen Fokus auf irgendeine Zukunft, die es vielleicht geben wird oder nicht geben wird. Und ich fand das faszinierend, das ist ein bisschen auch jetzt nicht überraschend, aber ich finde schade, dass ich, meiner Meinung nach, sind die Autorinnen dann doch sehr in ihrem Gebiet verhaftet geblieben. Also es gibt nicht so viel, ich sage mal, Methodenaustausch, wie das Thema angegangen wird, jetzt in diesen Büchern, die ich dazu gelesen habe oder die ihr jetzt vorgestellt habt. Aber vielleicht habt ihr da eine andere Meinung zu. Das fand ich so ein bisschen, finde ich ein bisschen schade für das, dass es ja schon sehr breit diskutiert wird.
Christoph: [00:09:43] Ich glaube, was für mich besonders spannend an dem Buch von Max Thekmark war auf jeden Fall dieses ganze Thema, wie weit man in die Zukunft denken kann. Und da bin ich mir immer sehr unschlüssig, was ich davon halten soll, weil ich bin so einer Mischung aus, ich finde es besonders verantwortungsvoll und ich finde es besonders verantwortungslos. Also einerseits denke ich, warum, also es ist ja irgendwie sehr nobel, sich darauf zu stürzen, zu gucken, was macht das mit Menschen in 10.000 Jahren oder was auch immer oder ne, und wir sind auf anderen Sternen und keine Ahnung. Und andererseits ist es so ein bisschen, ja, ehrlicherweise betrifft uns, betrifft das meine Enkelkinder, meine möglichen oder meine Enkelkinder-Generationen, wenn nicht, meh, weiß ich nicht so richtig, ob wir uns damit jetzt rumschlagen sollten. Dann beim Empire of AI war auf jeden Fall für mich schon nochmal spannend die Genese und diesen Wandel von OpenAI als eigentlich so freundlich angelegte Firma, mal vorsichtig formuliert, hin zu, naja, wir scrapen das ganze Internet und ehrlicherweise Sam Altman ist dann irgendwann auch, sind die Sicherungen dann ein bisschen durchgebrannt. [00:10:49] Also diesen Wandel fand ich schon nochmal sehr, sehr spannend zu sehen. Ich glaube, das sind so die ersten beiden Sachen, die mir ganz besonders einfallen. Und ja, diesen, also in meiner Erinnerung ist auf jeden Fall, der AI-Icon zeichnet jetzt nicht so das positivste Bild der Zukunft. Und das ist auf jeden Fall auch hängen geblieben. Also so, dass, so Sozialsysteme werden vielleicht nicht gerechter, Kunst, Kultur und Journalismus leiden. Und ja, so die ganze Frage von, gut, bringt uns das näher an eine bessere Gesellschaftsform? Ne, es bleibt vermutlich ziemlich, es könnte unbarmherziger Kapitalismus am Ende rauskommen. Ja, und Arbeit wird vielleicht nicht weniger, sondern schlechter und schlechter bezahlt. Das ist irgendwie auch nicht so cool, so mit meinem Arbeitshintergrund auch. Das ist nicht das, was ich wollen kann. (……)
Holger: [00:11:54] Ja, ich muss sagen, ich finde es nochmal oder fand es ganz spannend, gerade auch bei dem Sisyphus im Maschinenraum, dass da bestimmte Dinge, bestimmte Entwicklungen generell in der Art, wie man Maschinen versteht und wie man mit denen umgeht, dass die sich, glaube ich, auch so in der ganzen Diskussion um AI doch auch irgendwie widerspiegeln. (….) Und ich glaube, das ist auch ein Punkt, der dann in der Diskussion vielleicht auch nochmal ganz spannend ist, auch in Relation zum AI-Con. Was ist denn, was ist denn das, was wirklich einen Einfluss haben wird auf die Zukunft? Und das ist auch das Life 3.0, das ist schon sehr abgefahren. Und ich habe die Tage auch selber nochmal darüber nachgedacht, ob das überhaupt so relevant ist für unser Leben im Moment. [00:12:54] Und glaube, dass da, dass sozusagen von den Büchern ist es das, was wahrscheinlich für unser Leben erstmal am uninteressantesten ist. (…) Und dann ist aber auch ganz gut, dass die anderen so ein bisschen geerdeter sind.
Nils: [00:13:12] Ja, ich fand auch tatsächlich gerade so ein bisschen bei Empire of AI, das ist bei mir hängen geblieben, wie viel von diesem Ganzen, was da passiert, auch so ein bisschen irgendwie Soap-Opera ist. Also was Amanda erzählte, dass da irgendwie am Anfang mal Elon Musk drin steckte, sich dann mal rausgezogen hat, dann Microsoft reingegangen ist. Und jetzt sieht man, wie Elon Musk irgendwie anderweitig versucht, dem Thema KI Fuß zu fassen. Also das hat auch schon sowas wie so eine, ja, wie so eine Truppe von pubertären Jungs, sag ich jetzt mal, die irgendwie so ihr eigenes Soap-Opera da aufstellen. Das fand ich spannend, das noch zu sehen. Und gleichzeitig, dass das dann irgendwie den Weg schlägt zu, wie lebt die Menschheit in einer Million Jahren. Also dass irgendwie diese Soap-Opera-Boys da maßgeblich dazu beitragen, dass man sich die Frage stellen kann, wie sieht die Zukunft der Menschheit aus. Also das finde ich schon irgendwie, ja, irgendwie beängstigend, muss ich sagen. [00:14:14] Wie einfach das dann am Ende doch irgendwie auch ist.
Holger: [00:14:18] Ich kann da noch ganz kurz ergänzen, das hatte ich in der Buchvorstellung nicht erwähnt. Aber, also Elon Musk war durchaus auch mal bei dieser Stiftung, für die der Max Teckmann arbeitet, irgendwie, ich weiß nicht mehr ganz genau, was es war, ob er da nur Geld gegeben hat oder wie die Interaktion war. Aber der hat da auch irgendwie auch mal mitgemischt in irgendeiner Form. Das Buch ist, glaube ich, es ist geschrieben worden, bevor Musk so richtig abgedreht ist und drückt es dann eher positiv aus. Ich weiß nicht, ob er das heute nochmal so schreiben würde, aber, ja.
Nils: [00:14:58] Ja, gut. Gibt ja auch diese schönen Tesla-Aufkleber, ne? I bought this before Musk went crazy oder sowas. Das finde ich auch mal ganz gut. Ja, also, das decken ganz wenige Menschen, ganz wenige Köpfe im Hintergrund. Und, also, wer es nicht mitgekriegt hat, Musk war auch einer der ersten großen Finanzierer eben von OpenAI. Aber auch schon irgendwie acht Jahre her, zehn Jahre her, also schon viel, viel länger her, als man jetzt, als wir von ChatGPT und sowas wissen. Aber, ja, genau, das hängt alles ganz eng zusammen.
Christoph: [00:15:28] Ich finde, das ist eh, also, wenn wir da nochmal kurz reinspringen, ich finde, das ist von der Entwicklung her eh total faszinierend. Ich meine, das ist bei großen technischen Innovationen ja immer mal wieder so, auch, wenn wir an mRNA-Impfstoffe und so denken, dass es sehr einzelne Personen braucht, die an ein erstmal vielleicht abstrus oder verrückt klingendes Konzept glauben und dranbleiben und das forcieren. Ich finde, das ist ja die ganze Idee von, wir machen so ein besseres Autocomplete und daraus erwächst, was richtig krass ist, wenn wir jetzt an LLMs denken vor allen Dingen. Das, finde ich, ist schon beeindruckend. Also, zum Thema vor zehn Jahren ging das irgendwie los. Das ist schon wirklich besonders an dem Thema. Also, wir können später noch über das ganze Thema Verengung KI auf LLMs sprechen. Ich finde, das ist wichtig. Aber, ja, das zum Thema vor zehn Jahren, wann gab es da nie Beginn?
Holger: [00:16:25] Wobei ich da jetzt mal, also, da muss ich mal kurz reingrätschen.
Christoph: [00:16:29] Das ist gut.
Holger: [00:16:29] Also, die ganze KI-Diskussion ist schon deutlich älter. Das, was halt der Unterschied ist, ist, dass man lange einfach nicht so die Rechenpower hatte. Aber, ne, also, ich, irgendwo hier habe ich das Kaisers neue Kleider von Roger Penrose stehen. Ich glaube, das ist irgendwie Mitte der 80er geschrieben. Also, das ist dann jetzt auch schon 40 Jahre alt. Und ich glaube, also, es ist lange her, aber ich glaube, dass da irgendwo auch zumindest schon mal so einfache Chatbots erwähnt werden. Der Unterschied ist halt, dass die damals, haben die noch nicht gelernt. Da wurden die noch nicht mit neuronalen Netzen aufgesetzt und waren deutlich simpler. Ich kann aber auch aus meiner eigenen Studienerfahrung sagen, als ich meine Diplomarbeit geschrieben habe, was jetzt auch schon 20 Jahre her ist, Da saß im Büro neben mir jemand, der hat da mit neuronalen Netzen schon rumgebastelt. [00:17:30] Das ist alles nicht so neu. Diese Ideen gibt es schon relativ lange. Der Unterschied ist, dass man jetzt einfach diese riesen Rechenpower und diesen riesen Dateninput hat. Das ist die Neuerung. Aber die Ideen sind eigentlich alle schon deutlich älter.
Nils: [00:17:46] Ja, wobei das Thema neuronale Netze, das galt ja auch schon mal als Sackgasse. Bis dann irgendwann diese Deep Neural Netzwerk Architektur. Das ist, glaube ich, jetzt, das könnte jetzt ungefähr irgendwie 20 Jahre her sein. Ich weiß es nicht genau. Ich glaube, sogar noch ein bisschen weniger. Wo dann genau das dann auf einmal. Oh, wenn man die so macht, dann können sie ja doch was. Also das ist natürlich immer so ein Wechselspiel. Aber diese Idee ist halt auch schon älter, als wir jetzt von Chat, GPT und Ähnlichem wissen. Das haben wir ja eigentlich bei so Entwicklungen immer, dass die ganz lange, lange Geschichten mit sich bringen. Auf allen Ebenen.
Amanda: [00:18:16] Und dass auch das Finanzielle eine Rolle spielt. Also nicht nur der technische Fortschritt, sondern auch die kulturelle Verfassung, wie man mit sowas umgeht. Ob man das jetzt hypt, ob das was ist, was man viel Geld da reinsteckt. Und das ist ja schon auch, hat irgendwie so fruchtbaren Boden gefunden in den letzten zehn Jahren. Den es vielleicht vor 50 oder 75 Jahren nicht gegeben hätte. Auch wenn die Technologie gestimmt hätte. Ich weiß nicht. Ich finde da schon, also das fand ich auch sehr beeindruckend mit diesen Zahlen. Also diese, es gibt ja auch, ist es überhaupt einfach ein Hype ökonomisch? Aber das sind absurde Zahlen, die da investiert werden. Da muss man auch die Bereitschaft als Gesellschaft zu haben, das irgendwo reinzustecken.
Nils: [00:19:03] Ich glaube, auf den Aspekt kommen wir gleich nochmal ein bisschen vertiefter rein. Ich glaube, da haben wir viel zu passieren. Da haben wir jetzt auch ein bisschen das Problem, dass wir jetzt diese Episode aus Gründen schon Anfang Oktober aufnehmen. Und wenn ihr die jetzt Ende November hört, sind vielleicht auch manche Informationen, die wir jetzt hier spontan reinwerfen, gar nicht mehr 100 Prozent aktuell. Habt das bitte immer kurz im Hinterkopf, dass wir hier nicht tagesaktuell sein können. Aber da werden wir gleich auf jeden Fall auch noch zu kommen. Ich würde jetzt erstmal euch mitnehmen auf diese philosophische Ebene sozusagen. Die haben wir jetzt bei den Büchern ja vor allen Dingen bei Max Tickmark gehabt. Aber bei den anderen klangen sie auch immer so ein bisschen auf. Und erstmal diesen Aspekt mitnehmen, den Christoph gerade schon angesprochen hat. Wie weit in Zukunft müssen wir eigentlich denken oder sollten wir eigentlich denken? Oder wie weit sollten wir das berücksichtigen, was irgendwie zukünftige Menschen sind? Weil es gibt ja im Rahmen dieses KI-Booms gibt es ja dieses Tescreal-Weltbild, was ich immer noch einen sehr schönen Begriff finde. [00:20:05] Wo wir eben sagen, es wird zukünftig Billionen von Menschen geben. Und deren Wohl müssen wir irgendwie in unsere jetzigen Überlegungen einkalkulieren. Und die Menschen, die in 2000 Jahren andere Sonnensysteme besiedeln, die müssen wir jetzt schon irgendwie mitdenken. Und auf die müssen wir irgendwie unser Handeln ausrichten. Und dann gibt es natürlich die Perspektive, die sagt, hey, was soll das denn? Hier verhungern die Leute und haben kein Dach über dem Kopf. Und wir denken irgendwie an Gott weiß was. Das möchte ich euch jetzt mal so in die Runde werfen. (…)
Christoph: [00:20:36] Ja, also ich glaube, das Ganze kann man ja unter Long-Termism. Genau. Das ist so die philosophische, wenn man es so nennen möchte, Strömung dahinter. Und ich finde es ehrlicherweise relativ abstrus. Also ich bin da sehr, sehr bei. Hey, wir haben sehr konkrete Probleme, die in ihrer, in ihrem Konkreten trotzdem durchaus auf absehbare Zukunfte zeigen. Klima, Wandel, Krise, wie auch immer. Ungleichheit, Migrationsthemen der nächsten Jahrzehnte. Mit denen wir uns, glaube ich, viel vordringlicher beschäftigen sollten. Und eigentlich bin ich kein großer Fan davon zu sagen, naja, es gibt ja wichtigere Probleme, sondern alle möglichen Probleme können in einer differenzierten Gesellschaft gleichzeitig behandelt und bespielt werden. Aber beim Long-Termism denke ich wirklich so ein bisschen, oh Leute, richtet mal bitte vor allen Dingen auch das, was an Finanzkraft dahinter steht. Das ist ja nicht nur eine kleine Forschungsgemeinschaft beschäftigt sich halt damit, sondern da steckt ja wirklich, da steckt sehr viel gesellschaftliche Macht hinter. [00:21:42] Richtet das doch vielleicht mal bitte auf tatsächlich sehr drängende Probleme, die konkret zu lösen sind.
Holger: [00:21:50] Ja, ich würde das nochmal auf eine weitere Art ein bisschen unterstreichen, weil wenn man so ein bisschen mal drüber nachdenkt, über generell diese Philosophie des Long-Termisms, stecken da ja immer schon bestimmte Annahmen drin. Da steckt immer die Annahme drin, dass bestimmte Sachen, die im Jetzt passieren, dass man die ignorieren kann, je nachdem, wie es in die Zukunft läuft. Das ist aber gar nicht unbedingt so klar. Also es ist nicht klar, dass eine Entscheidung, wie wir jetzt unsere Gesellschaft gestalten, zum Beispiel wie wir mit Armen umgehen, dass die nicht eine positive Auswirkung in die Zukunft hat, die sich dann auch potenziert. Das heißt, die Leute, die den Long-Termism vertreten, die blenden ganz gerne all das aus, was nicht in ihr persönliches Bild passt. Ja, aber so jetzt rein logisch betrachtet, ist es gar nicht sicher, ob es nicht, sie dadurch nicht auch Dinge vernachlässigen, die für die Menschheit insgesamt zu einer positiveren Zukunft führen. [00:22:58] Und das ist halt auch nochmal ein interessanter Gedanke, wenn jemand mit irgendeiner Philosophie ankommt, ist immer, glaube ich, ganz sinnvoll, mal zu checken, das, was der erzählt, nützt das vor allem ihm selber? Oder, also im Hier und Jetzt, nützt ihm das vor allem selber, um zu begründen, was er tut? Ja, oder ist das was, was auch jetzt schon, wo auch jetzt schon die Mehrheit der Menschen sagen kann, naja, also irgendwie ist es schon was, was ich nachvollziehen kann und was mir auch hilft? (…..)
Holger: [00:23:40] Ja, und sozusagen im Extremfall, ja, wenn wir jetzt eine Entscheidung treffen, mit der wir die Menschheit auslöschen, ja, entweder jetzt oder, ne, wenn es mit der Klimakrise ganz extrem wird, vielleicht nicht jetzt sofort, aber in den nächsten 300 Jahren, ne, dann ist auch alles, was danach passiert, egal. Deswegen, denke ich, kann man das jetzt auf keinen Fall ignorieren.
Amanda: [00:24:05] Ich glaube, da spielt noch mit rein, dass es so insgesamt so diese, diese theologische Auffassung von, wir entwickeln jetzt eine generelle KI, die dann das und das und das lösen kann und wird, auch sehr ideologisch gefärbt ist oder sehr aufgeladen. Also, wir wissen erstens nicht, ob sie das können wird, weil man muss ja schon sagen, wenn wir wissen würden, wie man diese Probleme lösen könnte, die die Menschheit potenziell auslöschen wird, dann könnten wir das irgendwie angehen, ne. Und, dass da andere Gründe dagegen sprechen, seien das politische oder wie auch immer, finde ich sehr verkürzt, wenn man dann sagt, ja gut, die AI wird das lösen und dann auch davon ausgeht, dass man die zielgerichtet sozusagen entwickeln kann, dass sie das tun wird, finde ich sehr, ja, schräg. (….)
Nils: [00:25:00] Das ist auch, glaube ich, einfach eine Frage der Ebene, auf der man Probleme lösen will. Also, es gab für Corona, gab es mal den schönen Punkt, alle kommunizieren und so, ja, es war ein großer Erfolg, dass dieser Impfstoff so schnell entwickelt wurde und dass irgendwie Wissenschaftler so erfolgreich war und so weiter und so fort. Ja, das ist nicht falsch, das war es sicherlich. Es war ein großer medizinischer Entwicklungserfolg, überhaupt keine Frage. Aber gescheitert sind wir dann an dem Sozialen dahinter, den dann zu den Menschen zu bringen und so weiter und so fort. Und dann gab es so dieses schöne, ja, jetzt stecken alle irgendwie Millionen und Milliarden in die STEM-Forschung, um eben weiter solche Impfstoffe zu entwickeln und so fort und kürzen die Humanities und die Social Sciences. Und jetzt gucken wir mal, wo hatten wir eigentlich das Problem. Das Problem hatten wir eigentlich nicht in dem STEM-Teil. Der hat das durchaus hingekriegt. Er wäre vielleicht schneller gegangen oder so. Das ist jetzt auch sicherlich nicht perfekt, aber der hat zumindest sein Kernproblem gelöst gekriegt, wo es gescheitert ist in eben die ganzen anderen Bereiche, eben der soziale Bereich, wo wir dann jetzt Mittel aber auf einmal kürzen. [00:26:01] Also wo es dann noch schwieriger wird, sowohl in der wissenschaftlichen Forschung, das bezog sich jetzt auf wissenschaftliche Forschung, aber natürlich auch in der Infrastruktur, in der sozialen Infrastruktur, medizinische Versorgung und so weiter und so fort. (….)
Holger: [00:26:16] Ja, ich glaube, das ist auch so ein allgemeines Problem, was wir dann immer bei den meisten Problemen haben. Also wir kennen auch, wir wissen auch, wie wir die Klimaproblematik lösen können. Es ist halt nur unglaublich schwer, das irgendwie in die Praxis umzusetzen. Eben auch, weil es bestimmte Interessen gibt, die dagegen sprechen. Und dann, das ist wieder der Punkt, was ich eben schon meinte, man sollte auch immer überlegen, was ist denn die Person, die einem gerade irgendwas erzählt, mit irgendeiner Begründung, was sind denn deren persönliche Interessen? Und dann stellt man fest, deren persönliche Interessen passen vielleicht nicht zum Interesse der breiten Massen, weder im Hier und Jetzt noch in der weiten Zukunft. (……)
Amanda: [00:27:06] Ich würde noch, also ich bin da, ich gehe da mit. Ich würde aber, was du gesagt hast, Nils, bezüglich jetzt dieser Forschung, da würde ich schon so weit gehen, dass man auch hier das Problem dieses, auf Englisch ist das Exploration-Exploitation-Dilemma hat. Also man muss verschiedene Dinge ausprobieren, um dann im Verlauf sagen zu können, was vielleicht am besten nützt. Und hier sehe ich halt schon die Tendenz dazu, dass man mit dieser ganzen Entwicklung der künstlichen Intelligenz eben sehr viel auf eine Schiene setzt. Und du hast die Impfungen erwähnt. Das wurde ja schon, auch schon sehr lange wurde das entwickelt. Das hat halt nie Fahrt aufgenommen, weil diese, ich sage mal, die Exploration-Anforderung war halt nicht gegeben in dem Ausmaß, als wir das mit Corona hatten. Und dort sehe ich so ein bisschen, das geht wie ein bisschen verloren in dieser AI-Geschichte. Also dass man da eine Balance finden muss zwischen den Ressourcen, die man da reinsteckt und das, was man da rauskriegt. [00:28:10] Und nur weil das so allverfügbar ist, habe ich das Gefühl, werden wir da ein bisschen geblendet, was das kann.
Nils: [00:28:19] Ich finde das auch spannend, wenn wir jetzt gerade das konkrete, die KI-Version, die gerade in aller Munde ist, nämlich die Sprachmodelle oder wie es jemand so schön nannte, Spicy Autocomplete. Das fand ich auch ganz schön, dass das natürlich auch nochmal ganz viel so Ebene der Kommunikation ist. Ja, wenn wir nur sagen, also wenn die nur sagt, wie wir die Klimakatastrophe, ich will jetzt nicht sagen verhindern, aber noch abschwächen, formulieren wir es mal so, können, dann wird das auch so passieren. Aber wir wissen ja, das ist eigentlich gar nicht das Problem. Wie Holger gesagt hat, wir haben die Lösung, wir kennen die Lösung, wir brauchen keine KI, die uns die Lösung sagt. Wir müssen ins Tun kommen, ins echte Machen kommen und das nimmt uns die KI halt nicht ab. (…)
Christoph: [00:29:02] Ja, da schließe ich mich erstmal komplett an. Also das ist wirklich mit das Spannendste an der Klimakrise, dass die Techniken tatsächlich vorliegen zur Lösung. Das ist wirklich, das macht das zu einem sehr interessanten Problem. Was ich an dem Thema Exportation so spannend finde, ist, dass mir noch gar nicht so klar ist, also da geht so viel Geld rein, wann genau rechnet sich das mal für die Firmen? Weil bis jetzt sind wirklich unfassbare Mengen Kapital da reingeflossen, dafür, dass wir Programme haben, die uns E-Mails schreiben können, die das Googeln ein bisschen vereinfacht haben, die Wissen vielleicht nochmal einfacher abrufbar gemacht haben. Aber ob die Versprechen, die es so gibt, eingelöst wurden, die ganz großen, da sehe ich ehrlicherweise noch ziemlich kritisch. Also so diese Blaseneffekte und es ist ja schon spannend, also man kann sich ja fast fragen, ob nicht gewusst wird, wohin mit dem Geld. [00:30:03] Also ob das Venture-Kapital einfach nicht wusste, wo sie es denn jetzt reinbuttern sollen. Und dann hat man halt das genommen und ja, jetzt schreiben wir halt, jetzt können wir E-Mails uns gegenseitig automatisiert verfassen lassen und automatisiert lesen lassen. Aber also das ist offensichtlich überspitzt, aber wisst ihr, was ich meine?
Nils: [00:30:20] Ja, das ist ja tatsächlich, das ist ja die Debatte, die jetzt gerade, also Anfang Oktober, ich sage jetzt tatsächlich immer das Datum dazu, damit ihr das zeitlich einordnen könnt, weil das sehr schnelllebig ist. Die jetzt gerade in den letzten Wochen ein bisschen weiter in die Öffentlichkeit gedrungen ist, wo jetzt auch die ersten großen Akteure, jetzt Deutsche Bank war es, glaube ich, Wall Street Journal hat darüber berichtet, dass das jetzt so langsam klar wird, dass das eine gigantische ökonomische Blase ist, wo eben auch Leute sagen, da hängt fast ein Drittel des gesamten amerikanischen Börsenwertes aller Unternehmen hängt mittlerweile in dieser Blase, wo sich halt eben auch einfach zirkuläre Investitionen ergeben. Also jetzt kam gerade raus, diese Investition von 100 Millionen von Nvidia bei OpenAI.
Christoph: [00:31:00] Milliarden.
Nils: [00:31:00] Milliarden, ja natürlich, Entschuldigung, wie konnte ich nur drei Nullen vergessen? 100 Milliarden, also eine unglaubliche Summe. Und was macht OpenAI mit dem Geld? Kauft Prozessoren bei Nvidia. Und was investiert Microsoft? Das waren damals noch nur in Anführungszeichen 10 Milliarden in OpenAI. Und was macht OpenAI mit diesen 10 Milliarden? Kauft damit Computerrechenpower zum Selbstkostenpreis bei Microsoft. Also es ist tatsächlich, und dann verbuchen noch beide das als Umsatz und als Asset auf irgendeine Art und Weise. Und die Unternehmen sind irgendwie größer geworden, weil sie einmal Geld hin und her geschoben haben, ohne dass irgendwie was passiert ist. Also das ist tatsächlich eine unglaubliche Struktur, die da gerade ist. Und ich sehe auch keinen Weg. Mit welchen Umsätzen soll das denn gemacht werden? Ich glaube, die Umsätze, die nötig wären, um das irgendwie rentabel zu machen, das wäre der jetzige komplette Umsatz von Amazon, Apple, Google, Microsoft zusammen, den alleine irgendwie OpenAI machen müsste, um die Investitionen auch nur grundlegend in irgendeiner Form rentabel machen zu können. [00:32:08] Also das sind einfach Zahlen, die werden sich nicht realisieren lassen können, hoffentlich. Weil wenn sie es tun, dann frage ich mich, wo das Geld dann fehlt.
Holger: [00:32:18] Ja, das ist natürlich auch ein bisschen so die Frage. Ich weise mal kurz darauf hin, ich habe ja auch mal Mythos Geldknappheit vorgestellt. Und die Frage ist, was sagen diese Zahlen? Ist da denn wirklicher Wert hinter? Und ich würde sagen, im Moment, zumindest was das Kapital angeht, ist das einfach ein Hype. Und ich frage mich auch, also ich denke auch zum Beispiel die ganze Blockchain-Geschichte war auch ein Hype, wo man dann am Ende festgestellt hat, da gibt es eigentlich keine, eigentlich nicht so richtig viele sinnvolle Anwendungen für, wenn man mal ehrlich ist. Und das ist halt auch eine Frage, die ich mir jetzt stelle. Ich meine, wenn da irgendwelche Milliardäre ihr Geld irgendwie spazieren führen wollen, hätte ich es auch lieber, wenn sie damit was tun würden, was auf jeden Fall nützlich ist. (….) Weil jetzt sowas wie Nvidia kann ich verstehen, dadurch sichern die sich selber einfach einen Abnehmer, dass das irgendwie so komische zirkuläre Sachen sind. [00:33:25] Okay, auf der anderen Seite ist es jetzt nicht so, dass es bei anderen Sachen nicht auch so Prozesse gibt. Also ich sage mal, Leute, die sich darüber beschweren, wie viel Entwicklungshilfe irgendwie Deutschland zahlt, was ja eigentlich schon absurd wenig ist, wenn man das mal in Relation nimmt. Aber wenn man da mal guckt, wie viel davon landet denn letzten Endes wieder bei irgendwelchen deutschen Firmen über den Umweg aus Ausland, dann denkt man sich auch, dass viele der Sachen, die da gesagt werden, eigentlich albern sind. Und vielleicht ist das hier auch ein bisschen sowas, da wird Geld im Kreis geführt, damit man, wie du es schon gesagt hast, die Bilanz schöner aussehen lässt. Viel spannender finde ich die Frage, was wird denn damit wirklich an Wert erzeugt? Und das ist eine Frage, die ich im Moment sehr offen sehe. Weil so beeindruckend, wenn man mal ein bisschen genauer hinguckt, ist die ganze Geschichte mit den Large Language Models eigentlich gar nicht.
Christoph: [00:34:24] Wie meinst du, inwiefern nicht beeindruckend?
Holger: [00:34:28] Naja, also das ist schon ein gutes Tool, aber das hat eben auch viele Schwächen. Und wenn man diese Schwächen ignoriert, dann hat man da halt auch keine vernünftigen Ergebnisse. Das fängt damit an, dass diese Large Language Models, die sind ja nicht so, dass die versuchen, eine wahre Aussage zu machen, sondern die versuchen, nur eine wahrscheinliche Aussage zu machen. Also die stellen das, was sie sagen, ja so zusammen, dass sie berechnen, was wäre denn am wahrscheinlichsten, was danach gesagt wird. Das heißt aber zum Beispiel, eigentlich ist es auch entgegen dem Geist zum Beispiel der Wissenschaft. In der Wissenschaft sagt man, okay, wir möchten auch irgendwie feststellen, wenn wir falsch liegen. Und klar, auch da ist es so, dass es irgendwie sowas gibt wie einen Mehrheitskonsens, aber es gibt eben auch Leute, die dagegen streiten. Aber darauf wird eine KI ja gar nicht optimiert. Eine KI wird darauf optimiert, das zu wiederholen, was die meisten sagen. So, wenn die meisten Leute, die im Internet präsent sind und wie der Meinung sind, Impfungen taugen nichts, ja, dann wird die KI einem das auch sagen. [00:35:36] Beziehungsweise wenn sie denkt, die Peergroup von der Person, mit der ich gerade rede, sagt das größtenteils, wird sie das bestätigen. So, und dann denke ich mir, okay, wenn ich nur wen brauche, der mir was nachplappert, kann ich mir auch ein Papagei kaufen. Ne, also, ganz davon abgesehen, ne, dass KI auch wirklich, ne, dadurch, dass sie nur versucht, wahrscheinlich Aussagen zu machen, dann auch wirklich falsche Dinge sagt. Ne, also zum Beispiel, wenn man KI nach Quellen fragt, ja, dann kriegt man halt teilweise irgendwelche Internetseiten, die es gar nicht gibt, die aber irgendwie plausibel klingen. Um zu sehen, dass es die nicht gibt, muss man mal draufklicken. Ne, eine KI, die ein Paper schreibt, erzeugt irgendwelche Verweise auf irgendwelche Paper, die zitiert werden, die es gar nicht gibt, die aber so klingen, als könnte es sie geben. Ne, und ich persönlich finde das eigentlich nicht so beeindruckend, weil das heißt dann, ne, ich kann KI nutzen, aber ich muss eigentlich alles, was da rauskommt, immer nochmal checken, ob das überhaupt sinnvoll ist, was dabei rauskommt.
Nils: [00:36:39] Und das kann ich halt im Zweifel auch gar nicht. Ich muss halt auch in der Lage sein, es zu checken, in der Tiefe zu durchdringen, was sie da behauptet. Also, ich fand das Beispiel mit dem Durchschnitt sehr schön. Es gibt da dieses Rätsel, was ist schwerer, zwei Kilogramm Blei oder zwei Kilogramm Federn? So, oder machen wir zehn Kilogramm Blei oder zehn Kilogramm Federn? Kennt man, das steht tausendfach im Netz. Und da kann irgendwie der gängige Chatbot auch eine Antwort drauf liefern. Und dann ändert man dieses Rätsel aber leicht ab, was ist leichter, zehn Federn oder zehn Kilo Blei? Also, man lässt bei den Federn einfach das Kilo weg. Das schnallt er aber nicht. Er ist dann voller Überzeugung, dass es natürlich darum geht, dass Kilos sind und dass natürlich zehn Federn das gleiche wiegen wie zehn Kilo Blei. Also, das ist einfach nur so ein Beispiel. Das ist halt wirklich so der Durchschnitt des im Internet dazu geschriebenen, den man dadurch abrufen kann. Ich meine, es gibt mittlerweile andere Varianten. Es gibt mittlerweile diese Idee, das um Suchergebnisse zu erreichen und die Inhalte eher aus den Suchergebnissen zu ziehen und das LLM für den sprachlichen Umbau zu nutzen. [00:37:41] Also, da gibt es mittlerweile Architekturen, die das abfedern. Aber ironischerweise werden diese Architekturen immer weniger LLM. Die nutzen, die sagen nur, das LLM wird so ein bisschen zu so einem Dirigenten, der andere Dinge herbeizieht, die dann die eigentliche Arbeit tun. Und da geht es dann auch richtig in diese Agentic AI, aber da wollen wir jetzt hier, glaube ich, nicht vertieft da rein einsteigen. (…)
Amanda: [00:38:06] Ich glaube, das ist eine wichtige Entwicklung, die man erwähnen muss. Also, diese LLMs und auch das, was die können und diese Generalisierbarkeit von diesen Fähigkeiten. Das ist was anderes, als wenn man jetzt sagt, es gibt jetzt so viele KI-Anbieter, die dann ganz spezifisch auch für ein gewisses Gebiet, eine gewisse Funktionalität trotzdem auf einem Large Language Model basierend anbieten. Aber du kannst halt ganz einfach was hinten ansetzen. Das sagt, hey, kontrolliere die Quellen, bevor du das rausgibst. Also, das ist ja nichts, das ist ja keine Hexerei-Code-technisch, das zu machen. Also, du lässt was generieren und überprüfst das im Nachhinein. Und das wird ja sehr oft gemacht. Und denke ich, da darf man halt wenig mit dem Anspruch für lupenreine wissenschaftliche Methodik an Chat-GPT hereintreten. Da muss man halt was Besseres für suchen.
Holger: [00:39:05] Also, ich stimme dir da voll zu. Das, was ich halt nur sehe, ist, dass das nicht immer so den Leuten bewusst ist. Also, ich denke, es ist ein nützliches Werkzeug. Also, ich sage nicht, wir sollen das gar nicht nutzen, was auch immer. Ich sage nur, das ist nicht so beeindruckend, wie viele tun. Sondern das ist was. Da muss man noch arbeiten. Da muss man wissen, wie man damit umgeht. Da muss man halt alles, was da rauskommt, muss man selber zumindest nochmal auf Plausibilität prüfen und nicht einfach für bare Münze nehmen. Und man muss sich über die Probleme einfach im Klaren sein. Es gibt auch noch Probleme, ich weiß nicht, ob ihr das mitbekommen habt, diese Rückkopplungseffekte. Dass, wenn ein LLM auf Output von einem LLM trainiert wird, dass das irgendwie, wenn man das irgendwie drei, vier Zyklen durchlaufen hat, dass da nur noch totaler Müll draus kommt. Und wenn man dann auf der anderen Seite sieht, dass immer mehr, was im Internet so kursiert, von irgendwelchen LLMs geschrieben wird, (….) [00:40:11] dann steht zu befürchten, dass die Output-Qualität von LLMs eher sinken wird. Und wie gesagt, sie hat jetzt schon ihre Probleme. Und das sind Dinge, weswegen ich sage, ich bin da nicht so beeindruckt von, wenn ich mir einfach angucke, welche Probleme gibt es da denn? Und glaube, solange man nicht ehrlich damit umgeht und sagt, das ist ein nützliches Tool, wenn man weiß, wie man es verwendet. Und man darf auch nicht alles damit versuchen, weil dadurch, dann haben wir die Rückkopplung, dann wird das Tool in sich deutlich schlechter.
Amanda: [00:40:40] Aber da würde ich dir jetzt widersprechen, weil ich finde, ich bin einer Meinung mit der, wenn du sagst, man muss es wissen, wie man es verwendet. Aber ich hätte jetzt noch gesagt, ich wäre einen Schritt weitergegangen, hätte gesagt, so wie die konzipiert sind, die Art und Weise, wie wir mit diesen interagieren, verhindert gewisse, ich sag mal, Qualitätsnutzungen. Zum Beispiel ist ja das Problem, ich sag mal, wenn es um Wissensarbeit und so, weil Quellenakkurate Fakten und so weiter geht, da stimme ich mit dir überein. Aber sehr viele Menschen benutzen jetzt diese Chatbots, um irgendwie emotionale Probleme zu lösen. Und da sehe ich zum Beispiel ein großes Problem darin, dass diese Chatbots nicht nachfragen. Also die können dir ja schon irgendwie eine Antwort liefern, aber was, also das Design, wie diese, wie die Interaktion, wie die Bedienungsführung ist, um zu einer Antwort gelangen, verhindert ja, dass du überhaupt eine sinnvolle Antwort kriegen wirst. Also du kannst nicht nur einen Prompt schreiben, der dann dazu führt, dass die Antwort dir nützt. [00:41:46] Also kann natürlich schon sein, aber da sehe ich auch ein Problem, wie das designt ist, nicht nur technisch, wie die implementiert sind.
Nils: [00:41:53] Ich glaube, wir haben da auch tatsächlich nochmal so ein bisschen die Frage nach dem Einsatzkontext. Also ich glaube, wir kommen auch hier wieder weg von der technischen Frage, ganz hin zu der Frage, wie setzen wir es ein? Ich erlebe das halt dann doch im stressigen, gerade Arbeitsalltag, wenn die Arbeit sowieso die Stunden überschreitet, die man macht. Und dann spuckt einem Chat-GPT ein Ergebnis aus, was halt schon mal auf meinen ersten Blick plausibel wirkt. Vielleicht auch einem Thema, in dem ich nicht so hundertprozentig drin bin. Dann nutze ich das halt, weil ich halt gar nicht die Kapazität habe, sozusagen an der Stelle das dann nochmal zu überprüfen. Vielleicht auch, weil die Anforderungen einfach, weil die Arbeitsanforderungen stärker, schärfer geworden sind, der Produktivitätsdruck höher. Und dann kann ich es gar nicht überprüfen, selbst wenn ich das vielleicht sogar weiß. Und noch viel schlimmer wird das, wenn ich ans Lernen denke. Also dieses erstmal Lernen, was ich nicht weiß, das übergeht sich damit ja komplett. Weil ich habe in so einer Reflexion von einem Chat-GPT-Text, muss ich nochmal auf eine ganz andere Weise erstmal in der Lage sein, diesen Text zu hinterfragen. Als wenn ich quasi vor einem blanken Papier sitze und das erstmal selber aufbauen muss. [00:42:56] Weil ich vielleicht gar nicht in der Lage bin, diese Komplexität im Grunde zu hinterfragen. Und dann darauf auch Wissen aufzubauen. Ich glaube, das ist tatsächlich ein gewaltiges Problem. Zumindest an den Stellen, wo es um echtes, wo es um konkretes Wissen geht. Also man muss ja auch immer mal gucken, wenn man jetzt wieder in den Arbeitsalltag guckt, zumindest bei mir, da geht es meistens nicht darum, dass irgendwie jetzt genau die richtige Quelle an genau der richtigen Stelle angegeben ist. Da geht es darum, ich brauche jetzt einen Workshop für vier Stunden. In dem Workshop soll das und das passieren, mach mir dafür mal einen ersten Entwurf. So, oder mach mir da mal eine Agenda für oder so. Ja, da gibt es nicht so richtig ein super mega falsch. Das ist ja auch so ein bisschen das Argument, was er auch so sagte, dass CEOs aufpassen müssen, dass sie nicht die ersten sind, die von AIs ersetzt werden. Oder irgendwie Führungskräfte und ähnliches, die halt eher auf so einer weichen, kommunikativen, sprachlichen Ebene im Normalfall unterwegs sind. Und eben, wo es jetzt egal ist, ob sie die perfekte, hundertprozentige Formulierung treffen oder genau exakt die richtige Zahl haben. [00:43:59] Es muss so vom Vibe her stimmen, wo dann eher die, die die konkreten Arbeiten machen, die konkrete Dinge lösen müssen, konkrete Probleme in der echten Welt bearbeiten müssen. Dass die dann eigentlich merken, irgendwann, das hilft mir eigentlich gar nicht. Weil das so oft eigentlich neben der Realität ist, dass es mir an der Stelle dann gar nicht hilft.
Christoph: [00:44:23] Ja, ich finde es sind so drei Sachen werden dann jetzt nochmal klar. Also wir haben hier im Pet die Frage stehen, ob KI intelligent ist eigentlich. Und ich finde, es wird einfach sehr, sehr deutlich durch die Diskussion, dass die Anwender in Intelligenz sein müssen. Also ich glaube, wir haben einfach krasse Literacy-Probleme, wenn es um die Anwendung geht. Und ich bin, ich habe das Gefühl, das ist so gesellschaftlich, auch wenn Holger natürlich recht hat, wenn er sagt, das gibt es schon ewig und drei Tage. Es ist als gesellschaftliche Neuerung und Innovation über uns hereingebrochen. Einfach mit unfassbar rasanter Verbreitung, ohne dass wir auf einer Lernebene ernsthaft hinterherkommen oder das stark individualisiert haben ja auch. Also wer kann sich damit auseinandersetzen, wie gut das funktioniert? Wer benutzt es mit welchen Reflexionsfragen im Hintergrund und so? Das ist so das eine. Und Nils, so wie du das beschreibst, ich meine, das haben wir bei dir in der Buchvorstellung ja auch gehabt, ist so ein bisschen die Frage nach Arbeitsverdichtung, die dann einfach aufkommt. Gut, da drin könnten natürlich dann die versprochenen Produktivitätsgewinne liegen und dadurch kann dann vielleicht auch gerechtfertigt werden, dass da so viel Geld reingeflossen ist. [00:45:31] Ist halt die Frage, wie wir das als Individuum, als WissensarbeiterInnen dann letztlich erleben. Ja, das finde ich schon spannend. Und aber um die Frage im Pad zu beantworten, das, was Nils beschrieben hat, kenne ich auf jeden Fall durchaus auch. So mache ich meinen ersten Aufschlag. Ich finde, die Dinger sind ganz brauchbar, um so Blank-Page-Probleme erstmal irgendwie zu lösen. So, ja, ich will irgendwas haben, woran ich ranarbeiten kann. Davon bleibt dann aber bei mir in meinem Erfahrungsprozess zumindest am Ende nicht so sonderlich viel mehr von übrig. Zumindest, wenn man ernsthaft tief reingeht. Da sind dann Aufschläge dabei, aber das ist mehr so wie so ein Sparring-Partner, an dem man sich aber ziemlich abarbeitet und den man im Zweifel auch ziemlich kaputt haut, ehrlicherweise. Um zu sehen, ja, das hast du doof gemacht, das hast du doof gemacht, die Idee war aber ganz gut, so könnte man es anders machen. Also, ja, ich bin gespannt, wie sehr sich das noch entwickeln wird, weil nach allem, was ich höre, Punkt von Holger auch, ja, das ganze Intelligente, was so verfügbar ist an menschlichem Wissen, steckt ja schon in den Systemen drin. [00:46:35] Also, eigentlich haben wir schon alles einmal abgescrapt. Also, mal gucken, wie viel Luft nach oben da dann noch ist. Ich bin gespannt.
Nils: [00:46:42] Ich würde an einer Stelle widersprechen. Also, nicht widersprechen, eine etwas andere Perspektive reinnehmen. Du sagst, das ist so über uns reingebrochen. Ich sag, das hat Prozessen, die eh schon da waren, massiven Schub gegeben. Also, es ist eigentlich gar nicht so neu. Und immer, wenn ich irgendwie über diese KI-Thematik nachdenke und sage, was sind eigentlich die Schwierigkeiten, die sich daraus ergeben und so, komme ich am Ende zu dem Schluss. Das sind Spannungen, die haben wir in unserer jetzigen Form des Kapitalismus eigentlich sowieso schon auch ohne KI drin. Also, das ist genau dieses, ich muss jetzt hier irgendwas produzieren, was irgendwer für plausibel hält. Also, ich muss jetzt gar nicht hier das Problem in echt lösen, sondern ich muss jetzt ein Konzept schreiben, was irgendwie der Abteilungsleiter für plausibel hält, dass es das Problem lösen könnte. Und das kann eine KI tatsächlich gar nicht so schlecht, ein Konzept schreiben, dass der Abteilungsleiter für plausibel hält, dass es das Problem lösen könnte. Das war aber auch schon immer vorher meine Aufgabe. Jetzt kann ich die natürlich entsprechend auslagern. Also, wir haben immer diese Spannungsverhältnisse, die wir eh schon haben, dass es eher um Performance geht. [00:47:43] Also, um zu zeigen, ich kann, ich mache das plausibel, dass ich etwas kann. Nicht, ich kann es wirklich. Oder ich mache etwas irgendwie, dass es gut genug ist und nicht, ich mache es wirklich richtig. Und das wird da eigentlich erstmal nur beschleunigt, aber halt auf absoluten Highspeed. (….)
Holger: [00:48:03] Ja, das ist jetzt der Punkt, wo ich mal reinbringen muss, dass das dann ja das SNAFU-Prinzip immer nur weiter verstärkt. Ich weiß nicht, ob das SNAFU-Prinzip jedem bekannt ist.
Nils: [00:48:15] Erklär es mal kurz.
Holger: [00:48:18] Also, SNAFU ist eine Abkürzung für Situation Normal All Fucked Up. Grob sagt das SNAFU-Prinzip, wenn ich irgendwie verschiedene Hierarchie-Ebenen habe, kommuniziert jede Ebene an die nächsthöhere Ebene immer nur einen kleinen Teil. Und dadurch kann sich dann, wenn es über viele Ebenen läuft, die Bedeutung komplett umdrehen. Also, grob vereinfacht. Und das ist was, was ja eigentlich in so hierarchischen Strukturen irgendwie so ein bisschen angelegt ist, wo dann auch die Frage ist, ob es da überhaupt einen Ausweg gibt. Aber so wie du es beschreibst, verstärkt die KI das dann ja einfach nur ins Extrem. Und dann ist halt die Frage, ob wir dann nicht unsere Energie lieber dahin ausrichten sollten, irgendeinen Weg zu finden, um dieses Prinzip auszuhebeln. Anstatt, dass wir uns nur weitere Sachen überlegen, die es verstärken.
Nils: [00:49:18] Also, den Kapitalismus abschalten.
Holger: [00:49:20] Aber es ist natürlich, es ist immer die Frage, was du unter Kapitalismus verstehst. Also, Kapitalismus ist ja ein sehr viel weniger eindeutiges Wort, als Leute einem verkaufen wollen. Also, du kannst auch einen, ich sag mal, den Kapitalismus sozialistisch gestalten. Und das gibt es irgendwie ein, zwei ganz interessante Vorträge von Janusz Wachofakis, wie man das tun könnte. Aber es ist sicher so, dass wir als Gesellschaft irgendwie überlegen müssen, ob wir den Weg, den wir im Moment beschreiten, und da ist die Wirtschaftsordnung sicher eine große Komponente, ob die so zukunftsweisend ist. Also, auch wenn ich Longtermist bin, kann ich ja sagen, naja, vielleicht ist es in jedem Fall eine schlechte Idee und wie die Naturgesourcen so weit auszubeuten, bis nichts mehr da ist. Also, das ist durchaus eine Überlegung, die man vielleicht mal machen sollte, unabhängig von KI. [00:50:23] Aber ich stimme zu, dass die KI da bestimmte Prozesse wahrscheinlich einfach nur enorm verstärkt. (…) Da muss ich jetzt gerade dran denken, dass das vielleicht auch wieder so ein rückgekoppeltes System ist. Und ich hatte schon länger die Überlegung, das war jetzt nicht direkt auf KI bezogen, hängt davon ab, wie man KI definiert. Es gibt ja diese Flash-Trading-Bots, also im Prinzip kleine Programme, die irgendwie an den Börsen kaufen, verkaufen, in sehr kurzen Abständen. Wo man dann sagen muss, okay, die sind irgendwie, alle stehen für sich, die sind rückgekoppelt mit allen anderen letzten Endes, allem, was an der Börse passiert. Und das ergibt dann ein, so ein komplexes System im Sinne der, im mathematischen Sinne. Und da kann es eben auch zu irgendwelchen Extremeffekten kommen. Dann gibt es irgendwelche Rückkopplungen, irgendwelche Verstärkungen und dann hat man diese Flash-Crashes, die ja hin und wieder mal passieren. [00:51:29] Wo man nicht sagen kann, da ist jetzt das oder das dran schuld. Letzten Endes ist es einfach das Wechselspiel von diesen ganzen kleinen Agenten. Und das ließe sich ganz einfach verhindern, indem man einfach sagt, ja, diese Agenten, die dürfen dann nicht im System sein, weil die sich gegenseitig nur selbst verstärken. Und das ist halt eine Überlegung. Wollen wir bestimmte Dinge ins System bringen, die dann zu irgendwelchen für uns nicht klar vorhersehbaren Verstärkungseffekten führen und am Ende mehr Schaden als Nutzen anrichten?
Amanda: [00:52:02] Wer wäre denn für dich der Agent in diesem Beispiel? Wäre das die Person, die eine KI nutzt oder die KI selber oder die vielfältigen KIs?
Holger: [00:52:16] Also ich habe ja eben schon mal gesagt, es gibt diese Rückkopplungseffekte bei KIs. Dass die KIs den Output von anderen KIs wieder als Input zum Lernen nehmen. Deswegen würde ich sagen, also es geht ja auch immer um Zeitskalen. Und auf diesen schnellen Zeitskalen können wir Menschen, glaube ich, gar nicht agieren. Und das macht es für uns so unvorhersehbar, weil so ein Lernzyklus von einer KI so schnell ist, dass wir gar nicht nachvollziehen können, was da passiert. Wir können nur hinten den Output angucken und können sagen, oh, das ist jetzt aber irgendwie gut oder schlecht. Und wie gesagt, also mein Gefühl ist eher, dass je mehr die KI von sich selber, von anderen KI lehrt, dass das zu immer mehr Problemen führt.
Nils: [00:53:00] Also wenn wir das komplexe System nehmen, die Idee, die du gerade hattest, von dem Daytrading übernehmen, dann würde ich tatsächlich aber eher sagen, also aus der Perspektive sagen, dass die KI tatsächlich vor allem Beschleuniger ist an der Stelle und die Menschen die Akteure sind. Oder die Positionen, die Menschen aktuell in gesellschaftlichen oder auch ökonomischen Punkten haben. Also ich kann jetzt halt nicht nur irgendwie ein Konzeptpapier schreiben in einer Woche, sondern ich kann jetzt drei Konzeptpapiere schreiben mit der KI. Und damit hat sich sozusagen meine Akteurshaftigkeit im System, meine Energie, die ich in das System reingeben könnte, die Irritationen, die ich auslesen könnte, haben sich sozusagen verdreifacht. Was natürlich dann irgendwelche Rückkopplungen und Selbstverstärkung und so weiter dann natürlich in dem System nochmal massiv verstärkt. Und dann kommt da eben noch das Problem, was du beschrieben hast, Holger, hinzu, dass die dann auch noch schlechter werden.
Holger: [00:53:50] Also ich stimme dir zu, das ist auch ein legitimer Blick. Das war ja nicht der Blick, den ich jetzt hatte, aber je nachdem, wie man das System auffasst, würde ich dir zustimmen, dass man das auch so sehen kann.
Amanda: [00:54:02] Wobei man jetzt nochmal Stichwort Arbeitsverdichtung, das Christoph auch genannt hat. Ich fand das interessant, dass ich dann in meinem Umfeld ein bisschen nachgefragt habe, wie sie KI nutzen. Und das sind auch Personen, die jetzt vielleicht eher künstlerische Tätigkeiten machen. Und das fand ich ganz interessant, weil da wurde gar nicht unbedingt, da wird gar nicht unbedingt weniger Arbeit generiert, sondern da, Beispiel eines Kameramanns, die haben sich dann ein Storyboard generieren lassen. Das kannst du perfekt prompten, hast wunderschöne Bilder und müssen das dann aber nochmals abzeichnen, damit du diese Abstraktion wieder reinbringen kannst, weil sonst die Personen das Gefühl haben, das ist das echte Bild, was du ihnen da lieferst. Also du musst dann wieder von dieser Perfektion, die dir mittlerweile die KI gibt, musst du als Mensch die Perfektion wieder rausnehmen, um das zu präsentieren. Das fand ich ganz spannend, also dass man diesen Schritt machen muss. Oder eine Fotografin hat mir erzählt, dass sie, sehr viele Prozesse können natürlich jetzt viel schneller und automatisiert ausgeführt werden, wenn es um Bildbearbeitung geht. [00:55:06] Das ist eine große Hilfe. Aber es ist ja auch schon passiert, dass sie an einem Set, anstatt dass die Person vielleicht ihre Haare nochmal gerichtet hat und ein bisschen gekämmt, hat sie gesagt, ja, das macht ja sowieso das Post-Processing. Das macht ja eh die KI. Also wenn wir da für den Fahrer abstehen, dann war das früher super nervig, das wegzuretuschieren, aber jetzt macht es ja die KI. Also es wird wie, es kommt dann so eine Selbstverständlichkeit da rein, die ich, fand ich sehr spannend, dass das gar nicht unbedingt die Arbeit dann wegnimmt, sondern irgendwie einfach verschiebt.
Nils: [00:56:01] Und da kam es auch noch so in den Punkt, hier gibt es ein schönes Video zu, wo, ich weiß nicht mehr von wem es war, wo er so zeigt, ja, es ist mittlerweile alles zu perfekt ausgeleuchtet. Das ist HDR, also es ist alles irgendwie ausgeleuchtet, es ist keine wirklichen Schatten mehr, keine wirklichen Dunkeln mehr. Also wer jetzt an sowas denkt wie hier Herr der Ringe, wie heißt die neue Serie, wo irgendwie alles perfekt beleuchtet ist, es gibt nichts mehr. Rings of Power. Rings of Power, genau. Es gibt nichts mehr, was man nicht sieht. Es sieht alles so aus, wie man früher eine Soap ausgesehen hat. Das fand ich auch ganz spannend. Aber ja, das wird sicherlich auch mit dem Post-Thema zusammenhängen, weil natürlich solche Lichtberechnungen dann nochmal auf eine ganz andere Weise schwierig sind, wenn man dann auch noch mit echten Schatten und so weiter arbeiten will. (…….) Ich glaube, wir haben jetzt so die erste Diskussion zur Runde, haben wir schon so einiges gestriffen und mein Notizenplan, wie wir uns da durchbewegen, hat sich natürlich komplett in Luft aufgelöst. So soll das sein. Der war auch nicht KI generiert. Also auch Menschen können Dinge produzieren, die sich danach in Luft auflösen und im Sparring total geschrottet werden. [00:57:08] Ich würde nochmal auf das Thema, auf diese Intelligenzfrage eingehen, weil das eine Frage ist, die mich auch sehr beschäftigt hat, weil ich mich relativ zeitgleich mit dem Aufkommen dieses Themas KI auch viel mit der Frage so Intelligenz bei Tieren beschäftigt habe. Und wenn ich mich mit der Frage beschäftige, so wenn es um Oktopus geht, um Delfine geht und so weiter, da ist immer so, wenn ich das lese, ein bisschen das Gefühl, ja eigentlich müssen wir den Intelligenzbegriff weiterfassen. Da bin ich dann sehr schnell bereit, Tieren Intelligenz zuzugestehen und sagen, ja der Oktopus, ja klar, der kann nicht sprechen, aber der kann folgendes, der kann lernen, der kann so und der kann und so weiter und so fort. Da bin ich sehr schnell bereit, diesen Begriff zu weiten. Bei KI bin ich das nicht. Da bin ich bereit, den Begriff sehr schnell zu verengen und so das typische Intelligenzthema zu machen. Sobald man merkt, dass Tiere etwas können, ist das kein Zeichen für Intelligenz mehr. Also es ist nur dann Intelligenz, wenn nur Menschen es können. Und ich frage, ob in dieser Falle, wenn wir jetzt bei der Frage, ist KI intelligent nicht eigentlich auch rein, reintappen oder ob wir halt auch einfach merken, dass dieser Begriff einfach auch mittlerweile relativ wertlos geworden ist. (…)
Christoph: [00:58:16] Da fehlt mir jetzt tatsächlich die philosophische Grundausbildung an der Stelle, aber ich habe das Gefühl, man wird relativ zügig tatsächlich auf Fragen der Leiblichkeit zurückgeworfen spannenderweise und der tatsächlichen Empfindungsfähigkeit. Ich habe das Gefühl, das ist das, was viel da dran hängt. Also es geht dabei ja viel um Augenhöhe und dann viel um das Thema, was lebt eigentlich, scheint mir. Und dann ja auch die Frage und auch um Rechte ehrlicherweise immer wieder stark. Und ich habe das Gefühl, da geht es dann viel drum. Und da merke ich, fehlt mir an der Stelle einfach so ein bisschen Background, weil ich ehrlicherweise auf das ganze Thema selbstbewusst, also im Sinne von, wir sind uns unserer selbstbewusst, Ich-Verständnisse, da gucke ich eigentlich ehrlicherweise recht naiv drauf und denke, naja, da passieren halt neurologische Prozesse, die ausreichend komplex und kompliziert miteinander verschaltet sind und daraus ergibt sich halt ein Bewusstsein. Da bin ich jetzt nicht so super, ja, weiß ich nicht, gefühlig angehaucht. [00:59:25] Und ich glaube, da laufe ich in gewisse Inkonsequenzen. Ich bin gespannt, was ihr dazu sagt. Weil ich eigentlich dir zustimme, Nils, ich habe auch gar keine Lust, Intelligenz der Form von KI zuzusprechen, über die wir gerade sprechen. Würde es bei Tieren aber genauso machen wie du.
Holger: [00:59:41] Also ich glaube, so ein bisschen das Kernproblem ist, dass man sich, soweit ich das verstehe, noch gar nicht so richtig drauf geeinigt hat. Was ist das denn eigentlich? Also dann gibt es diese schöne Aussage, Intelligenz ist das, was einen Intelligenztest misst. Aber das ist natürlich irgendwie eine zirkuläre Aussage. Genauso beim Bewusstsein. Da gibt es dann verschiedene Vorschläge. Also ich finde es eigentlich ganz charmant, dass man das Ganze vielleicht eher als so ein Kontinuum betrachtet und eben nicht sagt, es gibt irgendwie dieses ganz klare, wenn ich das habe, dann liegt Intelligenz vor. Sondern dass man irgendwie sagt, okay, es gibt bestimmte Eigenschaften, die wir damit verbinden, vielleicht auch mehr als eine. Und dann gucken wir sozusagen, wie stark sind die ausgeprägt, um da eine Aussage treffen zu können. Aber wie gesagt, also mein Eindruck, ohne dass ich jetzt so tief in der psychologischen oder philosophischen Diskussion da drin stecke, aber das, was ich mitkriege, ist, dass es da eigentlich noch gar nicht so große Einigkeit gibt. [01:00:51] Und das macht Diskussionen natürlich auch immer ein bisschen schwierig, wenn man in der Diskussion noch nicht mal weiß, ob alle Diskutanten sich überhaupt darüber einig sind, was die Begriffe bedeuten. Also in dem Life 3.0, da gibt es mehrere Stellen, also sowohl wenn es um Leben geht, als auch wenn es um Intelligent geht, als auch nachher, wenn es um Bewusstsein geht, wo der Autor einmal sagt, das ist das, was ich drunter verstehe in diesem Buch. Aber auch an all diesen Stellen zugesteht, dass es nicht unbedingt Einigkeit herrscht, was man drunter versteht.
Nils: [01:01:27] Ich fand das gerade spannend, Christoph, was du gesagt hast mit dem Thema Leiblichkeit und Intelligenz. Weil wenn man sich so die westliche Geistesgeschichte anguckt, ist Intelligenz ja gerade abgelöst von der Leiblichkeit. Also ich glaube, das ist vielleicht auch so ein bisschen der Widerspruch, den wir da laufen. Wenn du sagst, dass für dich das Intelligenz und Bewusstsein viel mit Leiblichkeit zu tun hat, das ist ja im Grunde westliche Ideengeschichte, ja seit Griechen im Kern, spätestens aber seit Descartes, die eben genau das erstmal voneinander abgrenzt. Und wenn wir jetzt in diese Widersprüche reinlaufen, merken wir, die müssen wir vielleicht wieder reinholen. Und das ist ja auch das, was wissenschaftlich passiert. Das ist ja genau das, also da habe ich ja auch, was war das hier, The Web of Meaning und Vielfalt des Seins, oder wie das Buch hieß, habe ich ja auch vorgestellt, wo genau wissenschaftlich das passiert, dass man eben merkt, dass diese Leiblichkeit eine viel größere Rolle spielt. Und dass irgendwie auch wir massive Nervenverarbeitungs-, Informationsverarbeitungsprozesse irgendwie im Darm haben, die da irgendwo stattfinden, wo ein entsprechendes Gewebe stattfindet. Und dass wir dieses Gehirn im Tank, dieses Bild, dass wir nur ein Gehirn haben, was halt irgendwie über Kabel an Sensoren angeschlossen ist, dass das wahrscheinlich dann doch massiv zu kurz greift, wenn wir irgendwie ein echtes Verstehen greifen kommen. [01:02:38] Oder dass wir jetzt zumindest an die Grenzen kommen dessen, was wir mit diesem Modell verstehen können.
Holger: [01:02:44] Ja, das ist auch eine interessante Frage. Was gehört alles zur Intelligenz dazu? Wenn du jetzt auf die Kiechen verweist, dann muss ich irgendwie daran denken, damals in der Schule im Philosophiebuch, da war es irgendwie sehr schön dargestellt, wie Aristoteles irgendwie das mit der Vernunft sieht. Und da war es eher ein Vernunftbegriff. Und der Mensch zeigt sich dadurch aus, dass er sowohl die körperlichen Gefühle als auch die Vernunft hat, die im Widerstand oder irgendwie in der Spannung stehen. Und dadurch kommt dann irgendwie der menschliche Geist zustande. Und dann haben später die mittelalterlichen Theologen haben gesagt, ja, wenn was nur Vernunft hat, das sind dann die Engel. Ganz spannend. Aber da ist dann wieder die Frage. Also ich denke, unser moderner Intelligenzbegriff ist nicht dasselbe wie Vernunft. Aber vielleicht ist das, was wir eigentlich brauchen, dass wir erstmal unterscheiden, welche Teile hat denn die Intelligenz? Ich würde jetzt sagen, Vernunft kann ich einer Maschine beibringen. [01:03:48] Ob die LLMs jetzt im klassischen Sinne vernünftig sind, würde ich nochmal hinterfragen, weil die von unvernünftigen Input lernen. Aber prinzipiell, vernünftig kriege ich eine Maschine. Aber macht das eigentlich schon komplett die Intelligenz aus? Und kann ich jetzt zum Beispiel beim Tintenfisch davon ausgehen, dass der in unserem Sinne so was wie Vernunft hat? Oder reagiert der nur auf Reize? Ist das dann ein anderer Aspekt von Intelligenz? Und da sind wir dann wieder drin. Vielleicht ist es auch nicht lösbar. Das ist halt auch was. Wir denken, wenn wir über uns selber nachdenken, können wir da überhaupt zu einer richtigen Lösung kommen? Das ist ja auch eine gar nicht so uninteressante Frage.
Amanda: [01:04:32] Ich würde mich hier auch fragen, ob das überhaupt relevant ist. Also du hast das, ihr habt das schon angesprochen, aber ich finde schon, und du hast die Griechen genannt. Also in der Stoa gibt es ja auch so die Auffassung, dass wir die Welt so sehen, nicht wie sie ist, sondern wie wir sind. Also man hat seine je eigenen Maßstäbe, wie man die Welt beurteilt. Und dasselbe gilt für Intelligenz. Und ich finde schon, wenn man jetzt davon ausgeht, dass wir Intelligenz kommunizieren oder messen können über Sprache vielleicht. Oder gewisse, ich sag mal, gewisse Eigendinge, die wir mit sehr beschränkter Körperlichkeit doch ausführen können. Dann macht das durchaus Sinn, dass wir sagen, ich sag jetzt, ein Sprachmodell ist intelligent in diesem Sinne, weil es diese Dinge lösen kann. Und da frage ich mich dann halt, was bringt das? Also wenn wir uns, wir können ja nicht aus dieser Intelligenz gar nicht raus, die wir selber als Menschen uns zuschreiben. [01:05:33] Und deswegen frage ich mich, was der Mehrwert davon ist, wenn wir eine Maschine als intelligent oder nicht intelligent bezeichnen würden. (…..)
Christoph: [01:05:43] Ja, ich würde ja auch sagen, dass an so einem Intelligenzbegriff, da geht es ja dann noch mehr. Da geht es ja um, ich habe das gerade eben schon gesagt, es geht ja dann, glaube ich, viel und schnell um Zuschreibung von Rechten. Vielleicht auch Pflichten und auch allein bei Menschen läuft ja die Zuschreibung darüber ziemlich ins Leere, ehrlicherweise. Weil wir nun mal nicht alle gleich intelligent sind und daran würde ich jetzt die Zuschreibung, machen wir glücklicherweise von Menschenrechten gerade nicht daran fest. Das ist ja ganz, ganz gut, dass wir nicht, nicht eine Person hat mehr Rechte als die andere, weil der IQ-Test ergeben hat, du hast halt so und so viele Punkte und die anderen so und so viel. Und von daher würde ich schon nochmal, das Thema Leiblichkeit und Empfindungsfähigkeit ist, glaube ich, dann das, was vielleicht stärker ins Zentrum muss, wenn wir darüber sprechen, wer darf was und wem muss man was zugestehen. Und das kann man dann sicherlich in Abstufung machen, so wie man das ja jetzt bei Tieren immer mal wieder diskutiert. [01:06:44] Aber genau, da ist halt die Frage, ob man rein logisch zu dem Schluss kommen könnte, dass das irgendwelchen neuronalen Netzwerken irgendwann auch gelingen kann. Und da bin ich dann einfach auch technisch an der Stelle ein Stück weit überfragt. Aber momentan eigentlich noch dazu zu sagen, ja, vermutlich, also zumindest das, was wir als stochastische Papageien jetzt benutzen, um diesen schönen Begriff nochmal reinzunehmen. Holger hat den ja auch schon angeführt im Prinzip. Da sehe ich das halt nicht. (…..)
Amanda: [01:07:13] Finde ich einen sehr guten Punkt. Was mir noch dazu eingefallen ist, das hast du auch vorhin gesagt, wenn die Intelligenz, die ist ja schon irgendwie, man hat die schon, ich glaube, du hast gesagt, die Gesamtheit der menschlichen Intelligenz wurde ja schon gescrapt oder sowas in der Art. Und da finde ich halt auch spannend, wenn wir jetzt von der menschlichen Intelligenz tatsächlich ausgehen, sei die auch mit der Körperlichkeit, dann nutzen wir die ja nur zu einem ganz kleinen Teil, was weltweit verfügbar ist. Weil Prekariat, Armut, Krankheit, das hindert ja sehr viele Leute daran, ihre Intelligenz ausüben zu können und ihren Beitrag zu leisten. Und dann finde ich halt spannend, ja, wieso müssen wir jetzt eine Maschine mit irgendeiner wie auch immer gearteten Intelligenz erfinden, wenn wir das doch vielleicht auch einfach auf der Erde zur Verfügung hätten. Also schlecken die gleiche Kerbe, die wir vorhin schon diskutiert haben. Also was haben wir denn oder wir können ja vielleicht die Probleme lösen, die wir aktuell haben. [01:08:16] Aber finde ich halt spannend im Zusammenhang mit der Intelligenz-Diskussion.
Nils: [01:08:19] Das ist ein spannender Punkt. So diese These, haben wir zu wenig Intelligenz auf dieser Welt? Ist das tatsächlich unser Problem? Und liefert uns KI mehr davon, die wir bisher nicht hatten? Oder gibt es nicht andere Mittel und Wege, die als, ich stelle mir das halt wie beim Computerspiel, so eine Ressource vor, die man so sammelt. Gibt es ja so Spiele, wo es dann irgendwie so Macht oder Einfluss oder so als Ressource gibt. Und jetzt haben wir ein neues, intelligenzgenerierendes Gebäude gebaut, was irgendwie uns als Menschheit Intelligenzpunkte gibt, die wir dann einsetzen können. Eine schöne Frage.
Christoph: [01:08:54] Sicherlich haben wir nicht das Problem, dass wir zu wenig Intelligenz auf dem Planeten haben. Also das Ziel von Menschheit sollte ja nicht einfach schlichte Intelligenzmaximierung sein. Aber Potenzialentfaltung ist ja das, was bei Amanda im Prinzip dahinter steht. Und dass wir da sicherlich nicht an den Grenzen von dem aus angekommen sind, was möglich ist, um Menschen gelingende Leben zu ermöglichen, da kann man sicherlich einige Argumente für finden.
Nils: [01:09:17] Weil sich dann auch wieder die Frage stellt, was ist das gelingende Leben? Ist das amerikanische Hamsterradleben mit zwei Jobs und drei Tagen Urlaub im Jahr, ist das das gelingende Leben, auch wenn es viel Geld bringt? Keine Ahnung.
Holger: [01:09:31] Auch dazu hat Aristotel jetzt schon was gesagt. Aber um nochmal kurz einen anderen Aspekt hier reinzuwerfen, ich habe mich jetzt an was erinnert gefühlt. Das war vor vielen, vielen Jahren, habe ich mal den Gedanken gehört, dass man ja auch sagen könnte, sowas wie eine Firma ist ein algorithmisch laufendes Gebilde. Ja, das hat ein Ziel und die Menschen nutzen ihre Intelligenz, um dieses Ziel durchzusetzen. Und die Frage ist, ob das dadurch sowas wie eine Firma auch insgesamt etwas haben kann wie eine Intelligenz. Also nicht nur maschinell. Und dann ist ja auch wieder die interessante Frage, die sich ja auch bei KI stellt, was ist denn das, wonach optimiert wird? Im Moment optimieren die meisten Firmen bei uns einfach nach irgendwem Gewinn. [01:10:36] Möglichst viel Gewinn für irgendwelche Shareholder. Das war nebenbei nicht immer so. (…) Es ist halt ein Gedanke, den ich mal einbringen wollte. Weiß ich nicht, was euch dazu dann so direkt kommt.
Christoph: [01:10:51] Also mir kommt auf jeden Fall direkt Stefan Kühl in den Kopf, ein Systemtheoretiker, der Organisationssoziologie macht, Schönen Bielefeld. Und der löst sich von dem, also Organisation kann man ja denken als das Bindeglied zwischen dem Individuum und Gesellschaft als Ganzen. Das sind also fast alles, was wir gesellschaftlich, also was wir tun, ist ja organisational vermittelt und findet teilweise in Organisationen oder über Organisationen statt. Man kann sich kaum Prozesse vorstellen, in denen das nicht so ist. Das sind dann sowas wie Familien, da kann man dann darüber diskutieren, die vielleicht auch organisationsähnlich sind zumindest, sicherlich auch mit Abgrenzung. Und Kühl bewegt sich weg von diesem sehr klassischen Bild von Organisationen haben nur einen Zweck. Sondern sagt, man findet eigentlich in zumindest hinreichend großen Organisationen mehrere Zwecke, hinter denen sich zum Beispiel MitarbeiterInnen versammeln können. [01:11:52] Und die pure Ausrichtung nach nur einem Sinn und nach einer Sinnstiftung oder einer Zweckgebung, die lässt sich eigentlich empirisch nicht mehr in der Form nachweisen. Weil MitarbeiterInnen ja zum Beispiel aus ganz unterschiedlichen Gründen zur Arbeit gehen und vielleicht auch in der Organisation ganz unterschiedliche Probleme bewältigen. Vielleicht auch mit sehr unterschiedlichen Zwecken. Also man kann ja bei, keine Ahnung, zum Beispiel einem großen Energieversorger arbeiten und dort an der Energiewende arbeiten, um das voranzubrennen und den Klimawandel zu bremsen. Gleichzeitig kann man da aber auch das fossile Geschäft, was weiterhin den Hauptumsatz voranbringt, weiter befeuern, weil man den Zweck der Shareholder Values, weil man dem fröhnt. Also ein sehr plakatives Beispiel jetzt an der Stelle, aber ich würde sagen, empirisch sind wir ein Stück weit, glaube ich, weg davon. Dass man sagt, es gibt nur diesen einen Zweck, hinter dem sich Organisationsmitglieder zumindest versammeln.
Nils: [01:12:44] Ich fand das jetzt gerade ganz spannend, was Holger sagte. Dieses maschinelle Bild von Organisationen, das ist ja auch so ein bürokratietheoretisches Bild von Organisationen. Wenn man jetzt in die Organisationssoziologie reinguckt, geht ja mal mindestens auf Max Weber zurück. Was ich aber ganz spannend finde, ist, dass wir ja dieses algorithmische Bild auch von Algorithmen, von Computeralgorithmen und von Organisationen haben. Und jetzt mit KI kommt ein Algorithmus ins Spiel, jetzt mache ich mal eine sehr weite Analogie, der eher funktioniert wie eine Organisation. Also der diese ganzen Unschärfen und Unsicherheiten und Wahrscheinlichkeiten und Unklarheiten und wechselseitigen Strömungen und widersprechende Interessen, so in Trainingsdaten, unterschiedlichen Gewichten, die in unterschiedliche Richtungen ziehen, das Modell, der die irgendwie widerspiegelt und am Ende irgendwas ausspuckt, was beim Entfernten was mit dem Ziel zu tun hat, aber doch sehr unterschiedliche Komplexitäten abbilden kann. Vielleicht ist das auch irgendwie nochmal eine Perspektive, die das bringt, aber die ist jetzt gerade tatsächlich in einer Minute in meinem Kopf entstanden. [01:13:49] So ist das noch nicht weiter durchdacht.
Holger: [01:13:52] Also vielleicht kurz für den Kontext. Wenn ich mich richtig erinnere, dann habe ich diesen Gedanken in einem Podcast aus dem CCC-Umfeld mitbekommen. Und ich glaube, da wurde Joscha Bach interviewt. Das ist also ein relativ bekannter und radikaler KI-Wissenschaftler, der da auch ziemlich, ja, also es ist schon interessant, ihm zuzuhören, aber man merkt, dass er sehr aus der Sicht des KI-Forschers und Informatikers denkt. Aber es ist halt interessant, sich mal zu überlegen, inwieweit gibt es da auch bestimmte Wechselwirkungen. Wie du schon sagst, ja, vielleicht wird KI auch mehr wie eine Organisation. Aber auch in dem Fall, um nochmal kurz auf Christoph einzugehen, in dem Punkt ging es mir jetzt gar nicht darum zu sagen, dass jeder Mitarbeiter nur auf ein Unternehmensziel optimiert. [01:14:55] Aber es ist so, dass das Unternehmen generell, wenn es ein bestimmtes Ziel hat, auch das Verhalten der Mitarbeiter natürlich auch mitformt.
Christoph: [01:15:05] Absolut, das würde ich nie widersprechen. Ja, ja, ja.
Holger: [01:15:08] Wo man sich ja auch selber mal überlegen kann, wie wird man bei seinem Job so geformt in dem, was man tut, auch wie man denkt. Und inwieweit lässt man sich vielleicht auch von bestimmten Gedanken vereinnahmen. (…) Und vielleicht, um nochmal die Brücke zu schlagen, wie ist es denn, wenn ich mit KI interagiere, wie lasse ich denn durch diese Interaktion mit KI das formen, was ich denke, und mich vielleicht auch vereinnahmen von etwas, was ja auch von Firmen mit einer bestimmten Intention geformt wird. (…)
Amanda: [01:15:53] Wobei ich jetzt zu dem Punkt vorhin, den du gemacht hast, sagen würde, speziell in der Tech-Branche ist das ein bisschen anders. Zumindest aus unserer Perspektive. Also wenn wir, ich sage mal, Automobilindustrie als Beispiel heranziehen, dann sind sehr viele Personen, die da arbeiten, werden insgesamt betrachtet als, ich sage mal, Teile dieser Wertschöpfungskette von mir aus. Und wenn du bei der Tech-Branche schaust, dann sind die Tech-Worker, das sind ganz wenige spezifische Personen, die coden. Und alle Personen, die in der Mensa arbeiten, die die Gebäude und so weiter und so fort, die zählen da wie nicht dazu. Und das finde ich sehr spannend, weil hier fehlt meines Erachtens so ein bisschen das, was wir aus klassischen Organisationen, weiß ich nicht, aber zumindest aus so Industrien kennen, dass man das als Gesamtheit anschaut oder nicht. [01:16:53] Ich bin da zu wenig drin, um das besser zu formulieren, aber ich helfe mir da bestimmt.
Nils: [01:17:00] Also ich könnte jetzt einsteigen, weil Organisationstheorie ist so eines meiner Studiums und meine Kernthemen beim Studium gewesen. Ich habe da auch eine Weile unterrichtet, aber ich will da jetzt gar nicht tief einsteigen. Ich glaube tatsächlich, dass dieses algorithmische Bild, das ist zumindest in der Organisationsforschung, mindestens seit 30 bis 40 Jahren im Grunde überholt. So, das ist noch sowas populär gilt. Ich verstehe, warum gerade Informatiker natürlich mit diesem Blick auf Organisationen schauen, aber auch genau diese Perspektive, dass Organisationen ein Ziel haben, das steht noch irgendwo in den klassischen organisationssoziologischen Definitionen drin. Aber wenn man in, jetzt kommen ein paar Fachbegriffe, institutionalistische Ansätze reinguckt, dann sieht man eben auch ganz schnell, dass Institutionen auch in unterschiedlichen Kontexten unterschiedliche Ziele vorgeben. Also wenn jetzt irgendwie ein E.ON auf der einen Seite sagt, hier, wir wollen irgendwie die Energiewende und so weiter und so fort, auf der anderen Seite dann aber da neue Investitionen. Und dann aber auch wieder, wir sind für unsere Mitarbeitenden da, aber dann auch wieder an der einen Stelle wieder nicht. [01:18:02] Also dass das voller Widersprüche und Komplexitäten steckt. Und am anderen, du hast natürlich auch völlig recht, diese ganzen Unterstützungsprozesse. Also jetzt können wir da auch noch eine Gender-Dimension reinbringen, wenn wir unbedingt wollen. Aber diese üblicherweise, du hast gerade Mensa, Reinigung und so weiter genannt, diese Themen, die in unserer Gesellschaft normal verweiblich konnotiert sind, die werden natürlich erstmal komplett ignoriert. Das ist irgendwie, ja, die zumindest ansatzweise noch irgendwie ökonomisch bezahlte Care-Arbeit, die halt im Hintergrund passiert, die aber eigentlich keine Rolle spielt. Die erst dann wieder eine Rolle spielt, wenn sie irgendwie ausgegliedert ist, wenn es irgendwie ein Reinigungsunternehmen ist, das einen Auftrag gewinnt und outsourced und so weiter und so fort, die dann erst wieder wirklich irgendwie so betrachtet. Und ich glaube, dass, ja, genau. Ich glaube, wir laufen jetzt gerade in eine sehr andere Richtung, sehr weit weg von unserem Thema. Ich weiß nicht, wer von euch noch was ganz Zentrales dazu zu sagen, dann werft das gerne noch rein. Aber ich glaube, wir müssen jetzt hier nochmal ein bisschen wieder auf unseren Pfad zurückfinden. (….) [01:19:03] Ich überlege jetzt mal, gerade kam ja schon diese Dimension auf, Unternehmen, also KI formt uns, je nachdem, wie wir mit interagieren. Das fand ich nochmal einen spannenden Punkt, weil wir haben ja auch gerade so diesen Punkt, den Christoph schon angesprochen hatte, wo du gesagt hast, die macht mal einen ersten Entwurf, aber am Ende bleibt von diesem ersten Entwurf gar nicht so viel übrig. Die Frage ist halt, habe ich die Zeit, wie lange gibt es noch Menschen, die die Kompetenz haben, diesen ersten Entwurf dann so zu hinterlegen, weil sie es halt mal dann doch auch ohne KI gelernt haben sozusagen. Aber vor allen Dingen auch so diese Frage, wenn ich das in gesellschaftliche Prozesse einbinde, dann ist natürlich auf einmal ganz viel, es gibt ja diesen schönen Satz, Code is Law, also dass irgendwie die Regeln eines Programms irgendwie so einen gewissen Gesetzescharakter haben, gegen den ich irgendwie noch nicht mal verstoßen kann. Also versuch mal was aus Facebook rauszukriegen, wenn du die offizielle API nicht bedienen kannst, darfst, weil sie dich nicht lassen, dann kannst du ganz viele Dinge nicht tun. Und das hat man natürlich mit KI nochmal ganz anders, nochmal viel verstärkter, wenn das dann auch in Entscheidungsprozesse eingebunden wird oder so. [01:20:05] Das wirft natürlich auch nochmal ganz viele Probleme auf.
Amanda: [01:20:08] Ich würde dazu, Code is Law, ich finde das einen spannenden Punkt, weil ganz viele, auch viele Software, es gibt so den Trend dazu, dass man, ich sag mal, Security by Design macht zum Beispiel oder irgendetwas by Design. Das bedeutet, dass man den Code oder eben das Tool so implementiert, dass gewisse Dinge gar nicht anders möglich sind. Du hast es eben genannt mit der API, da gibt es auch, du hast gesagt, die Personen, die das nicht bedienen können. Aber wenn du zum Beispiel, du nimmst dann Kopierschutz als Beispiel, dann, du kannst das nicht kopieren, weil der dich das nicht kopieren lässt. Und ist in dem Sinne auch restriktiver als das Gesetz, weil wenn du was gekauft hast, dann kannst du das eigentlich abschreiben oder kopieren für dich. Das ist nicht verboten, aber das lässt es nicht, weil by Design ist das nicht zulässig. Und das finde ich sehr spannend, weil dort kommt ja auch diesen Aspekt aus dem Recht rein, dass man auch, ich sag mal, Fehler machen darf [01:21:11] oder gesetzeswidrig handeln darf. Also wenn du by Design etwas nicht erlaubst, dann verhinderst du das ein bisschen und du umgehst auch so ein bisschen die, ich sag mal, die legislative Instanz damit, weil du einfach diese Möglichkeit nicht gibst.
Nils: [01:21:28] Es hat aber auch eine schöne Wechselwirkung. Also Cory Doctorow ist das gerade Thema Kopierschutz, weil du es angesprochen hast. Der ist ja oft technisch gar nicht so unbrechbar. Die meisten Kopierschützer sind ja dann doch mittlerweile irgendwie gebrochen. Aber er wird dann wieder rechtlich unterstützt, weil das Brechen von Kopierschutz illegal ist. Das haben wir ja gerade auch wieder, Zeitpunkt Anfang Oktober 25, gab es ja in Deutschland dieses Urteil zum Aufdecken einer Sicherheitslücke. für die der entsprechende Hacker, also dieses Responsible Disclosure, der hat die Verantwortlichen angesprochen, hat den Zeit gegeben, die Lücke zu fixen und hat sie dann erst veröffentlicht, als die Lücke gefixt war und so weiter und so fort. Das ist das übliche Verfahren. Der hat jetzt aber eine Klage am Hals, weil er eben Daten auf Daten zugegriffen hat, die da irgendwie sicher zugänglich waren. Und Cory Doctorow nennt das so schön Federal Contempt of Business Model, weil wir sagen, also wir sagen Kopierschutz, wir nennen es Kopierschutz und deswegen behaupten wir, dass wir ein technisches Verhindern, aber der eigentliche Schutz [01:22:29] ist gar nicht das technische Verhindern. Der eigentliche Verschutz ist, dass das Recht sagt, wenn dieser Schutz behauptet wird, dann sichern wir das rechtlich ab. Also da kommt eine ganz lustige Wechselwirkung ins Spiel zwischen eben Recht und Software oder technischen Möglichkeiten an der Stelle.
Holger: [01:22:52] Ja, das Interessante ist, dass dadurch das eigentliche Problem dann aber gar nicht gelöst wird. Also ich kann jetzt irgendwie schön sagen, ach ja, ich mache irgendeine rechtliche Einschränkung, aber das Problem bleibt ja bestehen. Wenn ich den Hacker halt nicht erlaube, die Sicherheitslücken zu finden, dann sind die gesetzestreuen Hacker, die kümmern sich da nicht drum. Aber das schützt mich ja nicht vor denen, die halt eh was Illegales tun. Die werden sich dadurch ja nicht aufhalten lassen. (….) Das ist dann halt immer so ein bisschen die Frage. Und dann ist auch die Frage, (….) ja, mein Gedanke ist gerade verloren gegangen. Entschuldigung.
Nils: [01:23:42] Dann finden wir vielleicht den Weg nochmal wieder zu KI zurück und schauen vielleicht mal auf die Zukunft. Also wir nehmen jetzt mal nicht die 10.000 oder Millionen Jahre Zukunft, sondern die Zukunft, die wir noch so erleben. Oder Christoph meint es gerade so, die Perspektive der Kinder- und Enkelgeneration. Wie seht ihr das Thema KI? Wo wird es uns hinführen? Was habt ihr für Gedanken, für Ideen? (……)
Christoph: [01:24:15] Ich habe aktuell so eine sehr klassische Hype-Cycle-Idee auf jeden Fall im Kopf. Ich habe es ja schon mit dem ganzen Thema Venture-Kapital und also schon angerissen im Prinzip. Ich glaube, das ist eine Technik, die sich doch, ich finde schon noch erstaunlich schnell, erstaunlich breit zumindest in den Alltag gegraben hat. Und das ist schon besonders, weil das finde ich für mich die soziale Seite von Innovationen auf jeden Fall spiegelt. Also nicht nur die Tiefe in Spezialanwendungen, sondern die Breite, wer nutzt das alles? Oder wer spielt zumindest mal damit rum? Und wo spielt es eine Rolle? Das finde ich, ist schon beeindruckend. Aber trotzdem, die Frage danach, wer kann damit letztlich mehr Wertschöpfung in welchem Umfang generieren, bleibt für mich dann doch zentral. Und ich habe das Gefühl, da wird sich die Spreu vom Weizen trennen. Und das war jetzt riesig, [01:25:15] es wird weniger werden. Und ich finde weiterhin spannend, dass wir diese Verengung auf LLMs haben, weil ich glaube, wir haben jetzt über Medizin, Anwendungen, Algorithmen gar nicht so sehr gesprochen, was insofern spannend ist, als dass, keine Ahnung, irgendeine der ersten Folgen, da habe ich Hello World von Hannah Fry vorgestellt, da ging es noch viel stärker um Algorithmen als Schlagwort. Und da wurde noch viel stärker nicht nur über LLMs gesprochen, sondern viel stärker über Medizinsystemen, Autofahren, was auch immer. Und ich habe das Gefühl, die Debatte ist auf jeden Fall ein bisschen in den Hintergrund getreten. Und ich glaube, das sind Spezialanwendungen. Ich kenne es auch aus, ich kenne ein Startup, das sich mit Fertigungslinien in der Industrie beschäftigt und Prototypenbildung und Fehlererkennung von 3D-Scans und vor allen Dingen dem künstlichen Generieren von fehlerhaften Bauteilen, damit man die KI mit diesen Daten füttern kann, um nicht erst eine Million fehlerhafte Bauteile tatsächlich herstellen zu müssen, [01:26:16] sondern die künstlich zu generieren, was tatsächlich in dem Aufbau von der Fertigungslinie relativ viel Zeit und Geld einsparen kann. Also solche Ideen, das ist ja was, was so ein bisschen unter der Oberfläche bleibt. Und da finde ich spannend, welche Entwicklungen wir sehen werden, die halt über dieses verbessertes E-Mail-Schreiben plattgesprochen hinausgehen. Da gucke ich so ein bisschen hin. Das wären die Sachen, die mich interessieren und welche Beispiele es da so gibt.
Holger: [01:26:45] Ja, vielleicht ist da auch so ein bisschen, muss man einfach bedenken, also zum einen, wer vermittelt uns denn, dass die KI gerade so viel tut? Da wird ja auch viel von Leuten vermittelt, die mit Sprache arbeiten. Das ist für die natürlich viel greifbarer als irgendeine technische Anwendung. Und es ist auch einfach so, ich glaube, die LLMs sind was, da kann jeder was mit anfangen. Also man muss jetzt kein großes Wissen haben, um mal auszuprobieren. Also ich meine, inzwischen passiert es ja fast automatisch. Wenn du eine Google-Suche machst, dann kriegst du irgendwie einen KI-generierten Text oben präsentiert. Das ist relativ, also die Schwelle ist sehr gering. Und ich glaube, deswegen ist das auch so ein Hype, weil irgendwie jeder was damit anfangen kann. Ich persönlich glaube auch, auch aus, mit dem Hintergrund der Kritik, die ich ja schon mehrfach heute so geäußert habe, [01:27:46] an dem, was LLMs so tun, ich glaube auch, die Zukunft, die interessanteren Anwendungen werden wahrscheinlich in dem stärker technischen Bereich kommen. Wo dann die Frage ist, ob das in demselben Sinne, also das ist, das funktioniert dann wahrscheinlich anders als die LLMs. Da ist dann wieder die Frage, würde man das auch als KI bezeichnen oder einfach nur als gute Anwendung von Algorithmen. Aber da sehe ich, sehe ich persönlich eigentlich auch mehr Potenziale. Also mit ein, zwei Ausnahmen. Also eine Sache, wo ich sagen muss, wo ich glaube, dass LLMs ein großes Potenzial haben, ist bei sowas wie Sprache lernen. Wo es dann gar nicht so sehr darauf ankommt, welchen Inhalt mache ich. Aber wenn ich einfach mal Französisch üben will, dann kann, habe ich vielleicht einen Sparring-Partner, der mit mir über irgendwas redet. Was natürlich dann einfacher ist, wenn ich das einfach mal ebenso mit dem Computer machen kann, als wenn ich immer einen Menschen finden muss. [01:28:47] Aber sonst gibt es für mich jetzt nicht so viele Anwendungen, wo ich die LLMs wirklich für so mächtig halte.
Nils: [01:28:55] Also ich gehe auch tatsächlich davon aus, dass LLMs, wie wir sie jetzt kennen, gerade diese großen, die mit den milliardenteuren Datenzentren und so, ich vermute, die werden wir in fünf Jahren in der Form nicht mehr haben. Einfach, weil sie nicht wirtschaftlich zu betreiben sind. Ich glaube, wie gesagt, was da an Billionen und Trillionen an Geld, darin fließt, bessere E-Mails zu schreiben. Das kann eigentlich nicht wirtschaftlich tragbar sein. Es gibt auch, ich bin auch sehr dabei, diese spezifischen Anwendungsformen, jetzt für LLMs speziell, da habe ich das Thema Transkription so ein bisschen auf der Backe, da hilft es wirklich massiv, da spart es einfach Zeit, weil es halt einen ersten Entwurf macht und den zu überarbeiten, wenn er gut genug ist, dauert halt dann nur noch dieselbe Zeit, die man braucht, um es sich anzuhören und nicht mehr die fünf- oder die achtfache Zeit, die es braucht, um es sich anzuhören, wie eine manuelle Transkription. Also das ist auch so ein Thema. Aber das sind halt minimale Dinge, wo man immer gucken muss, gleich das den ökonomischen Kosten aus [01:29:56] und ich bin auch dabei, was Gustav gerade ansprach, es ist spezifische Anwendungen, spezifisch trainierte Modelle und das ist dann auch wieder, da hat sich durch die LLMs jetzt gar nicht so viel geändert. Die gab es auch schon vorher, hatte Holger ja auch schon angesprochen. Was wir nur haben, ist, wir haben auf einmal eine viel größere Bereitschaft, sich mit dem Thema auseinanderzusetzen. Das ist jetzt was, das merke ich im beruflichen Alltag ganz viel, dass durch das Thema KI auf einmal sich so ein Möglichkeitsfenster öffnet, vernünftige Digitalisierung zu machen. Also wir reden alle über KI und Digitalisierung 4.0 sozusagen, aber das gibt uns jetzt endlich mal die Gelegenheit, die Digitalisierung 1.0 nachzuziehen. Also ich bin in der Pflege unterwegs, was das Thema angeht und da ist halt auch groß von KI die Rede, aber die meisten Anwendungszwecke, die ich dann höre, ist ja, es geht, wir können jetzt mal endlich die Pflegedokumentation sauber digitalisieren und vielleicht müssen die Pflegekräfte, können die Pflegekräfte dann mal direkt per Spracheingabe sozusagen die Dokumentation befüllen. So, das hat mit KI erstmal sehr wenig zu tun [01:30:56] und mit großer Revolution. Das ist eigentlich erstmal die Potenziale heben, die Digitalisierung im Kern schon seit 10, 20, 30 Jahren bietet, wo wir jetzt einfach nochmal so ein großes offenes Möglichkeitsfenster haben, dass sich diese Dinge dann auch verändern. Also da sehe ich tatsächlich sogar Nutzen durch KI. Auch wenn der Nutzen nur ist, dass sie am Ende nicht eingesetzt wird, also ein bisschen dieses, das Schönste an der Stadt ist der Zug in eine andere Stadt. Ja, schön hier zu wohnen, man kommt ganz schnell woanders hin. Na super, warum wohne ich dann da? Das ist so ein bisschen auch der Gedanke, aber das ist so ein Prozess, den ich auch noch gerade sehe. (….)
Amanda: [01:31:31] Ich würde da total mitgehen, wenn es darum geht, dass erstens die Verkürzung auf LLMs und auch so, dass es das größte Potenzial bei spezifischen Anwendungen liegt und vielleicht auch eher bei Algorithmen oder anderen Formen von KI. Und dennoch würde ich sagen, vielleicht ist es auch ein bisschen unsere Blase, die verhindert, dass wir, ich sag mal, diese Chatfunktion tatsächlich, um leider nochmal das LLM darauf einzugehen, was das leisten kann an emotionaler Unterstützung. Holger, du hast gesagt, Sprache lernen. Ja, da würde ich voll mitgehen. Und doch, wir sind vielleicht noch eine Generation, die sehr in einem sozialen Geflecht und Gefüge aufgewachsen sind und eingebettet sind. Und das gibt aber sehr, es gibt schon sehr viele Personen, die vielleicht nicht mehr mit gewissen, ich sag mal, Dissonanzen, Diskussionen so klarkommen und dann auf eine KI ausweichen. Und das sage ich jetzt, weil ich das von einer sehr bekannten [01:32:33] schweizerischen Psychologin, Psychotherapeuten, gelesen habe, die das dann auch so sagt. Also das ist schon, das hat sich sehr stark verändert in ihrer Praxis in den letzten paar Jahren, dass am Anfang haben die Leute sie noch irgendwie schräg angeguckt, wenn sie gefragt hat nach dem Verhältnis der Person zu Chat oder zu Chat-JPT oder irgendeiner KI. Und mittlerweile ist das wie so selbstverständlich, dass man, wenn man ein Problem hat, wenn man irgendwie emotional aneckt, dass man dazu erst mal die KI fragt. Und da finde ich schon, um das nicht, ich will das nicht werten, aber ich sehe da schon sehr viel Potenzial, auch wenn man schaut, wie viele Personen von der jüngeren Generation tatsächlich sich im digitalen Raum stundenlang bewegen und sich dort aufhalten. (…)
Holger: [01:33:23] Ja, also ich habe das bewusst nicht reingebracht, weil ich auch so ein bisschen die Risiken, die da drin stecken, sehe, weil es eben auch so ist, dass das, was die KIs dann teilweise antworten, (….) teilweise problematisch ist. Also dann, das sind so diese Fälle, wo eine KI dann zu negativen Dingen auffordert, ohne das jetzt weiter zu spezifizieren, wo es, ich heute noch einen Podcast zugehört habe, einen Wissenschaftspodcast, wo darüber berichtet wurde, dass man eine KI mit relativ einfachen Prompts dahin bringt, dass sie halt eigentlich, was man jetzt sagen würde, generell einen, sagen wir mal, nicht hilfreichen Output gibt. Und ich verstehe, dass es da ein Potenzial gibt. Ich sehe aber im Moment [01:34:25] da auch noch sehr viele Risiken, die, glaube ich, nicht genug im Bewusstsein drin sind. (…) Weil wenn die KI dich dann immer unterstützt, ist es natürlich schön, dann rede ich gerne mit der KI, weil die KI mir immer Sachen sagt, die ich gerade hören möchte. Aber wenn ich gerade was hören möchte, was einfach eine schlechte Idee ist, ja, ne, also wenn die KI mir sagt, ja, kündige deinen Job, du wirst auf jeden Fall reich werden mit Rasenmähen, ja, dann ist es halt einfach nicht hilfreich, so, aufs Gesamtleben betrachtet. Ähm, deswegen sehe ich da, ne, ich stimme zu, es gibt da ein gewisses Potenzial, aber so wie die LLMs im Moment oft gestrickt sind, äh, würde ich das nicht empfehlen, das so zu nutzen. Ja,
Christoph: [01:35:19] da, das greift ganz gut auf, was, äh, was mein Punkt, einer meiner Punkte gewesen wäre. In Folge 20 haben, ähm, Nils und ich über die Vereindeutigung der Welt gesprochen von Thomas Bauer und da geht es viel um Ambiguitätstoleranz. Ähm, und das ist schon, schon eine Sorge, die ich habe, ne, also, ähm, keine Ahnung, was, äh, im Bereich der Psychotherapie über diese Modelle möglich ist, wenn man die vernünftig trainiert, ich vermute gar nicht so wenig, aber das Thema der, ähm, mangelnden Konfrontation, wenn das dein Austauschpartner ist, äh, und das Aushalten von Widerspruch sehe ich schon als, als Problem. Also, eine, ähm, eine Gesellschaft, die dauerhaft noch, noch empfindlicher in Diskursen wird, und in Diskussionen, ähm, ähm, halte ich nicht für so besonders wünschenswert und es wäre ein Risiko, was ich dabei sehe. Ein anderes, äh, Problem, das ich gerne ganz konkret sehe, was durchaus an unseren Podcast anschließt, ist, ähm, ähm, in aller Orten lese ich und, äh, sehe Studien zu abnehmender Lesebegeisterung [01:36:20] und vor allen Dingen Lesefähigkeiten auch in universitären Kontexten. Und ich glaube, das hängt sehr, sehr stark miteinander zusammen, dass man sich sehr viel zusammenfassen lässt, ähm, dass man, äh, offenbar den Sinn in der Kulturtechnik des Lesens nicht mehr sieht und die Fähigkeiten, die damit einhergehen, die man erwirbt. Ähm, und das ist auf jeden Fall, äh, ein, ein kleines, also, weiß nicht, wie klein das ist, ob das wirklich so nischig ist, aber das ist einfach ein, ein krasses Problem, was ich momentan sehe, äh, wenn Studierende auch an irgendwelchen US-amerikanischen Ivy League, Elite-Unis, ähm, von sich sagen, dass sie nicht mehr gut da drin sind oder eigentlich ungern ganze Bücher lesen, ähm, ist das einfach echt, echt was Schwieriges. Ich habe mir neulich als Notiz in, in dem Kontext mal aufgeschrieben, sind wir auf dem, also, sind wir auf dem Weg weg von einer, äh, schriftlich funktionierenden Gesellschaft, also, quasi Buchdruck als Übergangsform und entwickeln wir uns wieder hin zu irgendeiner Art von mündlicher Gesellschaft, ähm, oder nicht schriftbasierten Gesellschaft. Kann man, kann man das sehen [01:37:20] oder stimmt das zumindest in Teilen? da, da hängt für mich sehr viel Problem dran.
Nils: [01:37:25] Das, das finde ich eine sehr, sehr spannende These, weil die ja auch sowas wie Glaubwürdigkeit, ne, äh, von, von Texten, so ist es, ist es ein echter Mensch, der da mit mir redet oder so, dann komme ich ja auch wieder weg von der schriftlichen. Aber auch hier bin ich wieder ein bisschen an der Stelle zu sagen, ähm, äh, das ist eine Tendenz, die wir auch vor ChatGPT schon hatten. Also, ich habe ja auch so nach dem Studium so seit 2006, sieben an diversen Hochschulen, Universitäten unterrichtet und so der Stellenwert des Lesens von Texten, der ist schon immer irgendwie gefühlt weniger geworden. Das hat sich jetzt hier aber dann auch nochmal verschleunigt, definitiv. Und wir kommen da eben auch nochmal zu so einem, zu so einem Prozess, ne, wo wir auch nochmal auf, auf das Lernen tatsächlich gucken müssen. Also, ich war ja auch mal als Schreibdidaktiker unterwegs, also sehr, sehr viel darauf, darauf erpicht, Studierenden, äh, die, den, den Nutzen des, des Selbstschreibens sozusagen beizubringen und den, die, die, die, die Hilfe, die das auch beim Denken und beim Lernen bietet, irgendwie Texte selber zu schreiben und zu durchdenken. Und das ist halt das, was jetzt mit ChatGPT irgendwie komplett wegfällt. [01:38:27] Ich finde es jetzt nicht unbedingt schlimm, dass die Leute dann Prüfungen bestehen, ohne, äh, ohne die Hausarbeit selber geschrieben zu haben, weil, ne, Prüfungen bestehen, ist ja auch so ein Prinzip, was irgendwie eine, eine schlechte Krücke ist, wo uns jetzt gezeigt wird, warum das eine schlechte Krücke ist, weil KI das halt auch kann. Ähm, aber es passiert halt nur, dass sich dann alle nur noch auf die Krücke stützen, äh, so, so ein bisschen. Äh, und dann das echte Lernen verschwindet. Und ich erlebe das immer wieder. Ich hatte jetzt ein schönes Beispiel auf beruflichen Kontext, wo dann so berichtet wird, ja, wir haben hier, ging es um eine Mischung von Spezialfarben, was unglaublich komplex ist. Und die haben jetzt halt eine KI, die, die, die kann das machen. Und am Ende muss noch die erfahrene Mitarbeiterin, die das seit 30 Jahren macht, einmal da drauf gucken, ähm, um zu sagen, ist, ist das richtig und das eventuell noch anpassen. So, ne, das finde ich jetzt als Verfahren erst mal so, okay, das scheint nach State of the Art eingesetzt der KI zu sein. Ähm, ich frage mich dann, okay, was ist in zehn Jahren, wenn die Mitarbeiterin nicht mehr da ist und keiner mehr nachgekommen ist, die das, die die genau gleiche Erfahrung gesammelt hat. Ich glaube, das ist ein Punkt, wo wir noch mal [01:39:27] massiv hinschauen müssen, auch jetzt mittelfristig, die nächsten zehn, 15, 20 Jahre, wo einfach massiv Kompetenz bei Menschen verschwinden wird. Und irgendwann dann, keiner ist natürlich immer ein bisschen alarmistisch, aber wir noch viel weniger, formulieren wir es mal so, in der Lage sein werden, da drauf zu gucken und das tatsächlich im Blick zu haben, was da passiert. Und der KI dann tatsächlich noch auf die Finger zu gucken. Wie gesagt, ich sehe die Gefahr nicht ganz so groß, weil in fünf bis fünf Jahren hat sich das LLM-Thema vermutlich erledigt, hoffe ich. Aber trotzdem gibt es jetzt schon auch, wenn das fünf Jahre aktiv war oder acht, eine ganze Generation im Grunde von Schülern und Lernenden, die dann massiven Schritt verpasst haben, verfehlt haben. (….)
Amanda: [01:40:09] Ich finde das einen sehr guten Punkt, weil auch, also noch mal um die Brücke zu schlagen, Christoph hat auch die Medizin erwähnt. Also das ist natürlich ein sehr großes Problem, das man da auch sieht. Oder die Gefahr, wenn du jetzt sagst, jemand die KI filtert, ich sag mal, alle einfachen Dinge weg und ich als Ärztin greife nur dann ein, wenn es kompliziert wird, dann fehlt mir A, irgendwann das Know-how zu wissen, was ist überhaupt ein banaler Fall und was nicht. Und das kann man ja irgendwie vielleicht noch, ich sag mal, wissenstechnisch irgendwie abholen. Aber mir als Mensch fehlt halt auch so ein bisschen die inhärent ist, die Statistik. Also weil ich, wenn ich auf dem Notfall arbeite und ich sehe 50 Husten, Schnupfen und eine Person, die halt eine krasse Lungenembolie hat und die eine andere Behandlung bedarf, dann muss ich das irgendwie abschätzen können. Und das finde ich ein großes Problem. Aber was noch dazu kommt, finde ich, [01:41:12] insbesondere auch da bei solchen Berufen, die mit einer gewissen Verantwortung einhergehen oder Entscheidungen, die andere Personen unmittelbar betreffen, ist auch so ein bisschen die epistemische Glaubwürdigkeit. Also ich muss mich immer irgendwie zu einem Output von der KI verhalten. Im Moment tatsächlich zu Outputs von LLMs, weil PatientInnen kommen und sagen, hey, ich habe das und das und das. Das war vorhin schon mit Google so. Und das ist jetzt aber noch mal in einer anderen Intensität der Fall, weil halt auch Therapieoptionen und ich sage mal sogar personalisierte Medizin mit diesen Systemen produziert werden kann, in Anführungs- und Schlusszeichen. Und das finde ich sehr schwierig, weil da fehlt nicht nur, ich sage mal, die Expertise, sondern auch tatsächlich meine Einschätzung, Wem kann ich was glauben? Wie kann ich meinen Vorgesetzten glaubhaft machen, was ich kann, was ich weiß? Wie kann ich das den PatientInnen zeigen? Oder vielleicht stelle ich mich selber in Frage, weil ich plötzlich zugeben muss, [01:42:14] naja, ich habe nicht so gut aufgepasst in der Uni und jetzt kommt so ein Algorithmus oder so ein LLM, das zu alles Möglichen irgendwas sagen kann. Finde ich sehr schwierige Entwicklungen in dieser Hinsicht.
Holger: [01:42:29] Ich glaube, in gewisser Weise haben wir hier wieder einen Extremfall von Dingen, die auch in der Vergangenheit passiert sind. Also wenn es eine neue Technik gibt, dann geht einfach gewisses Wissen verloren von den Spezialisten, die das gemacht haben, bevor die Technik da war. Die entscheidende Frage, die man sich immer stellen muss, ist, wollen wir denn, dass dieses Wissen verloren geht? Ich glaube, gerade Medizin ist da ein sehr guter Fall, wo wir vielleicht sagen sollten, naja, wollen wir vielleicht nicht. Ich würde jetzt auch sagen, wenn es um Programmierung geht, wenn irgendwie so die Leute, die irgendwelche Programme schreiben, vielleicht auch LLMs schreiben, wenn die dann selber nicht mehr wissen, wie die Grundlagen dessen sind, dann haben wir vielleicht auch ein Problem. Ich habe da jetzt auch keine perfekte Lösung für. Ich glaube, was man vielleicht so ein bisschen reinbringen muss, das ist dann vielleicht auch wieder eine rechtliche Frage, [01:43:30] ist dann auch so eine Frage für Verantwortlichkeiten, dass man halt sagt, also im Moment, glaube ich, sehe ich in gewisser Weise so ein bisschen das Risiko, dass man halt sagt, ja, nee, ich habe ja alles richtig gemacht, die KI hat das ja gesagt. Und damit kann man dann die Verantwortung von sich selber wegbringen, wenn mal was schiefläuft. Und das ist vielleicht eine gesellschaftliche Frage, die dem so ein bisschen entgegenwirken kann, wenn man einfach sagt, Verantwortung trägt am Ende immer eine Person. Und man muss dann aber der Person auch die Möglichkeit geben, diese Verantwortung wahrzunehmen. Also zum Beispiel das Wissen überhaupt anzuhäufen, nicht einfach nur blind der KI zu vertrauen. Und ich glaube, das ist eine Diskussion, die wir als Gesellschaft mal haben müssen, weil auch da, glaube ich, ist es etwas, was es schon vor der KI gab, dass es immer mehr Verantwortungsdiffusionen gibt, wo jeder irgendwo anders hin zeigt und selten mal gesagt wird so, okay, ja, ich bin dafür verantwortlich und ich stehe dafür gerade.
Christoph: [01:44:31] Oh, das finde ich nochmal einen sehr, sehr guten Punkt. Vielleicht haben wir dafür noch nach, so viel Zeit haben wir nicht mehr, aber vielleicht haben wir noch Zeit, irgendwann darüber zu sprechen. Das ganze Thema Verantwortungsdiffusion finde ich wirklich interessant, gerade wenn es auch um politische Entscheidungen, Legitimationen geht. Und ja, was ich bei Amanda noch ergänzen wollte, weil ich heute, witzigerweise, ich hatte ja dieses Buch von Hannah Fry schon angesprochen, ich habe da heute nochmal in die Notizen geguckt, in der Vorbereitung, und da war noch die These 2019, oder wann es erschienen ist, dass die besten Entscheidungen quasi in Koproduktion von medizinischem Algorithmus plus ÄrztInnen getroffen werden. Und da kann man ja dann fragen, wie lange hat diese Diagnose Bestand, dass das der beste Weg ist, wenn halt Wissen verloren geht. Also das finde ich, ist echt der Knackpunkt dabei. Ich meine, das gleiche Phänomen haben wir ja bei Assistenzsystemen im Auto auch. Die Frage nach, okay, wenn es brenzlig wird, übernimmt der Mensch. Das geht aber nur so lange, [01:45:32] wie man die Ausbildung und das nicht brenzlige Fahren davor auch ausreichend erlernt hat. Ansonsten kippt das halt irgendwann.
Nils: [01:45:39] Ich würde bei dem Thema Verantwortung interessanterweise in gewisser Weise, Holger, widersprechen, auch wenn ich ihm recht gebe. Es gibt da noch einen zweiten Prozess, eine zweite Dynamik, die da stattfindet. Was passiert, wenn der Mensch der KI widerspricht? Also du hast den sprichwörtlichen Human in the Loop. Die KI macht irgendwas und der Mensch widerspricht dieser Entscheidung und lag damit falsch. Was passiert dann? Wenn dem Mensch dann gesagt wird, wieso hast du denn der KI widersprochen, rechtfertige mal, warum du der widersprochen hast, dann wird der beim nächsten Mal nicht mehr widersprechen. Einfach, weil er sagt, ich gehe jetzt ins Risiko, wenn ich das was anderes mache, als mir die KI vorschlägt. Da haben wir auch nochmal eine ganz spannende Verantwortungsdynamik, weil der Mensch sagt dann irgendwann, Stichwort Ass-Covering, wenn ich mache, was die KI sagt, kriege ich keinen Ärger. Es ist noch niemand dafür gefeuert worden, IBM zu kaufen oder Microsoft. Und das sind, glaube ich, auch nochmal Prozesse, die dann ins Spiel kommen. Je nachdem immer, [01:46:40] wem wird sozusagen, Amanda, du hast es gerade auch schon angesprochen, wem wird mehr geglaubt? Wem wird auch mal zugestanden, einen Fehler zu machen? Und das müssen wir halt dann eben auch Menschen noch mehr zustehen als der KI, wenn wir sagen, die Menschen sind die, die im Endeffekt die Entscheidung treffen. Und das ist, glaube ich, auch nochmal eine ganz spannende Dynamik, die wir gerade auch in verdichteten Arbeitskontexten mit fehlenden Ressourcen, vielleicht auch mit hohem Haftungsrisiko zum Beispiel. Ich denke jetzt wieder auch an die Pflege, wo wir auch ganz, ganz vorsichtig sein müssen. Wenn ich mache, was die KI sagt, ist im Zweifel im Idealfall der Hersteller der KI haftbar. Wenn ich mache, was mein Mitarbeiter sagt, der der KI widerspricht, bin ich selber haftbar. So, ja, was mache ich denn jetzt? Sag dem, komm, mach das, was die KI sagt, dann haftet im Zweifel der Hersteller. Auch da muss man halt extrem vorsichtig sein. Dann kommen ganz, ganz, ganz unschöne Dynamiken ins Spiel.
Holger: [01:47:29] Wobei da, da gibt es ja durchaus eine rechtliche Antwort.
Nils: [01:47:32] Doch, ja, doch, ja.
Holger: [01:47:34] Wenn die rechtliche Antwort ist, ja gut, aber das ist ja was, das kann man ja auch entscheiden als Gesellschaft zu sagen. So, die Verantwortung trägt am Ende immer, immer ein Mensch hier vor Ort und nicht die KI. Ja, und dann kann man sagen, wir gestehen, wir wissen auch, das ist vielleicht auch ein Thema, wir müssen mehr aufklären über die Schwächen der KI. Klar, wenn ich, wenn ich dann nur sehe, das ist die Maschine, die immer den perfekten Ausput liefert, dann werde ich der nie widersprechen. Wenn ich so ein bisschen wahrnehme, was denn es für Probleme mit der KI gibt und warum ich der vielleicht nicht vertrauen kann, dann ist es vielleicht auch anders und dann habe ich auch eher überhaupt den Anreiz, mal zu hinterfragen, was hat die KI mir gesagt und wenn ich, wenn ich die Möglichkeit dazu habe, das nochmal über einen anderen Kanal zu prüfen. Aber das sind, das sind halt auch wieder, ich sage ja, es ist eine gesellschaftliche Diskussion, die wir haben müssen. Ich habe jetzt nicht, sage nicht, ich habe die perfekte Lösung, ich sage nur, wir müssen darüber diskutieren [01:48:35] und ich sehe halt viele, viele Gefahren und ich denke, ein Punkt ist, man muss klare Verantwortlichkeiten haben und man muss auch ein Bewusstsein dafür schaffen, was kann KI und was kann sie nicht. Ja.
Amanda: [01:48:52] Ich würde da, ich bin absolut der gleichen Meinung und das ist auch, worauf ich hinaus wollte, als ich dieses Epistemische da reingebracht habe, also diese, wem glaubt man, wer trägt am Schluss die Verantwortung und insbesondere, wenn du jemandem widersprichst oder einer KI widersprichst oder eine andere Entscheidung triffst und gleichzeitig finde ich, auch wenn man jetzt, also ich finde es sehr spannend, wenn man sich dann zum Beispiel Gesetzestexte anschaut, so eine KI-Regularien, zum Beispiel in Bezug auf Medizinprodukte, was da drin steht, da steht irgendwie, die KI muss komplette, akkurate, richtige Daten haben und so weiter und so fort und da klingen bei mir als Dateninformatikerin alle Alarmglocken, das ist unmöglich und da finde ich so, das widerspricht sich dann auch wieder, also man sagt dann ja, man muss das irgendwie auch klären und ich bin da absolut der gleichen Meinung, [01:49:52] dass man diese Verantwortung auch tatsächlich irgendwie festhalten sollte, aber auch die Art und Weise, wie KI reguliert wird, ist so, ja fast schon unmöglich, das tatsächlich so umzusetzen, dass ich da sehr große Diskrepanzen sehe, ich weiß nicht, wie man das in Zukunft angehen soll.
Nils: [01:50:11] Ich glaube, wir müssen da auch nochmal,
Holger: [01:50:12] dann gibt es halt keine KI,
Nils: [01:50:14] wenn das effektiv verboten ist. Wir müssen halt auch nochmal auf, auch Verantwortung ist natürlich auf Papier und Realität ist halt auch nochmal so ein Thema und wir können auf der einen Seite immer über Verantwortung sprechen, also der Mitarbeiter ist dann halt verantwortlich dafür, dass er die, aber gleichzeitig müssen wir natürlich auch den Kontext achten, hat er überhaupt den Rahmen dieser Verantwortung gerecht zu werden, sind die Anreize so gelegt, also selbst wenn ich die Verantwortung dafür habe, wenn die Wahrscheinlichkeit, dass ich die realisieren muss, dass ich irgendwie haften muss, wenn die so gering ist oder wenn die von meinen Vorgesetzten so gering gesehen wird, dass sie mich unter Druck setzt. Also ich gucke mal ins Wissenschaftssystem, da gab es ja mehrere Fälle, wo dann auch Forschende wegen illegalen Zugangs zu irgendwelchen Quellen und sowas auch haftbar gemacht worden sind oder weil sie Texte für die Lehre sozusagen online hochgeladen haben, die sie eben nicht hätten hochladen dürfen. Das war das Thema, wo dann die Unis gesagt haben, ja wir haben damit nichts zu tun, das hat der Mitarbeiter gemacht und dann war der Mitarbeiter auf einmal in der Haftung, [01:51:14] wo gleichzeitig die Uni natürlich sagt, ja ihr müsst euren Studis aber was zu lesen geben und mittlerweile ist es halt Studierenden nicht mehr zumutbar, das wird keiner tun, in den Copyshop zu gehen und da Papierkopien zu ziehen, wie ich das ordnerweise noch im Studium gemacht habe. Ich finde es gut, dass das nicht mehr nötig ist, versteht mich nicht falsch, aber da sind halt auch, da kommen dann auch wieder Machtstrukturen ins Spiel, wo jetzt nicht die KI irgendwie ein Machtakteur ist, sondern wo halt Machtstrukturen prägen, wie Menschen KI nutzen, weil sie halt auf anderen Ebenen Erwartungen schafft, weil sie neue Anreize setzt, weil sie neue Erwartungen setzt. Ich glaube, das ist eine ganz komplexe Gemengelage, in der rechtliche Regeln natürlich eine Rolle spielen, aber ich würde fast behaupten, eine Untergeordnete.
Holger: [01:51:57] Ja, um jetzt nochmal einen anderen Aspekt reinzubringen, der auch in gewisser Weise eine rechtliche Frage ist, wo wir jetzt glaube ich noch nicht so richtig darüber gesprochen haben, was ist eigentlich mit den Daten, auf denen die KI trainiert wird? Da gibt es ja auch Fragen wie Urheberrecht. Da gibt es Fragen, welche Daten dürfen benutzt werden? Da ist dann auch die Frage, wenn das einmal zum Trainieren einer KI genutzt wurde, kriegt man das ja nie wieder raus. Das sind ja schon durchaus interessante Fragen, die sich stellen, die auch irgendwo rechtliche Fragen sind, wo uns jetzt hier wahrscheinlich der Rahmen fehlt, das irgendwie wirklich zu diskutieren, was ich aber zumindest irgendwie als Denkanstoß doch gerne nochmal hier reinwerfen würde. Dass das auch alles Fragen sind, die noch nicht so geklärt sind, wo dann dieses klassische Move fast and break things [01:52:58] gemacht wurde und einfach mal ohne klare rechtliche Grundlage einiges getan wurde und wo sich dann auch wieder die Fragen stellen, wenn sich wirklich die LLMs halten sollten, was passiert denn mit irgendwelchen Internetseiten? Werden die dann überhaupt noch angesteuert? Da sind dann Fragen, wie lohnt es sich noch, Blogs zu betreiben, wenn niemand mehr die Seite besucht, wo die Werbung geschaltet ist, die es finanziert. Also das ist so ein riesiger Rattenschwanz, der da dranhängt, der möglicherweise große Folgen hat, auch einfach deswegen, weil da einfach kein klar rechtlicher Rahmen da ist.
Nils: [01:53:43] Gut, ich glaube, auch wenn ich jetzt mal auf die Zeit gucke, dass ihr uns jetzt schon fast zwei Stunden zuhört, vielleicht, hoffentlich. Also wenn ihr das jetzt hört, dann habt ihr uns vermutlich zwei Stunden zugehört. Problem von einem typischen Fall von Survival Bias. Ich würde jetzt noch mal ein letztes Thema aufgreifen, gucken, dass wir die Diskussion vielleicht kurz halten, so ein Blitzlichtrunde, vielleicht einmal rumgehen. Das Thema, was machen wir jetzt damit? Also was ist jetzt so ein bisschen, wenn wir jetzt mal auf so eine moralische Perspektive gehen, was würdet ihr für euch persönlich, also jetzt für, oder wie haltet ihr es mit der KI? Die Gretchenfrage, wie hältst du es mit der KI? Was ist so für euch der Weg? Wie nutzt ihr es? Wie würdet ihr es gern nutzen? Was würdet ihr für die moralisch richtige Art haben, halten es zu nutzen? Das sind schon beide drei Fragen. Betonen wir mal die dritte. Genau.
Christoph: [01:54:37] Ich mache mal einen pragmatischen Aufschlag. Im Verlauf dieses Podcasts hat sich der Umgang mit meinen Buchnotizen in das Umwandeln eines irgendwie Notizheftes für eine Podcast-Episode massiv gewandelt und das kam irgendwann auf, als ChatGBT in halbwegs Qualität breit verfügbar war. Ich weiß noch, dass das anfängliche Zusammenschreiben und Extrahieren der Notizen aus einem Buch zu wie spricht man dann darüber und wie macht man eine Buchvorstellung daraus ein wirklich großer Teil der Arbeit dieser Podcast-Episode Vorbereitung war und das wird mir durch LLMs ehrlicherweise ziemlich erleichtert. Ich benutze Notebook LLM von Google zum Beispiel relativ gerne, weil man weiß, es werden nur die Daten benutzt, die ich jetzt gerade hier reinwerfe und mit denen kann ich dann arbeiten und an denen kann ich mich abarbeiten. das blendet in meinem Alltag ethische Fragen ziemlich aus, ehrlicherweise. [01:55:37] Also ich habe da einen sehr pragmatischen Zugang, möchte aber sagen, dass auch dieser Podcast in Teilen davon lebt, dass ich diese Tools auf jeden Fall zur Vorbereitung einsetze. (…) Diesen enormen Wildwuchs und diese Bilder-Westen-Mentalität, die aber in dem ganzen Feld irgendwie herrscht, macht mir schon Bauchschmerzen, das kann ich auf jeden Fall sagen. Also die Art und Weise, wie das Ganze in die Welt gekommen ist und wie da mit Urheberrechten umgegangen wurde, ist was, was mir überhaupt nicht schmeckt und das ist aber ein bisschen dieses, ja die Dinger sind jetzt aber in der Welt, wir werden das nicht mehr zurückdrehen können. Ich glaube, wenn wir in einer der Folgen kamen, das ist auf jeden Fall auch vor Holger, haben wir darüber gesprochen, ich glaube, dann werden jetzt halt ein paar Urteile gefällt, irgendwer wird irgendwie ein bisschen entschädigt, aber das Kind ist quasi schon in den Brunnen gefallen und ich merke, ich habe im Alltag trotzdem einen sehr pragmatischen Zugang dazu und nutze es halt.
Amanda: [01:56:35] Ja, ich würde, ich mache mal weiter, ich, mir geht es ein bisschen gleich, ich finde es spannend, dass du jetzt einen Podcast erwähnt hast, weil da ist es, ich sage mal, die wenigen Aspekte meines Lebens, wo ich das nicht nutze, ist für den Podcast. Ich nehme es jetzt auch so ein bisschen als Ausrede, muss ich sagen, um mehr Bücher kaufen zu können, weil ich so ein bisschen Angst habe, dass, ich habe jetzt schon von einer Person gehört, die ein komplettes Buch über Organisationsführung durch ein LLM schreiten lassen hat und das finde ich, also das, das macht mir echt Angst, deswegen, ich, ich kaufe jetzt Bücher, damit ich die zu Hause habe, so ein bisschen das, ich sage mal das, das Prep Prepper auf eine andere Art und Weise, aber ich muss schon zugegeben, auch bei der Arbeit als Informatikerin, da, da, da fällst du halt unten durch, wenn du das nicht mehr nutzt, also zum Coden, zum bestimmte Dinge lösen, da, da bist du einfach zu langsam mittlerweile, wenn du solche Tools nicht verwendest [01:57:35] und das, da komme ich fast nicht umhin und ich habe mir das, ich stelle mir ab und zu die Frage, denke ich mir ja, also, es ist ein bisschen eine Karrierefrage schon fast, also, bist du konsequent und sagst, hey, eigentlich aus moralischen Gründen sollte man das nicht verwenden oder sagst du halt, naja, ich muss halt auch wie irgendwie mein Zeug zusammenkriegen und nutze das halt, finde ich eigentlich ziemlich schwierig, aber ja, das sind, sind so zwei Dinge, persönlich versuche ich zu Hause zumindest immer so ein bisschen einen hierarchischen Weg zu gehen, also, ich gucke zuerst in einem Buch nach, wenn ich eins zu Hause habe und wenn nicht, dann google oder ich suche mal im Internet und wenn nicht, dann schaue ich halt, ob die KI mir da was, sehr brauchbares ausspuckt. (…)
Holger: [01:58:21] Ja, ich glaube, es wirkt fast so, als wäre ich hier derjenige, der am wenigsten KI verwendet. Ich glaube, so komplett entziehen kann man sich dem eigentlich nicht mehr, also, ne, aber bei mir im Moment beschränkt es sich noch größtenteils darauf, dass, wenn ich eine Google-Suche mache, da jetzt irgendwie inzwischen so eine KI-Zusammenfassung irgendwo oben steht und ich die jetzt nicht aus Prinzip ignoriere, sondern dann durchaus teilweise auch mal durchlese, ist aber bei mir auch jetzt so, dass bei meinem Arbeitgeber im Moment da noch keine klare Policy ist, weswegen die meisten KI-Tools da im Moment noch nicht nutzbar sind für so eine Sache, um mal eine PowerPoint erstellen zu lassen, wo ich selber keine Lust habe, alle Folien einzeln zusammenzufügen, kann ich mir das durchaus vorstellen. Ich glaube, es ist auch eine dieser Sachen, ne, also, wenn sie in der Welt ist, egal für wie moralisch oder nicht man die Entstehung hält, wird man es deswegen nicht ablehnen, es zu verwenden. Ne, also, da bin ich, [01:59:22] also, da bin ich einfach Realist. Ähm, bisher ist es bei mir so, dass ich noch nicht so richtig viele Anwendungsfälle in meinem Leben dafür habe. Der eine, mit dem ich ein bisschen liebäugle, den ich schon erwähnt habe, ist irgendwie, um mal vielleicht, äh, an meinen Fremdsprachen ein bisschen zu arbeiten, äh, mit einer KI mal zu üben. Ich habe es bisher noch nicht in die Tat umgesetzt, aber, äh, vielleicht kommt das noch. Ansonsten, ich vermute, ich kann mich dem nicht auf Dauer entziehen und werde es dann irgendwie verwenden. Ähm, auf der anderen Seite habe ich halt, wie man vielleicht gemerkt hat, äh, viel gehört, gelesen über, äh, Probleme mit den LLMs, so, dass ich da vielleicht, äh, auch dann teilweise einfach einen etwas kritischeren Blick habe und deswegen auch ein bisschen vorsichtiger bin als der Durchschnitt.
Nils: [02:00:15] Also, ich weiß nicht, wenn du nutzt es, ich glaube, ich nutze es offensichtlich auch weniger, als Christoph und Amanda jetzt gerade das angesprochen haben, habe ich auch so ein bisschen das Gefühl, ich habe nicht so viele Einsatzfälle, wo es mir wirklich was bringt, ähm, weil ich mir auch so denke, bevor ich einer KI gesagt habe, was sie mir in eine E-Mail schreiben soll, habe ich die E-Mail geschrieben. Ähm, ich bin aber jetzt gerade bei diesen ganzen moralischen Themen in den Strukturen, bin ich jetzt letztens auf eine sehr, sehr spannende Idee gestoßen, gibt es auch einen längeren Artikel bei mir auf dem, auf dem Blog, habe ich auch schon mal angesprochen, ähm, hier in den, in weiterer Episode, ähm, dieser Gedanke, dass man auf der einen Seite so ein pragmatischer, ähm, Ansatz sicherlich sinnvoll ist, ne, weil Amanda sagt, das ist im Job mittlerweile, wenn es denn wirklich Zeit spart, das ist ja zumindest strukturell auch noch immer umstritten, ob es das wirklich tut, ähm, aber wenn es das dann in dem Fall tatsächlich tut, dann, ne, ist es halt einfach nötig, um die Zeit zu haben oder eben auch den, den Nutzen daraus ziehen zu können, ähm, aber ich tue das tatsächlich sehr bewusst immer darauf achten, dass wenn ich, wenn ich, ich nutze es auch eben im technischen Kontext ein bisschen, [02:01:17] ich habe auf, auf Arbeit die Freude, mich mit Microsoft SharePoint sehr viel rumschlagen zu dürfen und das ist technisch doch teilweise sehr obskur, was da so passiert und sehr schlecht dokumentiert und da bietet sowas wie ein Perplexity oder ein ChatGPT dann doch manchmal sehr gut die Ansatzpunkte, so wie, wie kann ich das jetzt angehen, weil es einem aus den ganzen hunderten fragmentarischen Dokumentationen, die es da so gibt, das eine, was ich jetzt gerade an der Stelle brauche, halbwegs zusammenstellt, äh, bin aber immer sehr darauf bedacht, tatsächlich erstmal jeden Schritt zu verstehen, der da passiert, jede Funktion, die aufgerufen wird, mir nochmal genau anzugucken und auch erstmal zu lernen, was passiert da und wenn ich dann das Gefühl habe, ich habe wirklich verstanden, was er mir da gerade vorschlägt, dann fange ich auch an, die Fehler zu sehen, die da drin stecken meistens, also in genau dieses Bewusstsein zu sagen, ich versuche bewusst dieses De-Skilling eben nicht mitzugehen und alles, was ich da mache, im Zweifel auch inhaltlich dann im Endeffekt erklären zu können und das ist auch der Grund, warum ich zum Beispiel jetzt für sowas wie Podcast in Zusammenfassung das einfach nicht nutze, ähm, aber ich habe mir da auch einen algorithmischen Prozess gebaut, [02:02:17] der mir zum Beispiel das extrahierende Notizen massiv erleichtert, so aus meinem Kindle-Notizbuch, ähm, mir die Notizen einfach rauszieht und in Obsidian-Notebook haut oder so, dass ich dann mit denen arbeiten kann, das habe ich halt klassisch-programmatisch gelöst, was ich aber an diesem, was mir wichtig ist, diesen pragmatischen Ansatz im Grunde darum zu ergänzen, zu gucken, die Strukturen, die ich mir eigentlich wünschen würde, ähm, soweit es geht, irgendwie zu, zu unterstützen, also wenn ich jetzt die Möglichkeit habe, zum Beispiel zu sagen, ich, ich mache es jetzt in dem Fall nicht, aber irgendwie mir Nachrichten zusammenfassen zu lassen, ist das das eine, ne, ich nutze das, aber ich zahle halt trotzdem das Abo für drei, vier Zeitungen, wo ich sage, oder drei, vier Zeitschriften, wo ich sagen würde, da finde ich gut, dass es die gibt, ich lese sie dann vielleicht nicht auf der Webseite, ähm, aber ich, lass sie mir zusammenfassen, aber ich zahle halt trotzdem für den Zugang, ähm, um den halt einfach griffbar zu machen, also um diese Strukturen, die ich haben möchte, trotzdem zu erhalten, dass die eben dann auch noch da sind, wenn sie wieder nötig werden oder dass sie eben möglichst lange da bleiben und das finde ich, glaube ich, finde ich für mich einen sehr pragmatischen Ansatz [02:03:17] im Grunde zu sagen, ich ziehe den Nutzen daraus und versuche den Schaden, den das produziert, gleichzeitig irgendwie zu mitigaten und vielleicht systematischer entgegenzuwirken, als jetzt Klimazertifikate zu kaufen, also nicht als Ablasshandel sozusagen gedacht, sondern eher als ein bewusst gucken, okay, was sind die Punkte, wo ich, wo ich da bewusst dann doch mal noch gegenarbeite, wo nur, wenn es mir halt, stehe ich mal technisch, nur, wenn mir das, der Vorschlag plus das Recherche plus das komplett nachvollziehen, nur wo mir das irgendwie nutz sinnvoll erscheint, nur da nutze ich es dann auch, weil sonst laufe ich eben in die Gefahr, genau das zu tun, das ist so ein bisschen mein Ansatz, aber ich nutze es tatsächlich im Privatleben super wenig, außer jetzt mal zu wissen, wie irgendwie CSS irgendeine Absurdität produziert oder so und Arbeitskontext halt genau auf diese Art und Weise.
Christoph: [02:04:08] Ja, kurze Ergänzung, weil ihr die Differenz zwischen Arbeits- und Berufsleben nochmal aufgemacht habt, beruflich darf ich es gar nicht nutzen, per se einfach überhaupt gar nicht und das heißt, ich nutze es nur privat, spannenderweise.
Nils: [02:04:20] Ich nutze es jetzt auch nicht mit Unternehmensdaten, aber halt für Fragestellungen, die beruflich sind, wo ich nichts, wo ich keine Daten freigeben muss sozusagen, weil wir haben jetzt zwar Regeln, die sind auch, ja, kann man auch drüber diskutieren, aber das ist also berufliche Nutzung ist für mich auch eher eine Suchergänzung. Eine Sache habe ich vergessen, ich nutze es gerne als Suchmaschine. Ich nutze Perplexity, gerade Perplexity nutze ich gerne als Suchmaschine, wo mir dessen Zusammenfassungen eigentlich gar nicht so wichtig sind, wo ich mich direkt in die Suchergebnisse klicke, weil Google-Suche einfach mittlerweile so schlecht geworden ist und die Perplexity-Suche erstaunlich gut ist. Die ist gut darin, meine bisschen diffuse Frage in einen guten Suchstring umzuwandeln, die hat einen eigenen Index, der nicht durch Werbung und so weiter zugesteuert wird und deswegen sind die Suchergebnisse, die Perplexity, die Quellen ausspuckt, meistens erstaunlich gut. Mir ist dann nur die Zusammenfassung, die können es für mich auch weglassen, ich will nur das Suchergebnis, aber das funktioniert tatsächlich auch ganz gut.
Holger: [02:05:15] Vielleicht muss ich das dann doch mal ausprobieren.
Christoph: [02:05:17] Die Erfahrung teile ich auf jeden Fall. Ich finde, wenn man kein, also ich finde, die sind dann besonders gut beim Suchen, wenn man keinen guten Ansatzpunkt in der Formulierung hat, sondern zum Beispiel sehr, also ein irgendwie wissenschaftlich angehauchtes Problem und man ist auf der Suche nach einem Fachbegriff, wenn man da auf der Suche ist und probieren will, das rauszufinden und das so alltagssprachlich einfach so da reinwirft, wie es einem gerade kommt, das führt erstaunlich oft zu einem guten Ergebnis und häufig besser als so ein klassisches Google-Suchen.
Nils: [02:05:47] Das ist aber auch tatsächlich, da verstehe ich auch technisch genau, warum das gut funktioniert. Ja, absolut. Da geht es vor allem um diese Vektor-Embeddings, um diese Umwandlung in die Vektoren, in eine mathematische Abbildung von Worten, über die ich auf einmal mathematisch Bedeutungsähnlichkeiten abbilden kann. Und dann ist es super klar zu sehen, warum irgendwie Begriffe sich von der Bedeutung sehr ähnlich sind und dann kann ich solche Suchen natürlich hervorragend gestalten. Also das ist dann wieder der Punkt, da verstehe ich, was passiert. Da hat die Technik einen konkreten Vorteil und eine vektorbasierte Suche ist ja auch eine Sache, die gibt es nicht erst seit LLMs. Aber da wird es jetzt wieder sehr technisch. Die Vektoren werden nur besser durch die LLMs. (……) Gut, habt ihr noch Punkte, die ihr einbringen wollt? (….) Sonst haben wir jetzt zu einem kontroversen Thema unsere bisher längste Episode, glaube ich, gerade besprochen. [02:06:49] Ja, habt ihr noch, habt ihr Dinge, die ihr jetzt allgemein nicht zum Thema den Hörerinnen und Hörern da draußen noch mitgeben wollt?
Holger: [02:06:58] Also ich wäre sehr neugierig, wie denn dieses Experiment bei unseren Hörern ankommt und ob denn unsere Hörer sagen, sowas sollen oder können wir nochmal machen. Da müssen wir uns natürlich wieder ein Thema aussuchen, wo jeder ein passendes Buch findet zur Vorbereitung. Aber wäre ja denkbar, dass man das zumindest für Jubiläumsfolgen nochmal wiederholt. (……)
Nils: [02:07:31] Christoph nickt im Video, weiß nur nicht, dass ihr das da draußen nicht hört.
Christoph: [02:07:34] Ja, nein, das weiß ich. Genau, ich kann das auf jeden Fall unterstützen, diesen Wunsch nach Feedback. (…….) Ja. (……)
Nils: [02:07:46] Genau, das sehe ich natürlich ähnlich. Jetzt hier unser neues Format. Ich hoffe, ihr habt was mitgenommen aus dieser Episode und aus den Episoden vorher. Jetzt als Schlusswort sozusagen. Wir haben es gerade den Teufel an die Wand gemalt. Lest weiter Bücher. Denkt weiter über Bücher nach. Sucht euch auch neben, ich meine, das ist ein bisschen ironisch zu sagen, wir machen hier einen Podcast, der euch Bücher zusammenfasst und dann sage ich euch, lest Bücher. Ja, aber sucht euch verschiedene Quellen aus verschiedenen Richtungen zu verschiedenen Themen in verschiedener Tiefe und schafft euch euer eigenes Bild. Weil ich glaube so, das ist auch eine Kompetenz, jetzt wieder das von Amanda aufzugreifen gerade, die wichtiger werden wird, die wichtig bleiben wird, weil in dieser KI-Welt dann doch mal noch die Orientierung, die menschliche Orientierung manchmal auch hilft. Und die sich bewusst zu erhalten, kann glaube ich auch einfach ein bewusster kompetenzstrategischer Weg sozusagen sein.
Holger: [02:08:47] Und man kann natürlich auch ein Buch, dass wir eine Buchvorstellung von uns als Inspiration sehen, das Buch auch selber zu lesen oder vielleicht ein Buch von einem, ein anderes Buch von demselben Autor oder sowas.
Nils: [02:09:00] Kriegen ja auch immer mal wieder Kommentare zu den Episoden, wo ihr uns ergänzt oder andere Lesarten, Büchern vorschlagt oder so. Das ist super richtig, super wichtig. Macht das gerne weiter, macht das gerne auch noch mehr. Wir freuen uns über jeden Stern, über jede Rezension, über jeden Kommentar, jede Antwort in den sozialen Netzwerken. Wir machen es nicht nur für euch, was wir hier tun. Uns macht das ja auch eine Menge Spaß. Aber natürlich ist es schön zu wissen, dass es da draußen auch menschliche Ohren gibt, die uns zuhören. Und wenn da jemand ist, der die Transkripte unseres Podcasts von einem LLM zusammenfassen lässt, um die Zusammenfassung sich zusammenfassen zu lassen, dann sagt uns doch bitte mal, was das Ergebnis taugt. Und da wäre ich einfach neugierig drauf, was da mittlerweile an Workflows und Denkflows und Hörflows so existiert. Ja, das war unsere Episode 100, 100, nee, ich weiß nicht, 100 Bücher, die wir euch vorgestellt haben. Das stimmt jetzt mit dieser Episode nicht. 99 Bücher, die wir euch vorgestellt haben [02:10:00] in diesem Podcast. Wie gesagt, es wird weitere geben. Wir machen einfach weiter. In drei Wochen gibt es das nächste Buch von uns zu hören. Wenn ihr das nicht verpassen wollt, dann abonniert den Podcast. Am besten natürlich klassisch als RSS-Feed über unsere Webseite. Ihr findet uns aber auch auf den standardmäßigen Plattformen und bei YouTube. Da freuen wir uns auch über Abos und Kommentare. Wenn ihr uns da am besten hören könnt, dann hört uns da. Genau, klickt rein, folgt uns auf den sozialen Netzwerken. Wir sind auf bluesky.deckeln und auf mastodon.zzd.podcasts.social Folgt uns da gerne rein. Und jetzt bleibt mir nur zu wünschen, bis zum nächsten Mal viel Spaß beim Lesen. Macht’s gut. Tschüss.
Amanda: [02:10:49] Tschüss, Tamar.
Holger: [02:10:51] Tschüss. Tschüss.
Quellen und so
Intro und Outro der Episode stammen aus dem Stück Maxixe von Agustin Barrios Mangore, eingespielt von Edson Lopes (CC-BY).
Das Umblättern zwischen den Teilen des Podcasts kommt hingegen von hoerspielbox.de.
Zwischen zwei Deckeln findest du auch im sozialen Medium deiner Wahl: Mastodon und Bluesky.
Der Beitrag 100 – KI-Diskussion von Amanda, Christoph, Holger und Nils erschien zuerst auf Zwischen zwei Deckeln.


