Cicero – Magazin für politische Kultur
Kaum ein Thema treibt die globalen Tech-Unternehmen zur Zeit derart an wie die Entwicklung einer künstlichen Superintelligenz (ASI). Doch eine KI, die die kognitiven Fähigkeiten des Menschen überschreitet, birgt immense Gefahren. Der KI-Experte und Science-Fiction Autor Karl Olsberg im Gespräch mit Ralf Hanselle über existenzielle Bedrohungen, die durch künstliche neuronale Netze lauern.
Möchten Sie einzelne Artikel auf cicero.de lesen, aber kein Abo abschließen? Dann probieren Sie unser neues Angebot aus, schalten einzelne Artikel frei und zahlen Sie nur, solange Sie lesen. Ganz unkompliziert mit wenigen Klicks und ohne aufwendige Registrierung.
Probieren Sie es einfach aus: Künstliche Intelligenz statt Bildung
Inhalt Podcast:
10:09 "Wir sind noch nicht an dem Punkt, dass KI uns in jeder Hinsicht erreicht oder überflügelt. Aber KI kann schon ganz, ganz vieles besser als wir. Und es gibt keinen Grund, aus meiner Sicht zu sagen, irgendetwas wird KI nie können, was wir können. Wie genau sich das entwickelt, ist schwer zu prognostizieren, aber momentan entwickelt sich es viel schneller, als ich erwartet habe und ich befürchte tatsächlich, dass wir relativ bald an einem Punkt sind, wo zumindest bestimmte Fähigkeiten, die Menschen heute haben und KI noch nicht, KI auch erreichen wird und dann wird es meiner Ansicht nach sehr gefährlich." (Karl Olsberg)
18:37 "Ich habe auch bei KI prinzipiell die Hoffnung, wenn wir das alles im Griff behalten, dass uns das mehr Vorteile als Nachteile bringt, aber der Umbruch wird natürlich sehr, sehr hart. Und wenn wir das nicht in den Griff bekommen, wenn das quasi nur in der Hand von ein paar neuen Fürsten, könnte man fast sagen, wie Sam Altman von OpenAI, wenn die entscheiden, oder Elon Musk, wie unsere Zukunft aussieht, dann wird es, glaube ich, auch an der Stelle düster. Das macht mir auch Sorgen, aber es ist halt nicht mein Hauptthema, weil das nützt uns alles gar nichts, diese ganze Diskussion, wenn es tatsächlich so kommt, wie einige befürchten, dass die KI uns außer Kontrolle gerät und wir praktisch überhaupt keine Möglichkeit mehr haben, die Zukunft zu bestimmen, weil die KI entscheidet, was passiert. Das wäre das Worst-Case-Szenario und das ist das, was mir am meisten Sorgen macht." (Karl Olsberg)
22:10 "Es kann auch sein, dass die Skeptiker Recht haben und sagen, ach was, das ist alles übertrieben, das alles Hype, das dauert noch, so weit sind wir noch nicht, wie ihr glaubt. Möglich, ich hoffe, dass es so ist. Aber es kann genauso gut umgekehrt sein. Es kann sein, dass nächstes Jahr oder in drei Monaten jemand mit einer KI kommt, die alle umhaut und die dann plötzlich irgendwelche Dinge macht, mit denen keiner gerechnet hat." (Karl Olsberg)
26:41 "Also was mir am liebsten wäre, wäre erstmal, dass wir eine möglichst große, breite Diskussion über dieses Thema haben, weil die meisten Menschen wissen überhaupt nicht, dass da ein paar Leute mit Silicon Valley in ihrer Zukunft zocken." (Karl Olsberg)
38:32 "Wenn man so das redet, was ich jetzt gerade so gesagt habe und vor den Gefahren warnt, dann wird man natürlich schnell so in die Ecke gestellt, der ist gegen Technik, der ist gegen KI. Nein, bin ich nicht, schon alleine, weil ich selber auch KI entwickelt habe, KI-Firmen gegründet habe, kann man mir das eigentlich nicht nachsagen. Aber ich glaube tatsächlich, dass KI ein echter Segen für die Menschheit sein kann, wie jede Technik letzten Endes, wenn man sie richtig nutzt." (Karl Olsberg)