AI-powered
podcast player
Listen to all your favourite podcasts with AI-powered features
Über rassistische KI, dubiose Forschungsergebnisse und die Frage, wie viel besser KI überhaupt noch werden kann
🏁Wir öffnen heute die Motorhaube der Large Language Models und sehen uns an, wie eine KI überhaupt trainiert wird. Wie aus einer großen Menge Text, einem Beatles-Song und einer Wahrscheinlichkeitsrechnung die Künstliche Intelligenz ihre Antworten zusammenbastelt.
🌎Alles beginnt mit einer gigantischen Menge an Daten. Zeitungsartikel, Webseiten, Studien, Statistiken – die KI verarbeitet alles, was ihr eingespielt wird. Doch was passiert, wenn die KI mit falschen, angeblich wissenschaftlichen Studien gefüttert wird? Die ersten Versionen der KI-Suchmaschinen von Google, Microsoft und Perplexity gaben ungefiltert widerlegte, rassistische Theorien wieder – und ließen sie wie Fakten wirken. Wie konnte das passieren?
💾Mehr Leistung, mehr Daten – doch wie viel besser kann Künstliche Intelligenz noch werden? Führen mehr Chips, größere Rechenzentren und größere Trainingsmodelle denn überhaupt noch zu besserer KI?
❄️Die KI-Experten fürchten einen neuen KI-Winter: Die Verbesserungen zwischen den Modellen von Generation zu Generation sind nur noch marginal. Die großen Qualitätssprünge bleiben aus. Woran liegt das? Und kann mehr menschliches Denken im KI-Hirn das Problem beheben – oder muss das Training von KI ganz neu konstruiert werden?
Quellen:
https://www.wired.com/story/google-microsoft-perplexity-scientific-racism-search-results-ai/