

heise meets … Der Entscheider-Talk
Heise Business Services
heise meets … Der Entscheider Talk - ist der Podcast mit Entscheidern für Entscheider. Wir besprechen kritische, aktuelle und zukunftsgerichtete Themen aus der Perspektive eines Entscheiders. Wir begrüßen Persönlichkeiten aus Wirtschaft, Wissenschaft und Politik. Immer aktuell und nah am Geschehen.
Episodes
Mentioned books

Dec 10, 2025 • 21min
KI-Agenten: Wie proaktives Monitoring Fehleranalysen verbessert (Gesponsert)
heise meets … Matthias Ruhl (Lufthansa) und Markus Klose (Elastic)
Wenn Systeme bei der Lufthansa ausfallen, hat das sofort Auswirkungen auf zahlreiche Passagiere. Matthias Ruhl, Leiter der Observability-Plattform bei Lufthansa, arbeitet deshalb mit Markus Klose von Elastic zusammen, um Ausfälle zu verhindern, bevor sie entstehen.
Ihr Ziel: „Ein Incident darf nicht zweimal vorkommen.“ Die Herausforderung liegt in der komplexen IT-Landschaft der Airline: Daten sind über verschiedene Systeme und Abteilungen verteilt. Elastic löst das mit Cross-Cluster-Search: Die Datenhoheit bleibt bei den einzelnen Departments, aber dennoch ist ein kompletter Überblick möglich. So kann die Lufthansa schnell feststellen, ob System A, B oder C betroffen ist – statt lange nach der Ursache zu suchen.
Künstliche Intelligenz spielt dabei eine zentrale Rolle. Mit KI lassen sich große Datenmengen vorverarbeiten und clustern, wobei unwichtige Informationen rausfliegen. Analysten sehen dann nur noch ein Zehntel oder Hundertstel der ursprünglichen Daten. Der nächste Schritt: Agentic AI, die nicht nur analysiert, sondern auch automatisch Gegenmaßnahmen einleitet.
Der neue Agent-Builder von Elastic kann bereits Playbooks abarbeiten und proaktiv auf Anomalien reagieren. Die Vision: Proaktives statt reaktives Monitoring – Zwischenfälle sollen verhindert werden, bevor sie auftreten. Technisch sei man schon sehr weit, erklärt Ruhl. Die Frage ist nur, ob sich Unternehmen trauen, Prozesse vollautomatisch ablaufen zu lassen.
Neugierig geworden? Im Interview mit „heise meets …“ erklären die Experten,
wie flexible Architekturen die Systemüberwachung erleichtern,
warum KI das Rauschen aus den Daten filtert und Analysten entlastet
und wie Agentic AI zukünftig Incidents abwendet, bevor sie entstehen.
Keine Folge verpassen: Abonnieren Sie jetzt den Podcast heise meets… – Der Entscheider-Talk auf Apple Podcasts, Spotify und Deezer oder per RSS.

Nov 5, 2025 • 25min
Megawatt statt Kilowatt: Wie KI die Kühlkonzepte der IT-Branche verändert (Gesponsert)
heise meets … Jakob Leischner, Leiter Solution Sales IT Projects bei Rittal
Die Digitalisierung ist der Schlüssel für die Transformation vieler Bereiche – das gilt auch für Rechenzentren. „KI wird da meines Erachtens schon eine Rolle spielen“, sagt Jakob Leischner, Leiter Solution Sales IT Projects bei Rittal im Data-Center-Bereich. Denn die hohen Anforderungen von KI-Anwendungen lassen sich in bestehenden Rechenzentren oft nur mit großem Aufwand realisieren.
Auf Containern basierende Systeme bieten hier eine flexible Alternative: Die Module lassen sich – je nach Bedarf – erweitern und an neue Anforderungen anpassen. IT-Container können auch auf dem Parkplatz oder der Wiese neben dem Gebäude aufgestellt werden. Sogar ein Einsatz auf dem Dach ist möglich, wenn es die statischen Voraussetzungen erlauben. Durch die Modulbauweise und Skalierbarkeit sind containerbasierte Rechenzentren deutlich schneller realisierbar als konventionelle Bauten.
Eine zentrale Rolle spielt dabei das Thema Kühlung: Durch den Einsatz von Flüssigkeitskühlung gelingt es, auch hohe Leistungsdichten effizient zu kühlen. Durch den Einsatz von Optimierungssoftware und die Nutzung von Abwärme können auch anspruchsvolle Energieeffizienzziele erreicht werden, wie Praxisbeispiele zeigen. Doch Leischner blickt bereits in die Zukunft: Die nächste große Herausforderung für KI-Rechenzentren sieht er in der Stromversorgung der Racks.
Im Gespräch mit „heise meets …“ erklärt der Experte,
wie der Aufbau containerbasierter Rechenzentren schnell und flexibel gelingt,
welche Möglichkeiten es gibt, den PUE-Wert durch Kühlung und Optimierung zu senken,
und warum das Thema Stromversorgung bei steigenden Leistungsdichten immer wichtiger wird.
Keine Folge verpassen: Abonnieren Sie jetzt den Podcast heise meets… – Der Entscheider-Talk auf Apple Podcasts, Spotify und Deezer oder per RSS.

Oct 29, 2025 • 35min
Wer den Deutschen Preis für Software-Qualität (DPSQ) erhält
heise meets … Richard Seidl, Autor, Podcaster und Software-Experte
Software-Qualität ist für Richard „Richie“ Seidl eine Herzensangelegenheit – schon seit seiner Kindheit beschäftigt sich der Wiener mit Computern und Software. Nach Stationen als Programmierer und Qualitätstester berät er heute als Speaker und Autor Unternehmen, Software nicht nur funktional, sondern auch menschlich zu gestalten. Dafür erhält Seidl im Jahr 2025 den Deutschen Preis für Software-Qualität (DPSQ).
Im Gespräch mit „heise meets …“ blickt Seidl auf seinen Werdegang zurück – vom Spielen mit dem ersten 286er-PC über die Ausbildung zum Programmierer bis hin zu seiner heutigen Rolle als Vordenker und Impulsgeber. Dabei treibt ihn stets der Wunsch an, Software so zu gestalten, dass sie Nutzern Freude bereitet und ihr Leben erleichtert.
Mit dem Aufkommen von ChatGPT und anderen KI-Technologien stellt sich die Frage, welche Rolle menschliche Software-Entwickler und -Tester künftig noch spielen. Für Seidl liegt die Antwort auf der Hand: Es geht darum, Vertrauen in KI-generierte Software zu schaffen. Das erfordert seiner Meinung nach Kommunikation, Empathie und den Blick auf die Bedürfnisse der Anwender.
Trotz der Herausforderungen blickt Seidl positiv in die digitale Zukunft. Seine Vision ist eine Welt wie in „Star Trek“, in der die Technologie den Menschen dient und ethische Fragen im Mittelpunkt stehen. Dafür braucht es laut Seidl mehr Mut und Verantwortungsübernahme in der Software-Branche.
Im Gespräch verrät er außerdem,
warum sich auch in komplexen Software-Projekten immer eine Lösung findet,
wie Unternehmen ihre Mitarbeiter für die digitale Transformation begeistern können und
welche Rolle Menschlichkeit und persönliche Begegnungen in einer KI-geprägten Welt spielen.
Keine Folge verpassen: Abonnieren Sie jetzt den Podcast heise meets… – Der Entscheider-Talk auf Apple Podcasts, Spotify und Deezer oder per RSS.

Oct 22, 2025 • 23min
Digitale Sicherheit: Warum Zertifikate Automatisierung benötigen (Gesponsert)
heise meets … Patrycja Schrenk, Geschäftsführerin der PSW Group
Digitale Zertifikate sichern die Kommunikation im Internet ab, doch die Anforderungen steigen. „Die Laufzeiten von SSL-Zertifikaten werden immer kürzer“, sagt Patrycja Schrenk, Geschäftsführerin der PSW GROUP. Bis 2029 soll die Gültigkeit auf nur noch 47 Tage sinken. Der Grund: Kürzere Laufzeiten erhöhen die Sicherheit, weil die Verschlüsselung seltener kompromittiert werden kann.
Deshalb entsteht für Unternehmen ein höherer Aufwand bei der Zertifikatsverwaltung. Schrenk rät deshalb zur Automatisierung. „Manuelle Lösungen sind dann keine Option mehr“, sagt sie. Wer den Prozess nicht an ein System auslagert, riskiert Warnseiten durch abgelaufene Zertifikate – und verliert im schlimmsten Fall Kunden und Umsätze.
Dabei geht es nicht nur um Webseiten, sondern auch um die E-Mail-Kommunikation. Hier wird die Verschlüsselung laut Schrenk ebenfalls immer wichtiger, etwa im Kontakt mit Behörden. Selbst Privatpersonen müssen sich zunehmend mit digitalen Zertifikaten beschäftigen – und den richtigen Anbieter finden.
Doch was macht einen vertrauenswürdigen Zertifikatsdienstleister aus? Schrenk empfiehlt, auf Standort, Zertifizierungen, Unabhängigkeit und Support zu achten. Dabei sollten Automatisierungsoptionen und echte Expertise eine Rolle spielen. Nur so lassen sich die Herausforderungen der Zukunft meistern – von immer kürzeren Laufzeiten bis hin zu neuen Technologien wie der Quantenverschlüsselung.
Neugierig geworden? Im Interview mit „heise meets …“ erklärt Patrycja Schrenk,
wie Sie das richtige Zertifikat für Ihre Bedürfnisse finden,
warum Automatisierung bei der Zertifikatsverwaltung unverzichtbar wird und
welche Herausforderungen die Post-Quantum-Verschlüsselung bringt.
Keine Folge verpassen: Abonnieren Sie jetzt den Podcast heise meets… – Der Entscheider-Talk auf Apple Podcasts, Spotify und Deezer oder per RSS.

Oct 8, 2025 • 23min
SAP und T-Systems: Warum Künstliche Intelligenz keine Bedrohung für Software ist (Gesponsert)
heise meets … Maike Baumgartl, Vice President Discrete & Process Manufacturing bei T-Systems
Warum sollten Unternehmen bei SAP-Projekten den Umweg über einen Partner gehen? Maike Baumgartl, Vice President Discrete & Process Manufacturing bei T-Systems, sieht das gar nicht als Umweg: „SAP selber ist ja gar kein Service-Provider. Das heißt, sie bieten Lizenzen für die Kunden an – und wir sind jemand, der den Betrieb und die Implementierung machen kann.“
Die 30-jährige Partnerschaft zwischen T-Systems und SAP bringt Unternehmen konkrete Vorteile, etwa frühzeitige Einblicke in SAP-Strategien, globale Services sowie die Möglichkeit, kritische Systeme – beispielsweise im Rahmen der SAP Business Suite oder RISE with SAP – in der RISE-zertifizierten Private Cloud von T-Systems zu betreiben. Die Rechenzentren dieser Plattform stehen in Deutschland, sind nach ISO, SOC und BaFin zertifiziert und erfüllen die GxP-Compliance, die insbesondere für Chemie- und Pharma-Unternehmen von Bedeutung ist.
Für Baumgartl stellt künstliche Intelligenz keine Bedrohung für bestehende Software dar, sondern eine Chance: Sie erledigt Routinen und schafft Raum für Innovationen. Die finale Bewertung und Entscheidung sollte jedoch beim Menschen bleiben.
Für 2026 plant T-Systems gemeinsam mit NVIDIA die erste industrielle KI-Fabrik Deutschlands in München. Mit 10.000 Hochleistungsprozessoren sollen auch mittelständische Unternehmen flexibel GPU-Power als Service nutzen können – ohne große Eigeninvestitionen.
Neugierig geworden? Im Interview mit „heise meets…“ verrät Baumgartl,
warum digitale Transformation ein kontinuierlicher Veränderungsprozess ist,
wie T-Systems Kunden auf dem Weg in die Cloud begleitet und
warum Vertrauen und realistische Erwartungen für erfolgreiche Projekte entscheidend sind.
Keine Folge verpassen: Abonnieren Sie jetzt den Podcast heise meets… – Der Entscheider-Talk auf Apple Podcasts, Spotify und Deezer oder per RSS.

Sep 24, 2025 • 36min
Unified-Endpoint-Management: Wie Automatisierung die IT-Abteilungen entlastet (Gesponsert)
heise meets… Sebastian Weber, Chief Evangelist von Aagon
Vom Client-Management bis zum Unified-Endpoint-Management (UEM): Sebastian Weber, Chief Evangelist bei Aagon, blickt auf 25 Jahre IT-Geschichte zurück. Schon früh setzte das in Soest ansässige Unternehmen auf Eigenentwicklungen, um genau die Funktionen zu bieten, die Kunden im deutschsprachigen Raum brauchen – und nicht nur das, was weltweit im Trend liegt.
Heute zählt UEM zu den komplexesten Aufgaben: Inventarisierung, Software- und Patch-Management, Sicherheit, Netzwerk, Asset-Management und vieles mehr müssen orchestriert werden. Gerade im Mittelstand sind die Gerätelandschaften oft historisch gewachsen – inklusive Überraschungen in der Schatten-IT. Die größte Herausforderung entsteht, wenn spezialisierte Systeme wie medizinische Geräte ins Spiel kommen.
Aagon setzt auf ganzheitliche Betreuung: „Bei uns ruft auch jemand zurück“, betont Weber. Kunden werden dort abgeholt, wo sie stehen – egal ob mit Excel-Listen oder Cloud-Ambitionen. Auch Sonderwünsche finden laut Weber Berücksichtigung, sofern sie ins Gesamtkonzept passen. Automatisierung gilt als zentrales Thema, um die IT von Routineaufgaben zu entlasten. Bei heiklen Prozessen wie Updates spielen ausgefeilte Freigabe-Workflows eine wichtige Rolle bei Aagon.
Neugierig geworden? Im Interview mit „heise meets…“ verrät Sebastian Weber,
wie sich UEM in den letzten 25 Jahren entwickelt hat,
warum Aagon auf Kundennähe und Eigenentwicklungen setzt
und wie Automatisierung die IT-Abteilungen entlastet.
Keine Folge verpassen: Abonnieren Sie jetzt den Podcast heise meets… – Der Entscheider-Talk auf Apple Podcasts, Spotify und Deezer oder per RSS.

Aug 13, 2025 • 28min
KI-Innovation: Wie ein digitales Labor die Medikamentenentwicklung beschleunigt
heise meets... Christian Tressel, COO von BI X, Boehringer Ingelheim
„BI X ist nicht nur eine Software-Schmiede, sondern wir sind sehr crossfunktional aufgestellt“, erklärt Christian Tressel, COO von BI X. Bei BI X handelt es sich um das digitale Innovationslabor von Boehringer Ingelheim. Als eigenständige GmbH im Konzern verfolgt BI X einen besonderen Ansatz: Mit flachen Hierarchien und dezentralen Entscheidungen schafft das Team Freiräume für digitale Innovationen entlang der gesamten pharmazeutischen Wertschöpfungskette.
Ein Beispiel für den Innovationsgeist sei die Entwicklung von KI-Modellen für klinische Studien, so Tressel. Mit einer Lösung zur Virtualisierung von Kontrollgruppen konnte BI X bereits 50 Prozent der Placebo-Patienten einsparen – mit potenziellen Zeiteinsparungen von zwei bis vier Jahren bei der Medikamentenentwicklung. Bei seltenen Erkrankungen mache diese Technologie klinische Studien überhaupt erst möglich.
Auch in der frühen Pharmaforschung setzt das Team auf generative KI-Modelle. Durch spezialisierte Large-Language-Modelle können beispielsweise Zellmembran-Anker identifiziert werden, an denen Wirkstoffe andocken können. Dies erhöhe die Erfolgsquote von Wirkstoffkandidaten erheblich und optimiere die Laborprozesse, so Tressel. „Wir arbeiten hypothesenbasiert“, sagt er. „Dazu gehört natürlich auch, dass man Hypothesen nicht nur belegt, sondern auch widerlegt.“
Für die Zukunft sieht der BI-X-Chef großes Potenzial. Erfahren Sie außerdem,
wie die kontinuierliche Erfassung von Biomarkerdaten funktionieren könnte.
wie Smartwatches und Nano-Devices die Daten direkt im Körper sammeln könnten.
wohin der Trend bei einer frühzeitigen Krankheitserkennung lange vor dem Auftreten von Symptomen geht.
Keine Folge verpassen: Abonnieren Sie jetzt den Podcast heise meets… – Der Entscheider-Talk auf Apple Podcasts, Spotify und Deezer oder per RSS.

Jul 31, 2025 • 32min
IT-Sicherheit: Warum Echtzeit-Management der entscheidende Faktor ist (Gesponsert)
heise meets … Bernd Much, Regional Vice President Central Europe bei Tanium
Echtzeitinformationen sind laut Bernd Much, RVP Solution Engineering bei Tanium, „Gold" in der heutigen Zeit. Denn nur wer in Echtzeit agieren kann, schafft es auch, schnell auf Bedrohungen zu reagieren.
Doch in vielen Unternehmen herrscht eine starke Fragmentierung mit unterschiedlichen Tools und Datensilos – und das verhindert durchgängige Automatisierung und Effizienz.
Much plädiert deshalb für eine Konsolidierung auf Plattformen wie Tanium. Deren Agenten sorgen für Sichtbarkeit und liefern Echtzeitdaten über alle Endpunkte hinweg – eine wichtige Voraussetzung für autonomes Endpoint-Management. So lassen sich Sicherheitslücken in Minuten schließen und nicht erst in Tagen oder Wochen. Auch KI profitiert von diesen Echtzeitinformationen.
Der Weg führt laut Much von der Automatisierung hin zur Autonomie. Zunächst optimieren Unternehmen dabei Grundlagen wie Asset-Management und Lizenzverwaltung – oft entstehen hier bereits erste Einsparpotenziale.
Darauf aufbauend automatisieren sie Schritt für Schritt ihre Abläufe, wodurch der Bedarf an manuellen Eingriffen stetig sinkt. Das spart nicht nur Kosten, sondern ermöglicht es den Mitarbeitern auch, sich auf strategische Aufgaben zu konzentrieren.
Erfahren Sie im Gespräch,
warum der Faktor Echtzeit entscheidend für die IT-Sicherheit ist,
wie sich mit Tanium Silos überwinden und Abläufe automatisieren lassen und
welche Rolle Plattformen und Partnerschaften für die Zukunft der IT spielen.
Keine Folge verpassen: Abonnieren Sie jetzt den Podcast heise meets… – Der Entscheider-Talk auf Apple Podcasts, Spotify und Deezer oder per RSS.

Jul 23, 2025 • 20min
Evolve or Die: Von Amazon lernen, heißt Skalieren lernen
heise meets… Dr. Werner Vogels, Vice President und Chief Technology Officer von Amazon
„Entwickle dich oder stirb“ – mit dieser klaren Maxime beschreibt Dr. Werner Vogels, Vice President und Chief Technology Officer von Amazon, die Philosophie eines der erfolgreichsten Technologieunternehmen der Welt. Im Podcast gibt er exklusive Einblicke in die Anfangsjahre des Unternehmens und die technologischen Herausforderungen, die es zu meistern galt.
Als Vogels 1994 zu Amazon kam, existierte der Begriff E-Commerce noch nicht einmal. „Es gab kein Buch, in dem stand, wie man einen Online-Buchladen baut, denn das hatte es noch nie gegeben“, erinnert er sich. Kundenrezensionen, Produktempfehlungen, Vergleichsfunktionen – all diese heute selbstverständlichen E-Commerce-Features wurden damals von Amazon entwickelt.
Doch die größten Herausforderungen lagen in der Infrastruktur: Die relationalen Datenbanken der späten 1990er-Jahre waren den Anforderungen nicht gewachsen und wurden zum Flaschenhals.
Die Lösung kam 1998 in Form eines Manifests über verteiltes Rechnen. Amazon-Ingenieure schlugen eine serviceorientierte Architektur vor, um Daten und Code zusammenzuführen. Nach anfänglichen Fehlern – etwa einer zu groben Aufteilung nach Datensätzen – entwickelte sich daraus das Konzept der funktionalen Zerlegung.
„Das ist es, was wir heute Microservices nennen“, erklärt Vogels. Um die Produktivität der Entwickler zu steigern, baute Amazon schließlich eine Shared-Services-Umgebung für Datenbank, Computing und Storage – der Grundstein für AWS war gelegt.
Heute nutzt Vogels seine Erfahrung, um Firmen zu unterstützen, die an Lösungen für die größten Probleme der Menschheit arbeiten. Seine TV-Serie „Now Go Build“ zeigt Start-ups, die mit technologischen Ansätzen gesellschaftliche Herausforderungen in Angriff nehmen.
Für die Zukunft wünscht er sich vor allem eines: realistischere Erwartungen an neue Technologien wie KI – und bessere Aufklärung, damit Entscheidungsträger fundierte Urteile fällen können. Neugierig geworden? Im Interview mit „heise meets …“ verrät Vogels,
wie Amazon schon in den Neunzigern Pionierarbeit für den E-Commerce leistete,
warum Microservices und AWS letztlich aus der Not heraus entstanden und
wie er Unternehmen unterstützt, die Lösungen für drängende Probleme entwickeln.
Keine Folge verpassen: Abonnieren Sie jetzt den Podcast heise meets… – Der Entscheider-Talk auf Apple Podcasts, Spotify und Deezer oder per RSS.

Jul 16, 2025 • 37min
Autopilot für IT-Sicherheit: KI schirmt Firmen und öffentlichen Sektor ab (Gesponsert)
heise meets… Thomas Maxeiner, Technischer Leiter Public Sector bei Palo Alto Networks
„Was man sich heute vor Augen führen muss: Angriffe passieren nicht mehr im Silo, sondern sind heute sogenannte multilaterale Angriffe.“, warnt Thomas Maxeiner, Technischer Leiter Public Sector bei Palo Alto Networks.
Die Bedrohungslage hat sich dramatisch verändert: Statt einzelner Viren, die auf Zerstörung ausgelegt sind, sehen wir heute koordinierte Angriffe, bei denen Hacker möglichst lange unentdeckt bleiben, um wertvolle Daten zu stehlen.
Besonders alarmierend: Die Zeit zwischen Kompromittierung und Datenexfiltration hat sich von 44 Tagen im Jahr 2021 auf wenige Stunden verkürzt.
Hinzu kommen täglich 2,5 Millionen KI-generierte Angriffe, die klassische Abwehrmechanismen umgehen. Hacking ist ein Servicegeschäft geworden – mit Toolkits, die selbst unerfahrenen Angreifern den Einstieg erleichtern.Viele Organisationen arbeiten noch in Silos: ein Verantwortlicher für Endpoint-Sicherheit, ein anderer für Netzwerksicherheit. Jedes Team hat eigene Tools, doch keines sieht das Gesamtbild.
„Wir müssen anfangen, unterschiedliche Technologien zu konsolidieren“, betont Maxeiner. Die Lösung sei ein integriertes Sensornetzwerk, das alle Sicherheitsebenen verbindet und durch KI-Unterstützung Alarme automatisiert korrelieren kann.
Dieser Plattformansatz bringe nicht nur höhere Sicherheit, sondern reduziere auch die Kosten. Statt zehn verschiedene Produkte mit separaten Ausschreibungen, Verträgen und Datenschutzfolgeabschätzungen zu betreiben, können Behörden ihre Ressourcen effizienter einsetzen. Gerade im Hinblick auf die kommende NIS-2-Richtlinie, die neuartige Technologien wie maschinelles Lernen und Zero-Trust-Prinzipien fordert, wird dieses Umdenken unverzichtbar.
Neugierig geworden? Im Gespräch mit „heise meets ...“ erläutert Thomas Maxeiner,
warum Datenschutz und Cloud-Nutzung kein Widerspruch sein müssen,
wie KI Sicherheitsanalysten entlasten statt ersetzen kann und
warum der Weg von der automatisierten zur autonomen Security führt.
Keine Folge verpassen: Abonnieren Sie jetzt den Podcast heise meets… – Der Entscheider-Talk auf Apple Podcasts, Spotify und Deezer oder per RSS.


