KI Datenqualität im Unternehmen: Die 3 größten Fehler und wie du sie vermeidest | #KIundTECH

Sind schlechte Daten wirklich Ihr Problem – oder nur die bequemste Ausrede?
Ihr Unternehmen sitzt auf einem Datenschatz – warum nutzen Sie ihn nicht?
…darüber sprechen wir in diesem Interview.

Schlechte Datenqualität gilt in vielen Unternehmen als Haupthindernis für KI-Projekte – doch ist das wirklich so, oder ist es nur die bequemste Ausrede, um nicht zu starten? 

In dieser Episode des #KIundTECH Podcast beleuchtet Benjamin Aunkofer, Gründer von DATANOMIQ, im Interview mit Holger Winkler die drei größten Fehler im Umgang mit Datenqualität und zeigt praxisnah, wie Unternehmen diese gezielt vermeiden können. 
Das Gespräch liefert konkrete Handlungsempfehlungen für alle, die mit Daten arbeiten und den nächsten Schritt in Richtung datengetriebenes Unternehmen gehen wollen.

Warum sollten Sie dieses Interview nicht verpassen?
  • Sie erfahren, warum "schlechte Daten" häufig eine Ausrede ist und wie Sie trotzdem mit KI-Projekten starten können.
  • Sie verstehen, welche Rollen im Unternehmen für Datenqualität verantwortlich sind und wie die Zuständigkeiten sinnvoll verteilt werden.
  • Sie lernen den Unterschied zwischen Top-Down- und Bottom-Up-Ansätzen bei der Datenstrategie kennen und wann welcher Ansatz passt.
  • Sie bekommen einen klaren Überblick über Data Warehouse, Data Lake und Data Lakehouse – verständlich erklärt anhand alltagsnaher Beispiele.
  • Sie verstehen, warum gute Datenqualität den monetären Unternehmenswert direkt beeinflusst und was das für Ihre Strategie bedeutet.
Takeaways aus dem Interview:
  • Mut zur Lücke: Fehler 1 ist, Daten gar nicht erst zu nutzen, weil sie vermeintlich zu schlecht sind. Datenqualität verbessert sich erst durch die aktive Auseinandersetzung mit den Daten.
  • Fehler 2 ist die fehlende Verfügbarkeit von Daten. Ohne eine geeignete Infrastruktur wie ein Data Lakehouse bleiben wertvolle Daten ungenutzt oder gehen verloren.
  • Fehler 3 ist die massive Unterschätzung des Datenwerts. Gute Datenqualität erhöht den Unternehmenswert nachweislich und ist ein entscheidender Faktor bei Due-Diligence-Prozessen.
  • Process Mining ist eine Schlüsselmethodik, um Prozesse aus Daten heraus zu rekonstruieren, Datenfehler aufzudecken und die Datenqualität systematisch zu verbessern.
  • Daten aus unterschiedlichen Bereichen wie BI, Process Mining und Data Science gehören zusammen – sie zu trennen ist ein typischer organisatorischer Fehler.
  • Datenqualität lässt sich messen: Abdeckungsraten, Anomalieerkennungen und statistische Ausreißeranalysen liefern konkrete Indikatoren.
  • Das Vertrauen der Mitarbeiter in Unternehmensdaten ist ein schneller, praktikabler Frühindikator für den tatsächlichen Stand der Datenqualität.
#Digitalisierung #CEO #Unternehmertum #KünstlicheIntelligenz

Über #KIundTECH – der KIundTECH Podcast:
KI & TECH in Unternehmen und Gesellschaft: Wettbewerbsvorteil oder Sargnagel?
Was machst Du daraus?

Wir sprechen mit Anwendern und Vordenkern über Chancen, Risiken und Auswirkungen von KI – klar, praxisnah und auf den Punkt. Damit unsere Hörer schneller die richtigen Entscheidungen treffen können.

► Mehr erfahren: https://kiundtech.com/
Holger Winkler auf LinkedIn: https://www.linkedin.com/in/holger-winkler/  

Du möchtest einen Gast vorschlagen oder selber zu uns in die Sendung kommen?
Alle Informationen und ein Bewerbungsformular findest du auf unserer Webseite!

Kontakt
ITundTECH Podcast
c/o CONBREY MANAGEMENT AG
Bahnhofstraße 6
CH-9100 Herisau / Schweiz
Telefon: +41 71 552 0480

© 2025 CONBREY MANAGEMENT AG Impressum | Datenschutzerklärung