KI-Zertifizierung am Limit: Warum alte Normen für neue Technologien versagen31 | 03 | 26

KI-Zertifizierung, Zertifizierung

Stellen Sie sich vor, Sie kaufen ein Auto. Der Hersteller garantiert Ihnen, dass die Fabrik perfekt organisiert ist. Ob das Auto aber tatsächlich Bremsen hat, weiß niemand. Klingt das für Sie absurd? Genau das passiert aktuell bei der Zertifizierung von Künstlicher Intelligenz (KI). Wir verlassen uns blind auf Standards aus der alten Industriewelt. Doch bei generativer KI stoßen diese Werkzeuge an ihre Grenzen. Wir müssen Normierung radikal neu denken.

Der Prozess-Produkt-Spagat der ISO 42001

Viele Unternehmen feiern die aktuelle Norm ISO/IEC 42001 als den ultimativen Goldstandard. Sie liefert ein solides KI-Managementsystem. Das Problem liegt jedoch im Detail. Die Norm zertifiziert primär den Prozess und die Verantwortlichkeiten. Sie garantiert nicht zwingend die Qualität des Endprodukts. Ein Unternehmen kann das Zertifikat erhalten und trotzdem eine fehleranfällige KI auf den Markt bringen. Hauptsache, das Team hat den Entwicklungsweg dorthin sauber dokumentiert. Für Sie als Anwender bietet dieses Zertifikat oft eine trügerische Sicherheit. Ein zertifiziertes System belegt eine organisatorische Sorgfalt, aber noch lange keine nachgewiesene Qualität im realen Einsatz.

Statische Prüfsiegel für extrem dynamische Systeme

Erschwerend kommt hinzu: Traditionelle Zertifikate gelten meist für ein bis drei Jahre. Eine KI lernt jedoch kontinuierlich dazu. Entwickler verändern die Modelle durch neue Daten und sogenanntes Deep Learning fast täglich. Zur kurzen Erklärung: Deep Learning bezeichnet Systeme, die wie ein künstliches Gehirn selbstständig anhand großer Datenstrukturen Muster erlernen.

Ein statisches Siegel verliert seinen Wert schnell. Es veraltet, sobald das System das nächste große Update erhält. Wir versuchen gerade, eine extrem dynamische Technologie in eine starre, alte Schablone zu pressen. Besonders bei großen Sprachmodellen wird dieses Dilemma offensichtlich. Sie arbeiten inhärent statistisch und berechnen lediglich Wahrscheinlichkeiten. Geben Sie heute einen Befehl ein, liefert die KI Ergebnis A. Nutzen Sie morgen denselben Befehl, erhalten Sie womöglich Ergebnis B. Wie wollen wir ein System objektiv bewerten, das keine exakte Reproduzierbarkeit bietet?

Neue Möglichkeiten durch Künstliche Intelligenz

KI ist heute so wichtig, weil Datenmengen explodieren, Rechenleistung günstig verfügbar ist und moderne Modelle in vielen Szenarien sofort nutzbaren Mehrwert liefern. Richtig eingesetzt steigert KI Produktivität, unterstützt bessere Entscheidungen und eröffnet neue Möglichkeiten in Produkten und Prozessen. Auf unserer Themenseite Künstliche Intelligenz finden Sie praktische Impulse und Weiterbildungsangebote, zugeschnitten auf Ihren Berufsalltag im Qualitätsmanagement. Zur Themenseite »

Ethik und Qualität lassen sich schwer in Prozent messen

Der neue EU AI Act und kommende europäische Normen fordern völlig zu Recht Fairness, Transparenz und Robustheit. Aber wie messen Sie Fairness objektiv? Bislang fehlt ein echter Konsens für diese Frage. Solange wir ethische Anforderungen nicht in harte Metriken übersetzen, bleibt jede Prüfung subjektiv.

Hinzu kommt ein oft verschwiegener Engpass: die Auditkompetenz. Viele Auditoren haben viel Erfahrung mit klassischen Managementsystemen, aber weniger mit maschinellem Lernen.

Die Folge? Was sich schwer messen lässt, prüfen sie oft nicht tiefgründig. Stattdessen haken sie ab, ob eine KI-Richtlinie existiert. Das schafft einen gefährlichen Anreiz zur reinen Pflichterfüllung statt zu substanzieller Sicherheit.

Fazit: Wir brauchen ein Continuous Auditing

Wir brauchen dringend einen Paradigmenwechsel, damit aus Compliance echtes Vertrauen wächst. Die Leserinnen und Leser müssen sich bewusst machen: Bei KI ist Qualität kein einmalig besiegelter Zustand, sondern ein kontrollierter Dauerzustand.

Der Weg führt unweigerlich weg von der einmaligen Stempel-Prüfung. Wir müssen hin zu einem automatisierten „Continuous Auditing“ – also einer ständigen, datenbasierten Überwachung der KI im laufenden Betrieb. Wir müssen modulare, risikobasierte Prüfungen etablieren, die sich dem Kontext der Anwendung anpassen. Nur so etablieren wir KI als belastbares Qualitätsmerkmal. Wir müssen die Lücke zwischen alten Normen und neuer Realität schnell schließen. Sonst zertifizieren wir am Ende nur unsere eigene Ahnungslosigkeit.

Mission Smart Q

Die DGQ begibt sich auf die Mission Smart Q.
Unsere Überzeugung: Qualität bleibt auch künftig ein entscheidender Faktor für den Wirtschaftsstandort Deutschland. Doch in einer Welt, die zunehmend digitaler, datengetriebener und vernetzter wird, muss auch das Q smarter werden. Qualität wird zur Steuerungsarchitektur, die Technologie, Risiko und Wertschöpfung miteinander verbindet. Smart Q beschreibt damit die nächste Entwicklungsstufe des Qualitätsmanagements – datenbasiert, vorausschauend und strategisch verankert. Jetzt informieren »

Über den Autor: Johannes Angebauer

Johannes Angebauer
Johannes Angebauer gehört sei 2025 dem Vorstand der DGQ an. Er beschäftigt sich seit mehr als 10 Jahren als erfahrener Mathematiker und leidenschaftlicher Problemlöser intensiv mit dem Thema Künstliche Intelligenz und gründete 2019 TerraTech. Für ihn steht besonders die menschliche Komponente bei der Anwendung von KI im Fokus. Er verwirklicht Innovation und forscht als Pionier auf dem Gebiet der Augmented Intelligence an ökologisch und gesellschaftlich nachhaltigen KI-Technologien.