Wenn ein Aufkleber  die Sicherheit bedroht

Wenn ein Aufkleber die Sicherheit bedroht

Mit der zunehmenden Verbreitung künstlicher Intelligenz (KI) wachsen die Chancen, aber auch die Risiken für den Einsatz in technischen Anwendungen. Die TÜV NORD GROUP hat dieses Potenzial erkannt und bietet als Vorreiter im Markt bereits KI-Prüfdienstleistungen an.

Die Sprachsteuerung im Smartphone beantwortet sofort die drängende Frage, der englische Fachtext wird sekundenschnell übersetzt: Die künstliche Intelligenz ist keine ferne Vision mehr, sondern hat unseren Alltag längst erreicht. Der Versuch, menschliches Lernen und Denken mithilfe von Daten und Software auf den Computer zu übertragen und die Technik eigenständig Probleme lösen zu lassen, gelingt in immer größeren Dimensionen. Schon heute finden Transporter selbstständig ihren Weg durch Fabrikhallen, und Maschinen erkennen Qualitätsmängel durch Bilderkennungs-Software. Automatisierte Fahrzeuge dürften schon bald zu unseren Begleitern in den Städten werden. Weltweit arbeiten immer mehr Unternehmen daran, die neuen komfortablen Funktionen durch die richtigen Trainingsdaten für das Machine Learning zu verfeinern.

Bevölkerung wünscht sich sichere KI-Anwendungen

Geht es um die Zukunft von KI, ist häufig die Befürchtung zu hören, dass Wesen wie der Terminator die Kontrolle übernehmen könnten. Auch wenn dies wohl weiter Science-Fiction bleibt, gibt es doch ganz reale Risiken, auf die sich Unternehmen vorbereiten müssen. Denn mit der zunehmenden Verbreitung steigt auch die Gefahr durch fehlerhafte KI-Systeme, Datenmissbrauch oder Cyberangriffe. Dr. Dirk Stenkamp, Vorstandsvorsitzender der TÜV NORD AG und amtierender Präsident des TÜV-Verbands, sieht die künstliche Intelligenz an einem Wendepunkt: »Es geht jetzt vom Abstrakten hin zu konkreten Anwendungen. Nur durch Vertrauen in KI können sich Märkte und Produkte in KI-Investitionen entwickeln«, erklärte Dr. Stenkamp im Rahmen der TÜV AI Conference im Oktober 2021 in Berlin.

Das unterstreicht auch eine repräsentative Studie des TÜV-Verbands zur Sicherheit von künstlicher Intelligenz: 78 Prozent der Bevölkerung wünschen sich Gesetze und Vorschriften zur Regulierung von KI. 85 Prozent sind der Meinung, dass KI-Produkte erst auf den Markt gebracht werden sollten, wenn ihre Sicherheit von unabhängigen Stellen geprüft wurde

Wie muss eine politische KI-Strategie angelegt sein? Darüber diskutierten Repräsentanten aus Politik und Wirtschaft während der AI Conference des TÜV-Verbands am 27. Oktober 2021 in Berlin.

»Nur durch Vertrauen in KI können sich Märkte und Produkte in KI-Investitionen entwickeln.«

Dr. Dirk Stenkamp

Dr. Dirk Stenkamp erklärt während der AI Conference, wieso Verordnungen die Grundlage für eine funktionale und ethisch sichere KI sind.

Innovationspreis für neues KI-Prüfverfahren

Genau hier knüpft die TÜV NORD GROUP mit der Arbeit von TÜV Informationstechnik (TÜViT) an. Als unabhängiger Prüfdienstleister für IT-Sicherheit ist TÜViT international führend und steht für den gesamten Geschäftsbereich IT, einem von sechs in der TÜV NORD GROUP. Mit der Vision einer vertrauenswürdigen und sicheren KI arbeite das TÜViT-Team in Essen bereits seit 2018 innovationsorientiert, erklärt Dr. Henning Kerstan, Senior IT Security Expert bei TÜViT. »Wir haben uns von Anfang an die Frage gestellt: Was brauchen wir, um KI-Anwendungen überhaupt prüfen zu können? Was würden Angreifer machen?«

Das Team um Dr. Kerstan arbeitet konkret an einem Prüfwerkzeug für KI und einem darauf aufbauenden, methodischen Bewertungsschema für die Sicherheitsanalyse von KI-Anwendungen. Für diese Arbeit wurden Dr. Kerstan und die beiden KI-Fachkräfte Vasilios Danos und Thora Markert bei der Digital Leadership Convention der TÜV NORD GROUP im Juni 2021 mit dem Innovation Award ausgezeichnet. Das auf die Initiative von Vasilios Danos entstandene TÜViT-eigene Prüfwerkzeug macht beispielsweise die Robustheit von KI über spezielle Tests messbar – denn gerade die Robustheit entscheidet darüber, ob und wie gut ein KI-Algorithmus gegen Hackerangriffe oder auch natürliche Störungen wie zum Beispiel Wettereinflüsse bestehen kann. Anhand dieser Testergebnisse, die in das dazugehörige Bewertungsschema eingebettet sind, ist es den Fachleuten möglich, eine strukturierte Aussage über die Sicherheitseigenschaften eines KI-Systems zu treffen.

Die Grundlage für KI-Anwendungen sind große Datenmengen. Wesentliches Kennzeichen der KI bzw. genauer des Teilbereichs Machine Learning ist das Erkennen von Mustern in solchen Daten. Dies lernt das KI-System in der Trainingsphase: Beim überwachten Lernen werden einer KI Bilder von Menschen und Tieren gezeigt. Anschließend kann die KI beispielsweise eine Katze erkennen. Allerdings fand Vasilios Danos bei einer smarten Überwachungskamera heraus: Auf dem Arm eines Diebes wird die Katze zum Störfaktor für ein System, das mittels Bilderkennung eigentlich vor Einbrüchen schützen soll. Wenn derartige Bilder nicht im Training schon vorkamen, kann es passieren, dass der Dieb mit der Katze insgesamt als »Katze« klassifiziert wird und somit keinen Alarm auslöst. Während solche offensichtlichen Fehler noch leicht zu verstehen sind, können auch »schon kleinste, für das menschliche Auge kaum wahrnehmbare Veränderungen zu einer falschen Entscheidung und damit zu schwerwiegenden Fehlern führen«, berichtet Dr. Henning Kerstan. Diese prinzipielle Schwäche in der Robustheit von Machine Learning ist der Grund für die Notwendigkeit von Prüfungen. Sonst kann ein kleiner Aufkleber aus einem Stoppschild an einer viel befahrenen Kreuzung plötzlich ein Vorfahrtsschild machen. »KI-Systeme können in Situationen versagen, die wir Menschen als banal empfinden.« Wie gut eine Anwendung solchen Manipulationen standhalten kann, sollte deshalb genau geprüft werden.

KI in der Mobilität

Mehr Sicherheit für künstliche Intelligenz (KI) im Straßenverkehr: Das Bundesamt für Sicherheit in der Informationstechnik (BSI) und das Technologieunternehmen ZF Friedrichshafen AG haben ein gemeinsames Projekt gestartet, um zu erforschen, wie die IT-Sicherheit von KI-Systemen in Autos nach allgemein anerkannten Kriterien getestet werden kann. Als Projektpartner ist zudem TÜV Informationstechnik (TÜViT) eingebunden, das auf IT-Sicherheit spezialisierte Unternehmen der TÜV NORD GROUP.

Mit den Erkenntnissen aus dem Projekt sollen mittelfristig Prüfkriterien für KI-Systeme in Form einer modularen technischen Richtlinie erarbeitet werden. Diese kann in die Entwicklung künftiger Sicherheitsüberprüfungen für Autos und in internationale Bemühungen zur Standardisierung einfließen.

 

 

»Wir unterstützen Hersteller dabei, die Sicherheit ihrer KI-Technologien zu erhöhen und objektiv nachzuweisen.«

Dr. Henning Kerstan

Prüfverfahren werden fließender

Mit dem bei TÜViT gesammelten Know-how entsteht im immer attraktiveren Markt der Prüf- und Zertifizierungsanbieter ein echter Wettbewerbsvorsprung für die TÜV NORD GROUP, die bereits mit den ersten Unternehmen, etwa aus dem Automotive-Bereich, zusammenarbeitet und so aus der Vision heraus schon heute konkrete Wertschöpfung bietet. »Wir unterstützen Hersteller dabei, die Sicherheit ihrer KI-Technologien zu erhöhen und objektiv nachzuweisen«, fasst Dr. Kerstan zusammen. »Wir bieten jetzt schon Prüfdienstleistungen an, die in Zukunft als Bestandteil einer ganzheitlichen Systemprüfung im Rahmen der dann geltenden Regularien notwendig sein werden.«

Bei der Prüfung und Messung der jeweiligen KI-Anwendungen greifen die TÜViT-Fachkräfte zwar auf ihren methodischen Erfahrungsschatz als Prüferinnen und Prüfer zurück, müssen aber völlig neue Prüfwerkzeuge und Analyseverfahren berücksichtigen. Auch ist eine große Fachkompetenz bei der Anwendung und Auswertung der Prüfung erforderlich. »Hier gibt es keinen grünen Haken, nachdem man ein Messgerät eingesetzt hat«, berichtet Dr. Kerstan. Da sich die Verfahren zudem stetig weiterentwickeln und jeder Use-Case anders ist, sind auch hinsichtlich der Prüf- und Zertifizierungsarbeit zukünftig dynamische Verfahren gefragt. »Das bedeutet für uns ein völlig neues Mindset: Es gibt kein Siegel mehr für den Status quo, stattdessen werden die Prüfverfahren fließender.«

Menschen in den Mittelpunkt stellen

Darauf muss auch die Politik reagieren. Auf europäischer Ebene wird auf Grundlage des KI-Weißbuchs an der konkreten Ausgestaltung einer Regulierung gearbeitet, auf nationaler Ebene an der Fortsetzung der KI-Strategie der Bundesregierung. Der TÜV-Verband bringt sich hier mit dem neu gegründeten TÜV AI Lab aktiv in die Debatte um technische und regulatorische Anforderungen für KI ein. In dem von den TÜV-Unternehmen gemeinsam betriebenen Entwicklungslabor soll die Entwicklung von Standards für die Prüfung sicherheitskritischer KI-Anwendungen begleitet werden. »Das TÜV AI Lab wird einen wichtigen Beitrag dazu leisten, KI sicherer zu machen und ihren Nutzen in sicherheitskritischen Bereichen zu ermöglichen«, sagt Dr. Dirk Stenkamp. Hierzu zählen beispielsweise automatisierte Fahrzeuge, Assistenzsysteme in der Medizin oder mobile Roboter. Darüber hinaus sollen KI-Systeme bestimmte Anforderungen erfüllen, wenn elementare Grundrechte wie Privatsphäre oder Gleichbehandlung in Gefahr sind. »Mit der Entwicklung geeigneter Prüfverfahren begleiten wir die angestrebte Regulierung von KI und liefern praktische Anwendungsbeispiele«, so Dr. Stenkamp.

KI sei ein »Gamechanger« und bewege sich weit vor der Politik – deshalb sollte auch der Regulierungsrahmen »atmen« können, forderten die Fachleute im Verlauf der Berliner TÜV AI Conference im Oktober. Dr. Dirk Stenkamp warnte davor, die KI zu sehr vom Risiko aus zu bewerten. Durch intelligent ausgewählte Trainingsdaten könne latente Diskriminierung verbessern, etwa bei Kreditvergaben. Und auch Cyberangriffe ließen sich ohne die Unterstützung von künstlicher Intelligenz kaum mehr abwehren. »Die Regulierung sollte deshalb möglichst technologieoffen sein«, fordert Dr. Dirk Stenkamp. »KI sollte funktional sicher sein und die Bürgerrechte beachten. Wir sollten auch hier den Menschen in den Mittelpunkt stellen.«

 

Der TÜV-Verband bringt sich mit dem neugegründeten TÜV AI Lab aktiv in die Debatte um technische und regulatorische Anforderungen für KI ein und ist mit der Idee eines AI Testing Hub als zentrale nationale Anlaufstelle für künstliche Intelligenz Impulsgeber.