Safety und Künstliche Intelligenz

KI-Integration in sicherheitsgerichtete Systeme (SIL, ASIL, PL)


Die Integration von KI-Technologien in Steuersysteme verspricht neue Möglichkeiten, um die Verfügbarkeit und Performance von Geräten zu erhöhen und ihre Sicherheit zu verbessern. Allerdings gelten in Hinblick auf Funktionale Sicherheit (FUSI) besondere Voraussetzungen für die Entwicklung und die Integration von KI. Denn während es für klassische Systeme klar möglich ist zu sagen, ob sie ihren Anforderungen entsprechen, kann die Leistung von KI-Technologien oftmals nur über Statistiken geprüft werden - mit einer entsprechenden Varianz.

KI-Integration ins sicherheitsgerichtete Systeme: Was bedeutet das für die Entwicklung?

Diese Varianz gilt es, bei der Entwicklung von KI-Technologie zu berücksichtigen und mit dem Risiko einer Gefährdung durch funktionale Unzulänglichkeit in Einklang zu bringen.

NewTec ist Ihr Partner, wenn es um eine kompetente Betrachtung der Sicherheitsaspekte bei der KI-Integration und die Einhaltung regulatorischer Anforderungen geht (Stichwort EU AI Act). Wir unterstützen Sie bei der System-, Fehler- und isikoanalyse – mit der Identifi kation möglicher kritischer KI-Ausfälle, der Ermittlung der nötigen Genauigkeit und Performance zur Verhinderung von Ausfällen sowie der Analyse der Risiken, die mit einem möglichen Ausfall einhergehen. Mittels Prozessanalyse klären wir, ob Ihre Entwicklungsprozesse bereits für KI-Technologie geeignet sind und wo ggf. Handlungsbedarf besteht, um systematische Fehler zu vermeiden. Wir ermitteln für Sie, ob eine geplante Hardware zuverlässig genug für einen Betrieb von KI-Technologie ist. Und unsere Experten beraten und begleiten Sie in Hinblick auf eine Zulassung – u. a. durch Identifi kation der relevanten normativen und regulatorischen Anforderungen.
 

KI-Services von NewTec:

  • Identifikation spezifischer Fehlermodi der verwendeten KI-Technologie
  • Analyse der möglichen Fehlerfortpflanzung der KI-Technologie entlang des Informationsflusses im Systemkontext
  • Analyse der möglichen Risiken durch Ausfälle, die durch die KI-Technologie verursacht werden können
  • Ableitung von Zielwerten für die funktionale Eignung der KI-Technologie (z.B. notwendige Genauigkeit)
  • Validierung der Zielwerte in Hinblick auf Erreichbarkeit im Systemkontext mit der notwendigen Konfidenz
  • Hardwareanalyse zur Ermittlung der Wahrscheinlichkeit zufälliger Fehler auf komplexer HW zur Ausführung von KI-Technologien
  • Analyse der spezifischen Entwicklungsprozesse der verwendeten KI-Technologie in Hinblick auf die Sicherstellung der systematischen Eignung
  • Aufbereitung der erarbeiteten Inhalte und Vorbereitung einer Vorstellung vor Prüfstellen

Die EU-Verordnung über künstliche Intelligenz (EU AI Act)

Die Verordnung (EU) 2024/1689 über künstliche Intelligenz (AI Act) ist der Versuch, Entwicklung, Inverkehrbringen und Betrieb von KI-Systemen umfassend zu regulieren. Für KI-Entwickler und -Betreiber stellt das im August 2024 in Kraft getretene Gesetz einen regulatorischen Rahmen mit umfangreichen Verpflichtungen in Bezug auf die Integration und Anwendung von KI-Technologie dar. Grundsätzlich verfolgt der AI Act einen risikobasierten Ansatz, wobei er KI-Produkte in vier Risikoklassen einteilt: „minimales“, „begrenztes“, „hohes“ und „unannehmbares“ Risiko. Mit steigender Risikoklasse steigen auch die gesetzlichen Pflichten.

 

Bedeutung für die Entwicklung von Maschinen und Geräten

Bei der Entwicklung von Maschinen und Geräten gilt es, besonders die Klasse der Hochrisiko-Systeme zu beachten. Hierzu zählen insbesondere KI-Produkte oder Produkte mit sicherheitsrelevanten KI-Komponenten aus den Bereichen Medizintechnologie, Maschinenbau, Aufzüge, Fahrzeuge, Flugzeuge oder kritische Infrastrukturen.

Für diese Hochrisikosysteme fordert der AI Act u. a. die Einrichtung und Umsetzung eines Risikomanagementsystems und eines Qualitätsmanagementsystems, ein Management der Daten für Training, Validierung und Tests sowie die Gewährleistung von Genauigkeit, Robustheit und Cybersicherheit. Die Anforderungen an Hochrisiko-KI-Systeme müssen ab dem 2. August 2027 verbindlich umgesetzt werden.

 

Ihr Nutzen

Gewissheit zur Machbarkeit der sicheren Integration von KI-Technologien durch Safety- und KI- Expertise von NewTec

Minimierte Risiken durch EU-AI-Act-konforme Entwicklung

Minimierte Risiken durch TÜV-Approval

Stärkung Ihrer Marktposition durch Innovations- und Technologieimpulse von NewTec

Infomaterial
Ihr Ansprechpartner
Kontakt - Stephan Strohmeier
Stephan Strohmeier
Head of Safety & Security Solutions

NewTec GmbH
Buchenweg 3
89284 Pfaffenhofen a. d. Roth
Telefon +49 7302 9611-0
Kontakt


DEUTSCHENGLISH中国