Die wichtigsten Themen dieses Blog-Artikels:
Was bedeutet die KI-Verordnung, der EU AI Act, für mein Unternehmen? Eine Antwort auf diese Frage zu finden und entsprechend zu handeln, ist in diesen Tagen essenziell. Da ab dem 2. Februar 2025 Verbote für inakzeptable Praktiken gelten, ist eine KI-Inventur dringend erforderlich. Zudem müssen alle Unternehmen, die KI-Systeme entwickeln oder anwenden, bis zu diesem Stichtag sicherstellen, dass die Mitarbeitenden im Umgang mit den KI-Systemen ausreichend ausgebildet sind.
Als einer der ersten Unterzeichner des KI-Pakts hat sich CGI verpflichtet, einige der wichtigsten Bestimmungen der KI-Verordnung frühzeitig umzusetzen. Unser Anspruch ist es, in unserem eigenen Unternehmen Best Practices zu etablieren und unser Wissen weiterzugeben. Im Wesentlichen sind es die folgenden fünf Schritte, die Unternehmen angehen müssen, um die KI-Verordnung umzusetzen:
- KI-Inventur der in der Organisation genutzten KI-Anwendungen zur Identifikation von High-Risk-Anwendungen und zum Abstellen von verbotenen Praktiken
- Aus- und Fortbildung zur Sicherstellung der in der Verordnung geforderten KI-Kompetenz der Mitarbeitenden
- Etablieren von Governance-Strukturen, Risiko- und Qualitätsmanagement sowie Meldewesen gegenüber den übergeordneten Behörden
- Einführung entsprechender operativer Guidelines, mit denen insbesondere Anbieter eine reibungslose projektbegleitende Compliance erzielen
- Einrichten eines Registratursystems für KI-Anwendungen und ihren vorgesehenen Verwendungszwecken, insbesondere im High-Risk-Bereich
Heute beleuchten wir die ersten beiden dieser Punkte, die besonders dringlich sind. In kurzer Zeit müssen Unternehmen verbotene Praktiken identifizieren und abstellen (Artikel 5 der KI-Verordnung) – andernfalls drohen empfindliche Strafen. Dazu ist eine KI-Inventur nötig, bei der es durchaus zu Überraschungen kommen kann, insbesondere im Zusammenhang mit Systemen in den Bereichen Arbeitsplatz und (Fort-)Bildung.
In Bezug auf die Aus- und Fortbildung drängt die Zeit ebenso. Alle Unternehmen müssen sicherstellen, dass die Mitarbeitenden im Umgang mit den verwendeten KI-Systemen ausreichend ausgebildet sind (Artikel 4 der KI-Verordnung). Hierzu zählt auch die Schulung gewisser Grundlagen für den generellen Einsatz allgemein verfügbarer KI-Systeme wie Chat-GPT, Microsoft Copilot, Gemini, NotebookLM oder Dall-E. Zwar ist ein Verstoß gegen diese Vorgabe derzeit nicht sanktionsbewehrt, allerdings kann sich das in der nationalen Gesetzgebung noch ändern.
KI-Inventur: Damit Sie wissen, was weg muss
Alle Organisationen sollten zügig erheben, welche KI-Systeme sie zu welchem Einsatzzweck verwenden und wie diese funktionieren. Künftig verboten sind zum Beispiel die Erstellung und Verwendung von Systemen zur Gesichtserkennung auf der Basis von ungerichtetem, breiten Scraping von Webinhalten. Hierbei wird Material, häufig aus Social Media, automatisiert zusammengetragen. Auf diese Weise gelang es etwa einem Journalisten, eine mutmaßliche Terroristin aufzuspüren – in nur einer halben Stunde1.
Zu den verbotenen Praktiken zählt ebenfalls die Auswertung von Emotionen im Zusammenhang mit Arbeit und (Fort-)Bildung, außer aus gesundheitlichen und Sicherheitsgründen. Dies betrifft Anwendungen wie Stresstests in Assessmentcentern oder die Erkennung von Frustration oder Langeweile in Bildungssoftware. Ohnehin ist bei allen Anwendungen, die im HR-Bereich eingesetzt werden, besondere Vorsicht geboten: Sie gelten als „High-Risk“, also hochriskant, und unterliegen strengen Vorschriften.
Für die KI-Inventur muss der Verwendungszweck jedes einzelnen Systems kurz umrissen werden. Auf dieser Basis gilt es zu prüfen, ob eine der Anwendungen in die Beschreibung eines der Absätze von Artikel 5 der KI-Verordnung fällt. Solche Systeme müssen bis spätestens zum 2. Februar 2025 außer Betrieb genommen werden.
Aus- und Fortbildung: Der Weg zur KI-Kompetenz
Am 2. Februar 2025 tritt auch Artikel 4 der KI-Verordnung in Kraft. Dieser schreibt vor, dass alle Nutzerinnen und Nutzer hinreichend für den Umgang mit KI-Systemen trainiert sein müssen – Ziel ist die so genannte AI Literacy.
Bei CGI folgen wir der Einschätzung der EU-Kommission, dass AI Literacy ein wesentlicher Faktor für die Transparenz von KI-Systemen und damit für das Vertrauen in den Einsatz dieser Systeme darstellt. Nach unserer Erfahrung hat sich sowohl innerhalb von CGI als auch bei unseren Kunden im öffentlichen Dienst wie in der Privatwirtschaft ein gutes Technikverständnis stets als differenzierender Faktor bei der schnellen und erfolgreichen Einführung neuer Technologie gezeigt. Der breite Einsatz von KI ist dabei keine Ausnahme.
Zunächst gilt es, ein grundsätzliches Verständnis von KI aufzubauen, auch jenseits der Large-Language-Modelle. Was sind die gängigen Funktionen und Anwendungsbereiche? Was ist das Besondere an generativer KI? Wo sind jeweils die Grenzen? Worauf muss ich achten, wenn ich diese Systeme einsetze? Und vor allem: Wie kann mir KI die Arbeit leichter machen? Schließlich entwickeln wir KI-Systeme nicht, um KI zu nutzen, sondern, um den Nutzen aus KI zu schöpfen – und zwar für den Menschen.
Selbstverständlich zählt zur Qualifizierung auch, ein Bewusstsein für die Regulatorik zu schaffen, die Datenschutzthematik zu erläutern, die Systematik der KI-Verordnung darzulegen und insbesondere die Auswirkungen des Artikels 25 zu erklären, auf den ich in meinem nächsten Blog-Artikel noch näher eingehe. Alle müssen verstehen: Wann immer sie ein Tool nutzen, müssen sie vorher prüfen, ob sie es für ihren Verwendungszweck einsetzen dürfen.
Sie möchten sich mit mir über die Umsetzung der KI-Verordnung austauschen? Sie haben Fragen zur KI-Inventur oder zur Entwicklung von KI-Schulungs- und Informationsangeboten? Dann freue ich mich über Ihre Nachricht.
---
1 Vgl. Golem.de: „RAF-Terroristin Klette gefasst”, https://www.golem.de/news/raf-terroristin-klette-gefasst-die-verbotenen-fruechte-der-polizei-2402-182732.html, aufgerufen am 11.12.2024