Umsetzung des AI Acts entscheidet über Europas Chancen bei KI
Berlin, Februar 2024 - Der Digitalverband Bitkom fordert anlässlich der erfolgten Abstimmung über den AI Act im Ausschuss der ständigen Vertreter der EU-Mitgliedsstaaten eine rechtssichere und innovationsfreundliche Umsetzung. Der AI Act überträgt einige zentrale Fragen in die Verantwortung der Mitgliedstaaten. "In seiner gegenwärtigen Form wird der AI Act kaum für mehr Rechtssicherheit bei Entwicklung und Einsatz von KI sorgen. Dafür kommt es maßgeblich auf eine praktikable Auslegung und Anwendung der Vorgaben in den EU-Mitgliedsländern an", sagt Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung.
"Die Bundesregierung ist aufgefordert, bei der Umsetzung die Chancen Künstlicher Intelligenz für Wirtschaft, Gesellschaft und Verwaltung in den Mittelpunkt zu stellen. Die Fehler der DS-GVO dürfen wir nicht wiederholen." Nur so könne das selbstgesteckte Ziel der EU erreicht werden, eine weltweite Führungsrolle bei vertrauenswürdiger KI einzunehmen.
"Der AI Act stellt in unterschiedlichen Bereichen Anforderungen an Unternehmen, die sich mit bereits bestehenden Vorgaben wie etwa in der Medizinprodukt- oder der Maschinenrichtlinie doppeln oder sogar im Widerspruch stehen. Wenn wir wollen, dass Unternehmen in Europa und Deutschland weiterhin KI entwickeln und nutzen, müssen wir bei der Umsetzung des AI Act auf unnötige bürokratische Hürden und eine Konsistenz mit der existierenden Gesetzgebung achten", so Dehmel.
"Mit dem AI Act und seiner Umsetzung entscheidet sich, ob europäische Unternehmen und Startups die Chance haben, mit den globalen Innovationstreibern der KI Schritt zu halten oder sich sogar an die Spitze dieser Epoche prägenden Technologie zu setzen."
Bitkom unterstützt seit Beginn der Verhandlungen im April 2021 das grundsätzliche Ziel des AI Acts, das Vertrauen in KI zu stärken und damit die KI-Nutzung voranzubringen. Dazu gehört zum einen die ursprüngliche Grundkonzeption des risikobasierten Ansatzes mit einem engen und klar definierten Hochrisikobereich. Zum anderen hat die Digitalwirtschaft auch die Orientierung am Erfolgsmodell des sogenannten "New Legislative Frameworks" unterstützt, bei dem der Gesetzgeber Schutzziele definiert und die Wirtschaft diese über Standards konkret umsetzt.
Der vorliegende Kompromiss zum AI Act löst beide Aufgaben allerdings nur unzureichend. So wurde mit starren und weitreichenden Anforderungen an die sogenannte "General Purpose AI Models" ohne Not vom risikobasierten Ansatz abgewichen. Außerdem wurden die Vorteile der Flexibilität einer verpflichtenden regulierten Selbstregulierung nicht ausreichend genutzt und damit zugleich die Anschlussfähigkeit an internationale Selbstregulierungsansätze wie den G7 AI Code of Conduct verpasst.
Ausdrücklich warnt Bitkom vor unterschiedlichen Auslegungen des AI Acts innerhalb der EU. Insbesondere Startups und kleine und mittlere Unternehmen würde dies vor kaum lösbare Probleme stellen, wenn sie ihre Angebote an 27 unterschiedlichen KI-Regularien ausrichten müssten. "Der AI Act darf keine KI-Bremse werden. Keinesfalls darf Deutschland die Möglichkeiten für Markteingriffe bis an die Grenzen des Zulässigen ausreizen, wie wir dies bei der DS-GVO erleben mussten. Damit würden Unternehmen in ein regulatorisches Korsett gezwungen, das Innovationen im Keim erstickt", sagt Dehmel.
Die von der Bundesregierung bislang vorgesehenen Maßnahmen zur Unterstützung von Startups und KMUs seien angesichts des zu erwartenden hohen Aufwands, um etwa die Anforderungen für Hochrisiko-KI-Systeme zu erfüllen, müssten deutlich ausgebaut werden.
2024 neigt sich dem Ende zu und damit starten die Vorbereitungen für das nächste Jahr. Welche Trends werden in 2025 die L&D Branche prägen? Was sind die größten Herausforderungen für Personalentwickler:innen und wie können sie ihnen begegnen? Nehmen Sie sich fünf Minuten Zeit!