Künstliche Intelligenz und regulatorische Entwicklungen in der EU
Künstliche Intelligenz (KI) hat das Potenzial, zahlreiche Bereiche wie Industrie, Landwirtschaft, Gesundheit und Bildung zu revolutionieren. Die EU konzentriert sich bei ihrer Herangehensweise an KI auf Exzellenz und Vertrauen, um Forschung und industrielle Kapazität zu fördern und gleichzeitig Sicherheit und Grundrechte zu gewährleisten. Der AI Act, der 2021 von der Europäischen Kommission vorgeschlagen wurde, ist ein Schritt zur Regulierung von KI, wird aber immer noch debattiert.
Der AI Act und seine Änderungen
Der AI Act soll das Vertrauen in KI-Systeme stärken, indem harmonisierte Regeln für die Entwicklung, Markteinführung und Nutzung von KI-Systemen in der EU festgelegt werden. Die KI-Systeme werden in vier Risikokategorien eingeteilt: inakzeptabel, hoch, niedrig und minimal. Hochriskante KI-Systeme unterliegen umfangreichen Regulierungen, während Systeme mit niedrigem und minimalem Risiko weitgehend unreguliert bleiben. Seit dem ersten Entwurf wurden einige Änderungen vorgenommen, beispielsweise eine Klarstellung der Definition von KI-Systemen und eine Erweiterung des Anwendungsbereichs verbotener KI-Praktiken.
Auch interessant? Künstliche Intelligenz ohne Vorurteile: 6 Richtlinien und Best Practices zur Bekämpfung von Verzerrungen in KI-Algorithmen
Weitere Gesetzgebungsinitiativen: Data Act und AI Liability Directive
Neben dem AI Act ist der geplante EU Data Act für die Nutzung von KI-Systemen von großer Bedeutung, da er den Datenaustausch zwischen Parteien, die Bereitstellung von Daten und Regelungen zu unlauteren Vertragsbedingungen, Interoperabilität und Wechsel von Datenverarbeitungsdiensten vorsieht. Der kürzlich vorgeschlagene AI Liability Directive zielt darauf ab, die Hersteller von digitalen Systemen stärker zur Verantwortung zu ziehen. Abstimmungen darüber haben sowohl im EU-Rat als auch im EU-Parlament begonnen. 2023 werden wichtige Entscheidungen über die rechtlichen Grundlagen der digitalen Zukunft getroffen.