EU einigt sich auf Regeln zur Regulierung künstlicher Intelligenz

0 34

Der EU-Rat gab bekannt, dass eine Einigung über das „Gesetz über künstliche Intelligenz“ erzielt wurde, das zwischen den Mitgliedstaaten und dem Europäischen Parlament (EP) ausgehandelt wurde und weltweit die ersten umfassenden Regeln für künstliche Intelligenz bringen wird.

Dementsprechend müssen Systeme der künstlichen Intelligenz, die in europäischen Ländern eingesetzt werden sollen, sicher sein und die Grundrechte und Werte der Union respektieren.

Künstliche Intelligenzsysteme werden mit einem „risikobasierten“ Ansatz entsprechend der Möglichkeit einer Schädigung der Gesellschaft reguliert.

Für Hochrisikosysteme der künstlichen Intelligenz werden strengere Regeln gelten. Es werden klare Kriterien festgelegt, um künstliche Intelligenz von einfachen Softwaresystemen zu unterscheiden.

Es wird sichergestellt, dass künstliche Intelligenz in keinem Fall die Kompetenz der Mitgliedstaaten im Bereich der nationalen Sicherheit oder einer diesem Bereich zugeordneten Organisation beeinträchtigt.

Das Gesetz zur künstlichen Intelligenz wird nicht nur für Systeme gelten, die für militärische oder verteidigungstechnische Zwecke eingesetzt werden.

KI-Systeme, die ein begrenztes Risiko bieten, kommunizieren deutlich, dass der Inhalt von KI erstellt wurde, sodass Benutzer fundierte Entscheidungen treffen können. Für diese Systeme gelten leichte Transparenzpflichten.

Verschiedene KI-Systeme mit hohem Risiko werden zugelassen. Der Zugang hochriskanter künstlicher Intelligenzsysteme zum EU-Markt wird jedoch einer Reihe von Regeln und Verpflichtungen unterliegen.

Das Risiko einiger Anwendungen künstlicher Intelligenz wird als inakzeptabel eingestuft und diese Systeme werden in der EU verboten.

Kognitive Verhaltensmanipulation, ungezielter Abruf von Gesichtsbildern aus dem Internet oder Bildern geschlossener Kamerasysteme, Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen, soziale Bewertung, biometrische Klassifizierung zur Extraktion sensibler Daten wie sexuelle Orientierung oder religiöse Überzeugungen werden verboten.

Strafverfolgungsbehörden können bei ihren Aktivitäten künstliche Intelligenz nutzen. Mit dem Notfallverfahren können die Strafverfolgungsbehörden ein hochriskantes Instrument der künstlichen Intelligenz einsetzen, das normalerweise das Konformitätsbewertungsverfahren nicht bestehen kann.

In außergewöhnlichen und notwendigen Fällen können Polizeieinheiten mit Genehmigung biometrische Echtzeit-Fernidentifizierungssysteme in öffentlichen Bereichen einsetzen.

Der Einsatz solcher Systeme der künstlichen Intelligenz wird auf Situationen wie Terroranschläge, die Abwehr aktueller oder vorhersehbarer Bedrohungen und die Suche nach Personen, die der schwersten Straftaten verdächtigt werden, beschränkt sein.

Es wird jedoch ein besonderer Mechanismus eingerichtet, um sicherzustellen, dass die Grundrechte angemessen vor einem möglichen Missbrauch von Systemen der künstlichen Intelligenz geschützt werden.

Für große Systeme, die eine Vielzahl unterschiedlicher Aufgaben ausführen können, wie z. B. das Erstellen von Videos, Texten, Bildern, das Sprechen einer anderen Sprache, das Berechnen oder Schreiben von Computercode, werden besondere Regeln gelten. Es wird sichergestellt, dass diese universellen Systeme der künstlichen Intelligenz verschiedene Transparenzpflichten erfüllen, bevor sie auf den Markt gebracht werden.

BÜRO FÜR KÜNSTLICHE INTELLIGENZ WIRD GEGRÜNDET

Innerhalb der EU-Kommission wird ein „Büro für künstliche Intelligenz“ eingerichtet, das die Aufgabe hat, fortschrittliche Modelle der künstlichen Intelligenz zu prüfen, zur Entwicklung von Standards und Testpraktiken beizutragen und gemeinsame Regeln in allen Mitgliedsländern umzusetzen.

Ein wissenschaftliches Gremium aus unabhängigen Experten wird Empfehlungen an das Artificial Intelligence Office richten. Das Artificial Intelligence Board, das aus Vertretern der Mitgliedsländer bestehen wird, wird als Koordinierungsplattform und Beratungsgremium für die Kommission fungieren.

Bußgelder für Verstöße gegen das KI-Gesetz werden auf der Grundlage des Prozentsatzes des weltweiten Jahresumsatzes des betreffenden Unternehmens im vorangegangenen Geschäftsjahr oder auf der Grundlage vorher festgelegter Beträge berechnet, je nachdem, welcher Betrag höher ist.

Bei Verstößen gegen verbotene Anwendungen künstlicher Intelligenz drohen Bußgelder in Höhe von 7 Prozent des Umsatzes des Unternehmens oder 35 Millionen Euro, bei Nichteinhaltung von Pflichten drohen 3 Prozent des Umsatzes oder 15 Millionen Euro und im Falle von Bei der Weitergabe falscher Daten wird ein Bußgeld in Höhe von 1,5 Prozent des Umsatzes bzw. 7,5 Millionen Euro gekürzt. Bei der Verhängung von Bußgeldern wird der für das Unternehmen kostenintensivere Wert herangezogen.

Die Umsetzung des Gesetzes, das nach seiner offiziellen Genehmigung durch die EU-Länder und das Europäische Parlament in Kraft tritt, beginnt zwei Jahre nach der offiziellen Genehmigung.

Vor zwei Jahren hat die EU-Kommission den ersten Gesetzesvorschlag mit dem neuen Regelwerk zur Künstlichen Intelligenz ausgearbeitet und den Mitgliedsstaaten und dem EP vorgelegt.

Mit diesem Vorschlag wurden einige Einschränkungen und Transparenzregeln für den Einsatz künstlicher Intelligenzsysteme eingeführt. Im Gesetzentwurf der Kommission wurden künstliche Intelligenzsysteme in vier Hauptgruppen eingeteilt: inakzeptables Risiko, hohes Risiko, begrenztes Risiko und minimales Risiko.

Mit dem neuen Gesetz müssen verschiedene Technologien der künstlichen Intelligenz wie Googles künstliches Intelligenzmodell Gemini und ChatGPT die neuen Regeln einhalten.

NTV

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.