Evropský parlament schválil pravidla pro regulaci umělé inteligence (AI)
Dne 14. března 2024 Evropský parlament přijal nová pravidla týkající se regulace umělé inteligence (AI). Tato legislativa má za cíl stanovit zásady pro využívání AI a minimalizovat rizika spojená s jejím použitím.
Zákon vyžaduje, aby základní modely, jako je ChatGPT, a obecné systémy AI (GPAI) splňovaly transparentní povinnosti předtím, než budou uvedeny na trh. To zahrnuje vypracování technické dokumentace, dodržování autorského práva EU a šíření podrobných souhrnů o obsahu použitém pro výcvik. Modely s vysokým dopadem a systémovým rizikem budou muset provádět hodnocení modelu, posuzovat a minimalizovat systémová rizika, provádět adversní testování, hlásit Evropské komisi vážné incidenty, zajistit kybernetickou bezpečnost a informovat o své energetické účinnosti.
GPAI se systémovým rizikem mohou spoléhat na etické kodexy, aby novou regulaci splnily. Vlády mohou využívat biometrického dohledu v reálném čase na veřejných prostranstvích pouze v případech obětí určitých trestných činů, prevence skutečných, přítomných nebo předvídatelných hrozeb jako jsou teroristické útoky a při hledání osob podezřelých z nejzávažnějších trestných činů. Dohoda zakazuje kognitivní manipulaci chování, nezaměřené sbírání obličejových obrazů z internetu nebo záznamů z kamerového systému, sociální skórování a biometrické kategorizační systémy, které by mohly odvodit politické, náboženské, filozofické názory, sexuální orientaci a rasu.
Legislativa pokrývá oblasti transparentnosti, použití AI ve veřejných prostorech a systémy s vysokým rizikem. Následující body podrobněji popisují klíčové aspekty této regulace:
1. Kategorie umělé inteligence
-
Vysoké riziko: Pravidla rozdělují AI do čtyř kategorií na základě rizika. AI s vysokým rizikem zahrnuje systémy, které mohou ohrozit lidské životy, zdraví nebo základní práva. Sem patří například autonomní zbraně.
-
Střední riziko: Tato kategorie zahrnuje AI, která má potenciál ovlivnit lidská práva, ale není tak nebezpečná jako ta s vysokým rizikem.
-
Nízké riziko: AI s nízkým rizikem má minimální dopad na lidskou společnost.
-
Minimální riziko: Sem spadají jednoduché a bezpečné AI aplikace, jako jsou chatboty nebo prediktivní systémy.
2. Zákaz nebezpečných AI
Pravidla striktně zakazují AI, která by mohla ohrozit lidské životy, zdraví nebo základní práva. Patří sem například AI používaná v autonomních zbraních.
3. Transparentnost a odpovědnost
Vývojáři a provozovatelé AI musí zajistit transparentnost a odpovědnost. Uživatelé musí být informováni, že komunikují s AI a mají právo na vysvětlení rozhodnutí AI.
4. Testování a certifikace
AI systémy s vysokým rizikem musí projít testováním a certifikací. Certifikát potvrzuje jejich shodu s pravidly.
5. Dozor a sankce
Členské státy budou zodpovědné za dohled nad AI. Porušení pravidel může vést k vysokým pokutám.
Tímto historickým krokem se Evropa stává průkopníkem a stanovuje globální standardy pro regulaci umělé inteligence. Tato pravidla mají ambiciózní cíle, ale také vyvolávají otázky ohledně jejich praktického provedení. Je důležité, aby byla regulace AI flexibilní a schopná reagovat na rychlý vývoj technologií. Očekává se, že nová pravidla budou sloužit jako vzor pro další vlády, které se snaží regulovat tuto rychle se rozvíjející technologii.
Zdroje:
https://www.laprensalatina.com/eu-parliament-approves-worlds-first-artificial-intelligence-law/ https://www.weforum.org/agenda/2023/12/europe-landmark-ai-regulation-deal/ https://www.biztechafrica.com/article/eu-parliament-passes-ai-act/63428/ https://www.dw.com/en/european-parliament-gives-final-approval-to-landmark-ai-law/a-68511639
Sdílej v médiích