České předsednictví stanovilo užší klasifikaci pro vysoce rizikové systémy – EURACTIV.com

České předsednictví stanovilo užší klasifikaci pro vysoce rizikové systémy – EURACTIV.com

Nový dílčí kompromis zákona o AI, který EURACTIV viděl v pátek (16. září), vysvětluje koncept „další vrstvy“, která by kvalifikovala AI jako vysoce rizikovou pouze v případě, že by měla významný dopad na rozhodování.

Zákon o umělé inteligenci je přelomovým návrhem na regulaci umělé inteligence v Evropské unii s přístupem založeným na riziku. Proto je vysoce riziková kategorie nezbytnou součástí regulace, neboť se jedná o kategorie s nejsilnějším dopadem na lidskou bezpečnost a základní práva.

České předsednictví v Radě Evropské unie v pátek rozeslalo Nový kompromis, který se snaží řešit přetrvávající obavy ohledně klasifikace vysoce rizikových systémů a souvisejících povinností poskytovatelů AI.

Text se zaměřuje na prvních 30 článků návrhu a zahrnuje také definici umělé inteligence, rozsah regulace a zakázané aplikace umělé inteligence. Dokument bude základem pro technickou diskusi na zasedání pracovní skupiny pro komunikaci dne 29. září.

Klasifikace vysoce rizikových systémů

V červenci české předsednictví navrhlo přidat další vrstvu, která má určit, zda systém AI představuje vysoké riziko, tedy požadavek, aby vysoce rizikový systém hrál hlavní roli při formování konečného rozhodnutí.

Ústřední myšlenkou je vytvořit větší právní jistotu a zabránit tomu, aby aplikace umělé inteligence, které jsou „čistým rozšířením“ rozhodovacího procesu, spadaly do oblasti působnosti. Předsednictví chce, aby Evropská komise definovala pojem čistě závislosti provedením zákona do jednoho roku od vstupu nařízení v platnost.

Zásada, že systém, který rozhoduje bez kontroly člověkem, je považována za vysoce riziková, byla odstraněna, protože „ne všechny automatizované systémy umělé inteligence jsou nutně vysoce rizikové a protože takový úsudek může být předmětem obcházení tím, že se doprostřed staví člověk“.

V textu se navíc uvádí, že až výkonný orgán EU aktualizuje seznam vysoce rizikových aplikací, bude muset zvážit potenciální výhody, které může umělá inteligence přinést jednotlivcům nebo společnosti jako celku, spíše než jen potenciální poškození.

READ  bne IntelliNews - Vyzývá šéfa české rozvědky a ministra vnitra k rezignaci, protože korupční skandál STAN se rozšiřuje

Předsednictví nezměnilo vysoce rizikové kategorie uvedené v příloze III, zavedlo však důležité výrazy. Text nyní navíc výslovně uvádí, že podmínky komise pro stažení žádostí ze seznamu vysoce rizikových jsou kumulativní.

Požadavky na vysoce rizikové systémy

V odboru řízení rizik předsednictví upravilo znění tak, aby vyloučilo možnost identifikace rizik souvisejících s vysoce rizikovými systémy prostřednictvím testování, protože tato praxe by měla být používána pouze k ověřování nebo validaci zmírňujících opatření.

Změny rovněž poskytují příslušnému vnitrostátnímu orgánu větší volnost při hodnocení technické dokumentace potřebné pro malé a střední podniky, které poskytují vysoce rizikové systémy.

Pokud jde o kontrolu člověkem, návrh nařízení vyžaduje, aby na vysoce rizikové systémy dohlíželi alespoň dva lidé. Češi ale navrhují výjimku z takzvaných „principů čtyř očí“, tedy pro aplikace umělé inteligence v oblasti hraniční kontroly tam, kde to umožňuje Evropská unie nebo národní právo.

Pro finanční instituce kompromis uvádí, že systém řízení kvality, který musí zavést pro případy vysoce rizikového použití, lze zkombinovat s již zavedeným systémem, aby byl v souladu se stávající odvětvovou legislativou, aby se předešlo duplicitě.

Podobně budou mít finanční úřady pravomoci v oblasti monitorování trhu podle nařízení o umělé inteligenci, včetně provádění činností následného monitorování, které lze začlenit do stávajícího mechanismu dohledu v oblasti právních předpisů EU o finančních službách.

identifikace

České předsednictví zachovalo většinu předchozích změn v definici AI, ale vynechalo odkaz na skutečnost, že AI musí sledovat „lidsky definované“ cíle, protože to bylo považováno za „nepodstatné“.

Text nyní upřesňuje, že životní cyklus systému umělé inteligence skončí, pokud jej stáhne dozorčí orgán trhu nebo pokud projde zásadní úpravou, v takovém případě by měl být považován za nový systém.

Kompromis také zavedl rozdíl mezi uživatelem a uživatelem ovládajícím systém, což nemusí být nutně stejná osoba ovlivněná AI.

READ  Lee Carsley říká, že anglický tým U-21 je připraven na základní test proti České republice U-21

Co se týče definování strojového učení, Češi dodali, že jde o systém schopný se učit, ale i odvozovat data.

Kromě toho byl dříve přidaný koncept autonomie pro systém AI popsán jako „míra, do jaké takový systém funguje bez vnějšího vlivu“.

Doména

Praha zajistila přímější vyloučení výzkumných a vývojových aktivit souvisejících s umělou inteligencí, „také s výjimkou národních bezpečnostních, obranných a vojenských účelů,“ uvádí důvodová část.

Rozhodující část textu o univerzální umělé inteligenci je ponechána pro následující kompromis.

Zakázané praktiky

Část o zakázaných praktikách, která je pro Evropský parlament citlivým tématem, se mezi členskými státy, které nepožádaly o významné změny, neprojevuje kontroverzně.

Preambule textu zároveň dále definuje koncept manipulačních technik, které podporují AI jako podněty „obcházející lidské vnímání nebo jiné nevědomé techniky, které podkopávají nebo narušují autonomii člověka“. […] Například v případech rozhraní mozek-stroj nebo virtuální reality.“

Starší europoslanci zvedají oponu návrhu pravidel pro umělou inteligenci

Dva spoluzpravodajové Evropského parlamentu dokončili v pondělí (11. dubna) dokončování návrhu zprávy o umělé inteligenci, která se zabývá tím, kde našli společnou řeč. Nejkontroverznější problémy byly odsunuty.

[Edited by Zoran Radosavljevic]

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *