Trendy

Zákaz umělé inteligence v Evropě? V jakých situacích se s AI (ne)setkáte

Evropská unie chystá nový zákon, který stanoví pravidla pro využití umělé inteligence v souvislosti s lidskými právy. Jednou z důležitých oblastí je například využití detektorů lží na hranicích.

V roce 2019 začali strážci na hranicích Řecka, Maďarska a Lotyšska testovat detektor lži poháněný umělou inteligencí. Systém nazvaný iBorderCtrl analyzoval pohyby obličeje a snažil se rozpoznat známky toho, že osoba pohraničníkovi lže. Vývoj této technologie byl podpořen téměř 5 miliony eur z prostředků Evropské unie a britská univerzita Manchester Metropolitan University výzkumu věnovala téměř 20 let.

Testování v praxi však vyvolalo vlnu kontroverzních reakcí. Polygrafy a další technologie vytvořené za účelem odhalování lží na základě fyzických atributů byly psychology všeobecně prohlášeny za nespolehlivé. Brzy byly hlášeny chyby i z technologie iBorderCtrl. Zprávy v médiích naznačovaly, že její algoritmus pro předpovídání lží nefunguje, a dokonce i na webových stránkách projektu nakonec bylo uvedeno, že při použití této technologie „může dojít k ohrožení základních lidských práv“.

Na základě těchto událostí v červnu 2022 zanikla společnost Silent Talker, která byla odnoží manchesterské univerzity a zasadila se o vytvoření základu pro technologii iBorderCtrl. Tím však příběh nekončí. Právníci, aktivisté a zákonodárci intenzivně usilují o přijetí zákona Evropské unie o regulaci umělé inteligence, který by zakázal systémy, jež se údajně podílí na odhalování podvodů v oblasti migrace. Jako odstrašující případ je uváděna technologie iBorderCtrl. K této kauze se však bývala společnost Silent Talker odmítá vyjádřit.

Zákaz detektorů lži s umělou inteligencí na hranicích je však jen jedním z tisíců pozměňovacích návrhů k zákonu o umělé inteligenci, které úředníci zemí EU a poslanci Evropského parlamentu zvažují. Hlavním cílem legislativy je chránit základní práva občanů EU, jako je právo na život bez diskriminace nebo právo požádat o azyl. Některé případy použití AI jsou označovány za „vysoce rizikové“, některé za „nízkorizikové“ a jiné zcela zakazuje. Za změnu zákona o AI lobbují především skupiny na ochranu lidských práv a odborové svazy, ale také společnosti jako Google a Microsoft, které chtějí, aby zákon o umělé inteligenci rozlišoval mezi AI vytvářenou pro účely všeobecného použití a AI nasazovanou pro specifické účely.

V květnu vyzvaly skupiny na obhajobu práv, včetně Evropských digitálních práv a Platformy pro mezinárodní spolupráci v oblasti nelegálních migrantů, aby zákon zakázal používání takových AI technologií, které na hranicích měří například pohyb očí, tón hlasu nebo výraz obličeje. Nezisková organizace Statewatch, která se zabývá občanskými svobodami, zveřejnila analýzu, v níž upozornila, že zákon o umělé inteligenci ve své současné podobě povoluje používání systémů jako iBorderCtrl, a podporuje tak stávající evropský „veřejně financovaný ekosystém umělé inteligence používané na hranicích“. Za posledních 20 let podle analýzy zhruba polovina z 341 milionů eur na financování využívání AI na hranicích připadla soukromým společnostem.

Podle Petry Molnarové, zástupkyně ředitele neziskové organizace Refugee Law Lab, vytváří používání detektorů lži s umělou inteligencí na hranicích fakticky novou imigrační politiku vzhledem k tomu, že technologie automaticky označuje každou osobu za podezřelou. „Musíte prokázat, že jste uprchlík, a pokud se neprokáže opak, předpokládá se, že lžete,“ uvedla Molnarová. „Tato logika je základem všeho. Je základem detektorů lži s umělou inteligencí, ale i tvrdšího dohledu a nátlaku na hranicích.“

Molnarová, imigrační právnička, říká, že důvod, proč se lidé vyhýbají očnímu kontaktu s pohraničníky nebo migračními úředníky, je často nevinný. Může se jednat o kulturní zvyky, náboženství nebo trauma. Někdy je však toto chování chybně označeno za signál, že člověk lže nebo něco skrývá. Podle Molnarové je nepochopitelné, proč lidé očekávají, že stroj bude schopen mezikulturní komunikace s lidmi vystavenými traumatu, když sami takové komunikace nejsou schopni.

V prvním návrhu zákona o umělé inteligenci zveřejněném v dubnu 2021 byly mezi zakázanými technologiemi uvedeny sociální kreditní systémy, ale i technologie na rozpoznávání obličeje umístěné na veřejných místech. Rozpoznávání emocí a detektory lži s umělou inteligencí pro účely hraniční ochrany nebo vymáhání práv byly označeny za vysoce riziková, což znamená , že v případě jejich nasazení by bylo nutné je uvést do veřejného registru. Podle Molnarové takový postup není dostatečný a je třeba, aby tyto technologie byly zcela zakázány.

Dragoș Tudorache, rumunský předseda skupiny Renew Europe, který má na starosti pozměňovací proces zákona, uvedl, že zákonodárci v červnu podali pozměňovací návrhy a očekává se, že do konce roku 2022 se o nich bude hlasovat. Zpravodajové parlamentu v dubnu doporučili přidat na seznam zakázaných technologií prediktivní policejní metody s tím, že „porušují presumpci neviny i lidskou důstojnost“, ale přidání hraničních detektorů lži s umělou inteligencí nebylo navrženo. Zpravodajové také doporučili zařadit na seznam vysoce rizikových systémů ty, které třídí pacienty ve zdravotnictví a rozhodují o zdravotním nebo životním pojištění.

Zdroj: wired.comeuroparl.europa.eu