Az Európai Parlament júniusban úgy döntött, hogy elkötelezi magát a tömeges arcfelismerés betiltása mellett, ami személyazonosításra szolgál és egy adott képen szereplő egyedi arcvonásokat méri.
Az új európai mesterségesintelligencia-törvény, amelyet ebben a hónapban tárgyalnak meg, az Európai Bizottság 2021 áprilisi javaslatára épít, amely biztonsági és alapvető emberi jogi szabványokat állapít meg, és szigorú szabályokat vezet be a mesterséges beszédmodellek, például a ChatGPT használatára is. “A mesterséges intelligencia egy sor etikai, kontroll-, innovációs … és az ideális jogi keret megteremtésének szükségességéről szóló aggodalmat váltott ki,” mondta Roberta Metsola, az EP elnöke.
A képviselők szeretnék megkülönböztetni, mely rendszerek minősülnek “nagy kockázatúnak” és melyeket kell tiltanak. A személyes adatok védelme fontos szerepet játszik a javaslatban. Vétózni akarják a biometrikus azonosító rendszereket, legyen az valós időben vagy sem, közterületen, valamint az érzelemfelismerést.
Az Európai Néppárt, Manfred Weber vezetésével olyan módosítást nyújtott be – ami el lett utasítva a plenáris ülésen -, amely lehetővé tenné a bűnüldöző hatóságok számára, hogy biometrikus azonosító rendszereket, például arcfelismerést használjanak eltűnés vagy terrorcselekmény esetén “valós időben” a nyilvános helyeken. Az EKP azt állította, hogy ez a személyes szabadság veszélyeztetését jelenti és a polgárokat egy “rendőri disztópiába” sodorja.
NGO-k azt gyanítják, hogy Brüsszel az AI-t arcfelismeréshez használja
Holland és francia NGO-k felszólítottak a mesterséges intelligenciával támogatott arcfelismerés technológiájának EU-s alkalmazásának elutasítására. Ezek az NGO-k azt gyanítják, hogy a Brüsszeli rendőrség már hónapok óta használja a technológiát.
A technológia ellenzői azt állítják, hogy sérti a polgárok anonim közterületi tartózkodáshoz való jogát, gyülekezési és tüntetési jogát. Azt is állítják, hogy az ilyen személyes adatok gyűjtése megkönnyítheti az ilyen információk feltörését és hackerek általi kihasználását.