970×90
970×90

Evropa e bëri një hap të madh përpara për rregullimin e Inteligjencës Artificiale

Evropa e bëri një hap të madh përpara për rregullimin e Inteligjencës Artificiale

Si kriza klimatike, ashtu edhe inteligjenca artificiale është bërë globale. Kërcënimet që ajo paraqet, mund të zgjidhen vetëm nëse të gjithë punojnë së bashku.

Ligjet e reja të Bashkimit Evropian për Inteligjencën Artificiale, për të cilat liderët më në fund njoftuan se ranë dakord në mesnatën e së shtunës, janë drejt rrugës së duhur për të lënë nën hije deklaratën gjashtëjavore të Bletchley të Britaninë së Madhe mbi inteligjencën artificiale.

Teksti i marrëveshjes për inteligjencën artificiale, për një grup ligjesh gjithëpërfshirëse për ta rregulluar ende nuk është finalizuar dhe priten detaje, por përafrimi i saj sinjalizon një ndryshim në mënyrën se si demokracia mund ta drejtojë inteligjencën artificiale drejt interesit publik.

Deklarata e Bletchley ishte një arritje e madhe, veçanërisht për sjelljen e vendeve të tilla si Kina, Arabia Saudite dhe Emiratet e Bashkuara Arabe për të rënë dakord për një deklaratë zyrtare në lidhje me rregullimin e inteligjencës artificiale. Problemi është se ishte pikërisht kjo: një deklaratë, pa fuqi ligjore apo mekanizma zbatues. Tani BE-ja po ndërmerr veprime për të vendosur kërkesa të forta ligjore për zhvilluesit e inteligjencës artificiale, se u takon vendeve të tjera që të rritin dhe plotësojnë enigmën.

Pengesa e fundit që negociatorët zgjidhën në fundjavë ishte mbi çështjen se cilat përdorime të inteligjencës artificiale do të ndaloheshin plotësisht. Praktikat e ndaluara përfshijnë “manipulim kognitiv të sjelljes” – një term i gjerë për teknologjitë që interpretojnë sjelljet dhe preferencat me qëllimin për të ndikuar në vendimet tona. Ato përfshijnë gjithashtu “gërvishtjen e pa synuar të imazheve të fytyrës nga interneti ose pamjet CCTV”, një praktikë që është tashmë në përdorim nga disa kompani që shesin bazat e të dhënave të përdorura për mbikëqyrje; “Njohja e emocioneve në vendin e punës dhe institucionet arsimore”, e cila mund të përdoret nga kompanitë për të disiplinuar, renditur ose mikromenaxhuar punonjësit; “Social scoring”, një mjet mbikëqyrjeje distopike që përdoret në Kinë për të vlerësuar individët në aktivitetet e përditshme dhe për të ndarë (ose mbajtur) “kredi sociale” prej tyre; “Kategorizimi biometrik”, një praktikë ku karakteristika të tilla si toni i lëkurës ose struktura e fytyrës përdoren për të nxjerrë konkluzione rreth gjinisë, orientimit seksual, apo edhe gjasave për të kryer një krim; dhe “disa raste të policimit parashikues për individë”, që tashmë është treguar të ketë ndikime diskriminuese racore.

Por mos u lehtësoni me kaq. Në të njëjtën mënyrë që kriza klimatike është një problem global dhe mund të zgjidhet vetëm nëse të gjitha vendet reduktojnë emetimet, inteligjenca artificiale është një natyrë globale dhe mund të mbahet nën kontroll vetëm nga shumë kombe që punojnë së bashku. Sistemet e fuqishme të “Inteligjencës Artificiale për qëllime të përgjithshme” (GPAI), si ai që qëndron në themel të ChatGPT, mund të krijojnë fushata të personalizuara të dezinformimit dhe manipulimit, imazhe intime jo konsensuale (NCII, e njohur ndonjëherë si pornografi e rreme e thellë) dhe madje edhe dizajne për armë biologjike.

Nëse një pjesë e botës i rregullon këto, por më pas dikush lëshon versione të pasigurta, “me burim të hapur” të këtyre mjeteve që persona të këqij mund t’i përdorin sipas dëshirës, ​​e gjithë bota ende mund të vuajë pasojat. Këta persona të këqij mund të përfshijnë agjencinë e inteligjencës ushtarake të Rusisë, GRU, ose mercenarë digjitalë të cilët mund të mos kenë fondet ose teknologjinë për të bërë modelet e tyre të klasit botëror, por që mund të zotërojnë mjete të fuqishme të Inteligjencës Artificiale të ndërtuara pa këto masa mbrojtëse dhe t’i përdorin ato në përpjekje për të manipuluar zgjedhjet në mbarë botën.

Akti i planifikuar i Inteligjencës Artificiale i BE-së, për fat të keq, nuk është i përsosur. Ndërsa vendos rregulla të forta për GPAI, duke përfshirë sistemet me burim të hapur, ka ende boshllëqe. Nëse mjetet e Inteligjenca Artificiale si aplikacionet “zhveshje” përdoren për të krijuar NCII, duket se përgjegjësia mund të bjerë vetëm mbi përdoruesin individual që krijon këtë përmbajtje, jo zhvilluesi i sistemit të Inteligjencës Artificiale që e krijoi atë, sipas një zyrtari të Komisionit Evropian me të cilin fola. Do të preferoja që zhvilluesit të ndaloheshin të shpërndanin mjete që mund të shkaktojnë dëme të tilla potencialisht të pariparueshme, veçanërisht kur fëmijët mund të jenë edhe autorë edhe viktima.

Një shqetësim tjetër është se akti i Inteligjencës Artificiale i BE-së nuk do të hyjë plotësisht në fuqi të paktën deri në vitin 2026. Disa pjesë të tij do të hyjnë më shpejt dhe është projektuar për të qenë “provë e së ardhmes”, por teknologjia e inteligjencës Artificiale po përmirësohet aq shpejt sa ka një mundësi të madhe që teknologjia të tejkalojë legjislacionin. Ky është një rrezik edhe më i madh nëse BE-ja qëndron e vetme në legjislacionin për Inteligjencën Artificiale.

Deklarata e Bletchleyt, e cila doli nga samiti i parë i sigurisë së inteligjencës artificiale, ishte një pjesë e rëndësishme e një sërë përpjekjesh paralele që po zhvillohen brenda G7, G20, OKB-së dhe Organizatës për Bashkëpunim Ekonomik dhe Zhvillim. Takimet pasuese të sigurisë së inteligjencës Artificiale janë planifikuar për Korenë e Jugut dhe Francën në 2024.

Këtu janë rregulloret më të rëndësishme detyruese që këto samite dhe procese paralele të qeverisjes duhet të vendosin. 1) Pohoni ndalimin e përdorimeve të përshkruara më sipër. 2) Rregulloni në mënyrë të vendosur sistemet e Inteligjencës Artificiale me rrezik të lartë, duke përfshirë GPAI, duke kërkuar vlerësime të plota të rrezikut, testime dhe zbutje. 3) Kërkoni nga kompanitë që të sigurojnë sistemet e tyre GPAI me rrezik të lartë dhe të mos i lëshojnë ato nën licencat “me burim të hapur”, përveç nëse përcaktohen nga ekspertë të pavarur se janë të sigurt. 4) Vendosni qartë përgjegjësinë mbi zhvilluesit e sistemeve GPAI si dhe vendosësit e tyre për dëmet që ato shkaktojnë. 5) Kërkoni që përmbajtja e gjeneruar nga Inteligjenca Artificiale të jetë “ujëra” në një mënyrë që të mund të zbulohet lehtësisht nga konsumatorët laikë si dhe nga ekspertët. 6) Respektoni të drejtat e autorit të krijuesve si autorët dhe artistët kur trajnoni sistemet e inteligjencës Artificiale. Dhe së fundi, 7), Taksoni kompanitë e Inteligjencës Artificiale dhe përdorni të ardhurat për të mbrojtur shoqërinë nga çdo dëm i shkaktuar nga Inteligjenca Artificiale, nga keqinformimi deri te humbja e vendeve të punës.

Sigurimi që Inteligjenca Artificiale është zhvilluar në mënyra që i shërbejnë interesit publik është një detyrë gjigante që do të kërkojë pjesëmarrje nga qytetarët dhe qeveria në mbarë botën. Tani është koha që të gjithë, kudo, të edukohen për rreziqet dhe përfitimet e Inteligjencës Artificiale dhe të kërkojnë që përfaqësuesit tuaj të zgjedhur t’i marrin seriozisht kërcënimet e saj. BE-ja ka bërë një fillim të mbarë; tani pjesa tjetër e botës duhet të miratojë legjislacion detyrues për ta bërë Inteligjencës Artificlale t’ju shërbejë juve dhe komunitetit tuaj.

Related posts