Anët e errëta të Inteligjencës Artificiale (AI)
Sa e dobishme është inteligjenca artificiale, kur ka edhe anën e saj të errët. Kjo anë e errët është fokusi i një raporti prej 100 faqe, prej një grupi organizatash të teknologjisë, akademisë dhe të interesit publik të lëshuar së bashku të martën.
AI do të përdoret nga aktorët kërcënues, për të zgjeruar shkallën dhe efikasitetin e sulmeve të tyre, parashikon raporti. Ata do të përdorin AI, për të komprometuar sistemet fizike, si drunjtë dhe makinat pa shofer, dhe për të zgjeruar pushtimin e tyre të privatësisë dhe aftësitë e manipulimit social.
Sipas hulumtuesve, priten sulme të reja, që përfitojnë nga një kapacitet i përmirësuar, për të analizuar sjelljet, disponimin dhe besimet njerëzore, në bazë të të dhënave në dispozicion. “Ne duhet të kuptojmë, se algoritmet do të jenë me të vërtetë të mira, në manipulimin e njerëzve”, tha Peter Eckersley, shkencëtar i kompjuterit, në Fondacionin Elektronik Frontier.Ne kemi nevojë për të zhvilluar sisteme imunitare individuale dhe shoqërore, kundër tyre, “i tha ai E-Commerce Times. EFF është një nga sponsorët e raportit, së bashku me Institutin e Ardhmërisë së Njeriut, Qendrën e Universitetit të Oksfordit për Studimin e Rrezikut ekzistues, Universitetin e Kembrixhit, Qendrën për Siguri të Re Amerikane dhe OpenAI.
Më shumë lajme të rreme
Manipulimi i sjelljes njerëzore, është shqetësimi më i rëndësishëm në kontekstin e shteteve autoritare, por gjithashtu mund të dëmtojë aftësinë e demokracive, për të mbështetur debatet e vërteta publike, vëren raporti. Përdorimi i dëmshëm i Inteligjencës Artificiale: Parashikimi, Parandalimi dhe Zbutja. “Ne do të shohim gjenerimin e imazheve dhe videove sintetike, më të bindshme ose të rreme, dhe një korrupsion në hapësirën e informacionit”, tha Jack Clark, drejtor i strategjisë dhe komunikimit në OpenAI, një kompani hulumtimi jofitimprurëse e bashkuar nga Elon Musk, Tesla dhe SpaceX.
“Ne do të shohim më shumë lajme propaganduese dhe false”, tha Clark për E-Commerce Times. Ekziston një lidhje kritike, ndërmjet sigurisë së kompjuterit dhe shfrytëzimit të UA për qëllime të dëmshme, vuri në dukje Eckersley e EFF. “Ne duhet të kujtojmë. se në qoftë se, kompjuterat që vendosim sistemet e mësimit të makinës janë të pasigurta, gjërat nuk mund të shkojnë mirë në afat të gjatë, kështu që ne kemi nevojë për investime të reja masive në sigurinë kompjuterike”, tha ai.
“AI mund të bëjë sigurinë në internet më mirë ose më keq,” vazhdoi Eckersley, “dhe ne me të vërtetë kemi nevojë për t’u përdorur në mbrojtje, për t’i bërë pajisjet tona më të qëndrueshme, të sigurta dhe të besueshme”.
Në përgjigje të ndryshimit të peizazhit kërcënues në sigurinë kibernetike, hulumtuesit dhe inxhinierët që punojnë në zhvillimin e inteligjencës artificiale, duhet të marrin seriozisht natyrën e përdorimit të dyfishtë të punës së tyre, rekomandon raporti. Kjo do të thotë, që konsideratat lidhur me keqpërdorimet, duhet të ndikojnë në prioritetet dhe normat e kërkimit. Raporti bën thirrje, për një riimagjinim të normave dhe institucioneve rreth hapjes së hulumtimit, duke përfshirë vlerësimin e rrezikut të publikimit në fushat teknike me interes të veçantë, modelet e lishencimit të qasjes qendrore dhe ndarjen e regjimeve, që favorizojnë sigurinë. Megjithatë, këto rekomandime janë shqetësuese për Daniel Castro, drejtor i Qendrës për Inovacionin e të Dhënave. “Ata mund të ngadalësojnë zhvillimin e AI-së. Ata do të largohen nga modeli i inovacionit që ka qenë i suksesshëm për teknologjinë,” tha ai për E-Commerce Times. “AI mund të përdoret për shumë qëllime të ndryshme”, shtoi Castro. “AI mund të përdoret për qëllime të këqija, por numri i njerëzve që përpiqen ta bëjnë këtë është mjaft i kufizuar”. Përparime dhe etikë
Duke lëshuar këtë raport, hulumtuesit shpresojnë të dalin përpara kurbës në politikën e UA-së. “Në shumë biseda për politikat e teknologjisë, është mirë të presësh derisa një sistem të shpërndahet gjerësisht, para se të brengoset hollësisht se si mund të gabojë ose të keqpërdoret”, – shpjegoi Eckersley e EFF-it, por kur ju keni një sistem transformues në mënyrë drastike dhe ju e dini se masat paraprake të sigurisë që ju dëshironi, do të duhen shumë vite për të vënë në vend, ju duhet të filloni shumë herët “.
Problemi me politikëbërjen publike, është se ajo reagon rrallë ndaj problemeve, që në fillim. Ky raport është një” kanarinë në minierën e qymyrit “, tha Ross Rustici, drejtor i lartë i shërbimeve të inteligjencës në Cybereason.
“Nëse do të mundnim, që komuniteti i politikave të lëvizte në këtë drejtim, nëse do të mund t’i bënim hulumtuesit të përqendroheshin në etikën e zbatimit të teknologjisë së tyre, sesa në novacionin dhe inxhinierinë e tyre, ndoshta do të ishim në një vend më të mirë” i tha E-Commerce Times. “Por nëse historia na tregon diçka, këto dy gjëra pothuajse nuk ndodhin kurrë. Është shumë e rrallë, që ne të shohim përparime shkencore, që merren me degëzimet e tyre etike përpara se të ndodhë”.
Burimi technewsworld












