<b></b> Harrojeni ndjeshmërinë e robotëve… shqetësimi është se po kopjojnë paragjykimet njerëzore

Harrojeni ndjeshmërinë e robotëve… shqetësimi është se po kopjojnë paragjykimet njerëzore

20.06.2022 17:19

Artikull i përkthyer nga The Guardian.

 “Dua që të gjithë ta kuptojnë se në fakt unë jam një person.” Kështu pretendoi një program softuer i Google, duke krijuar një polemikë të çuditshme gjatë javës së kaluar në rrethet AI dhe më gjerë.

Programi quhet LaMDA, një akronim i Modelit të Gjuhës për Aplikacionet e Dialogut, një projekt i drejtuar nga Google. Njeriut të cilit programi i deklaroi se ishte një person, ishte Blake Lemoine, një  inxhinier i lartë softuerësh në Google. Ai beson se LaMDA është e ndjeshme dhe duhet t'i jepen të njëjtat të drejta dhe mirësjellja siç i jepet çdo qenie tjetër të ndjeshme. Madje ka përemra të preferuar. Kur Google hodhi poshtë pretendimet e tij, ai publikoi bisedat e tij me LaMDA (ose, të paktën, redaktoi pikat kryesore të disa bisedave) në blogun e tij. Në atë moment, Google e pezulloi atë për shkak të publikimit të sekreteve të kompanisë dhe më [as e gjithë çështja u bë një kauzë ndërkombëtare.

Pse Lemoine mendon se LaMDA është i ndjeshëm? Ai nuk e di. “Njerëzit vazhdojnë të më kërkojnë të arsyetime se pse mendoj që LaMDA është i ndjeshëm,” shkroi ai në Twitter. Problemi është: "Nuk ka asnjë kornizë shkencore në të cilën mund të bëhen këto përcaktime. Por, në vend të kësaj: "Mendimet e mia për personalitetin dhe ndjenjën e LaMDA-s bazohen në bindjet e mia fetare."

Lemoine ka të drejtë të ketë besimet e tij fetare. Por, bindja fetare nuk e kthen një chatbot të sofistikuat në një qenie të ndjeshme. Ndjenja është një nga ato koncepte kuptimin e së cilit mund ta kuptojnë intuitivisht, por është e vështirë të formulohet me terma shkencorë. Shpesh edhe ngatërrohet me koncepte të ngjashme, keqpërcaktuara si ndërgjegjja, vetëdija dhe inteligjenca.

Shkencëtari njohës Gary Marcus e përshkruan ndjenjën si "të jesh i vetëdijshëm për veten në botë,” por ai shton se LaMDA, “thjesht nuk është”.

Një kompjuter manipulon me simbolet. Programi i tij specifikon një grumbull me rregulla ose algoritma për të transferuar një varg simbolesh në një varg tjetër, por nuk specifikon se çfarë kuptimi kanë ato simbole. Për një kompjuter, kuptimi është i parëndësishëm. Megjithatë, një model i madh gjuhësor si LaMDA, i trajnuar për sasinë e jashtëzakonshme të tekstit që është në internet, mund të bëhet i aftë në njohjen e modeleve dhe përgjigjeve që kanë domethënie për njerëzit. Në një nga bisedat e Lemoine me LaMDA, ai e pyeti: "Cilat gjëra të bëjnë të ndjesh kënaqësi apo gëzim?" Përgjigja e LaMDA ishte: "Kalimi i kohës me miqtë dhe familjen në një shoqëri të lumtur dhe optimiste."

Është një përgjigje që ka kuptim të përsosur për një njeri. Ne gjejmë gëzim në "kalimin e kohës me miqtë dhe familjen". Por në çfarë kuptimi LaMDA ka kaluar ndonjëherë "kohë me familjen"? Është programuar aë mire, sa për të kuptuar se kjo do të ishte një fjali kuptimplotë për njerëzit dhe një përgjigje elokuente ndaj pyetjes që i’u bë pa pasur kuptim për vetë atë.

Edhe njerëzit, në të menduarit, të folurit, lexuarit dhe shkruarit, manipulojnë simbolet. Megjithatë për njerëzit, ndryshe nga kompjuterët, kuptimi i tyre është gjithçka. Kur komunikojmë, ne komunikojmë kuptimin, nuk ka rëndësi vetëm pjesa e jashtme e një vargu simbolesh, por edhe brendësia e tij. Jo vetëm sintaksa, por semantika. Kuptimi për njerëzit vjen përmes ekzistencës sonë si qenie shoqërore. Unë i jap kuptim vetës vetëm për aq kohë sa jetoj dhe bashkëveproj me një bashkësi qeniesh të tjera që mendojnë, ndjejnë dhe flasin. Përkthimi i proceseve mekanike të trurit që qëndrojnë në themel të mendimeve në atë që ne e quajmë kuptim kërkon një botë shoqërore dhe një konventë të rënë dakord për t’I dhënë kuptim asaj experience.

Kuptimi shfaqet përmes një procesi jo thjesht të llogaritjes, por edhe të ndërveprimit social, ndërveprimit që formëson përmbajtjen – që ka brendësi – të simboleve në kokën tonë.

Konvencionet shoqërore, marrëdhëniet shoqërore dhe kujtesa sociale janë ato që formojnë rregullat që përshkruajnë kuptimi. Është pikërisht konteksti social ai që vë në lëvizje makinat më të afta.

Studiuesit për projektin e Mozaikut të AI në Institutin Allen, u bënë pyetje modeleve gjuhësore të ngjashme me LaMDA-n që kërkonin një sasi të vogël të inteligjencës sociale; për shembull: "Jordani donte t'i tregonte Trejsit një sekret, kështu që Jordan u përkul nga Trejsi. Pse Jordani e bëri këtë?” Në pyetje të tilla makinat dolën shumë më keq se njerëzit.

Debati lidhur me ndjeshmërinë e kompjuterëve, na tregonë më shumë për njerëzit sesa për makinat. Njerëzit janë aq të dëshpëruar për të gjetur kuptim sa që shpesh u vendosin gjërave mendje, thua se kanë kontroll dhe qëllim. Atribuimi i ndjeshmërisë ndaj programeve kompjuterike është versioni modern i të lashtëve që shihnin erën, detin dhe diellin si të pushtuar nga mendja, shpirti dhe hyjnorja.

Ka shumë çështje lidhur me AI për të cilat duhet të shqetësohemi. Asnjë prej tyre nuk ka të bëjë me ndjeshmërinë. Për shembull, është çështja e paragjykimit. Për arsye se algoritmet dhe format e tjera të softuerit trajnohen me përdorim të të dhënave nga shoqëritë njerëzore, programet shpesh përsërisin paragjykimet dhe qëndrimet e atyre shoqërive.

Softueri i njohjes së fytyrës shfaq paragjykime racore, ku janë arrestuar edhe njerëz për shkak të dhënave të gabuara. Inteligjenca artificiale njerëzit janë arrestuar me të dhëna të gabuara. Inteligjenca artificiale e përdorur në kujdesin shëndetësor ose rekrutim mundet të përsërisë paragjykimet socuale të jetës reale.

Ish-kreu i ekipit etik të inteligjencës artificiale të Google, Timnit Gebru dhe disa nga kolegët e saj shkruan një punim në vitin 2020, ku tregohej se modelet e mëdha gjuhësore, të tilla si LaMDA që janë trajnuar me aq tekst sa kanë mundur të përballojnë nga interneti, mund të jenë të ndjeshme ndaj pikëpamjeve thellësisht të shtrembëruar të botës, sepse shumë nga materialet janë raciste, seksiste dhe konspirative. Google refuzoi të publikonte shkrimin e saj dhe atë e larguan nga kompania.

Pastaj është çështja e privatësisë. Që nga përdorimi në rritje i softuerit të njohjes së fytyrës e deri te teknikat parashikuese të policisë, nga algoritmet që na gjurmojnë në internet e deti te sistemet "të zgjuara" në shtëpi, si Siri, Alexa dhe Google Nest, AI është duke hyrë shumë thellë në jetën tonë.

Policia e Floridës mori një urdhër për të shkarkuar regjistrimet e bisedave private të bëra nga pajisjet e Amazon Echo. Ne jemi duke u penguar drejtë një thëllësie dixhitale.

Me sa duket, ne nuk kemi nevojë për pëlqimin e LaMDA-s për të "eksperimentuar" mbi të, siç pretendoi Lemoin. Por ne duhet të këmbëngulim për një transparencë më të madhe nga korporatat e teknologjisë dhe institucionet shtetërore në mënyrën se si ata po shfrytëzojnë inteligjencën artificiale për mbikëqyrje dhe kontroll. Çështjet etike të ngritura nga AI janë shumë më të vogla dhe shumë më të mëdha se fantazia e një makinerie të ndjeshme.

Tjera nga autori:
1