Naujienų archyvas
Dirbtinis intelektas: galimybės ir grėsmės
2023 06 06
Ar teko girdėti apie „mirties algoritmą“? Jis turėtų spręsti, kaip elgsis autonominis automobilis, patekęs į avarinę situaciją. Ar trenktis į sieną ir pražudyti automobilio keleivį, ar suvažinėti moterį su vaikišku vežimėliu gatvėje, o gal pasukti į stotelėje stovinčių žmonių būrelį? Tai viena iš bręstančio ateities pasaulio skaitmeninių dilemų, kurias mėgina spręsti dirbtinio intelekto etikos specialistai. Masačusetso technologijų institute veikia „Moralios mašinos“ platforma, kurioje žmonės kviečiami pasirinkti vieną iš trylikos moralinio sprendimo scenarijų. Tokios apklausos padeda suprasti, kaip visuomenė vertina dirbtinio intelekto pasirinkimus. Būtina žinoti, kas programuos šiuos algoritmus, ar savininkas galės rinktis nustatymus? Tai tik vienas pavyzdžių, tačiau ir politikų, ir verslo, ir mūsų visų laukia daug sudėtingų sprendimų dirbtinio intelekto eroje.
LR Seimo Ateities komiteto posėdis. Prof. Raimundas Lopata ir akad. Jūras Banys.
Birželio 2 d. Lietuvos mokslų akademijoje (LMA) įvyko išvažiuojamasis Seimo Ateities komiteto posėdis, kuriame buvo diskutuojama apie dirbtinio intelekto (DI) technologijų vystymą, taikymą ir problemas. LMA prezidentas Jūras Banys džiaugėsi, kad Seimo Ateities komitetas atvyko į Mokslų akademiją, kuri yra ekspertinė institucija. Toks vaidmuo šiais laikais nėra lengvas. Naujos technologijos vystosi sparčiai, pradedant nuo genetinio redagavimo, modifikavimo ir baigiant dirbtinio intelekto algoritmais. Kokiu keliu eisime ir ką pasieksime, labai daug priklauso nuo mokslo. Jis pateikė pavyzdį, kai bendraudamas su Prancūzijos ambasadore išgirdo, kad naudojant DI pavyko padaryti labai tikslią politinę įžvalgą. DI veržiasi į visas gyvenimo sritis. Tai kelia ir problemų. Viena tokių – studentai savo baigiamuosius darbus rašo, pasitelkdami tokius pokalbių robotus kaip „Chat GPT“. Todėl siekiant išvengti problemų, Lietuvoje, kaip ir kitose pasaulio šalyse, turime reguliuoti šiuos procesus, nustatyti, kur ir kaip naudoti šias technologijas, kad jos būtų naudingos.
Posėdžio dalyviai.
Seimo Ateities komiteto pirmininkas Raimundas Lopata irgi patvirtino, kad jaučiamas dėstytojų nusivylimas, kai jie mato tuo piktnaudžiaujančius studentus. Todėl tenka galvoti, kaip reikėtų elgtis, kaip reglamentuoti tokių algoritmų naudojimą. Kalbantis apie šiuos visoje Europoje vykstančius procesus su teisininkais, jie teigia, kad problemų neįžvelgia. Ir dabar mūsų teisiniuose aktuose yra numatyti mechanizmai, kuriuos galima taikyti DI sistemoms reglamentuoti. Bet kalbant apie studijas, išlieka ta pati problema kaip ir politikoje – pasitikėjimo stoka. Vadinasi, tai yra daugiau moralinė nei teisinė problema.
Akad. Olga Kurasova ir dr. Gražina Korvel (VU).
Vilniaus universiteto (VU) Matematikos ir informatikos fakulteto Duomenų mokslo ir skaitmeninių technologijų instituto prof. dr. Olga Kurasova susirinkusiesiems papasakojo apie DI perspektyvas ir ateities galimybes. Žmogaus intelektas apibrėžiamas kaip sugebėjimas mąstyti ir protauti. DI skiriasi nuo įprastinių kompiuterinių programų tuo, kad gali mokytis. Tai panašu į vaiko mokymąsi. Yra išskiriami trys DI tipai: siaurasis (taikomas, pavyzdžiui, žaidžiant šachmatais), bendrasis (analogiškas žmogui, kuris atpažįsta veidus, verčia tekstus, sugeba bendrauti su žmogumi) ir superintelektas. Pirmieji DI pavyzdžiai atsirado dar 1943 m., kai buvo sukurtas dirbtinio neurono modelis. Dirbtiniai neuronų tinklai – vieni pagrindinių modelių, naudojamų sistemoms apmokyti. Todėl DI jau dabar taikomas labai plačiai. Jis analizuoja duomenis, klasifikuoja, prognozuoja. Praverčia kuriant kompiuterinės regos sistemas, apdorojant kalbą, sprendžiant robotikos uždavinius. Tačiau sukurti tokias patikimas sistemas nėra paprasta. Šiuo metu O. Kurasova su kolegomis ir Santaros klinikų gydytojais specialistais kuria kasos vėžio identifikavimo sistemą. Kokių iššūkių kyla? Visų pirma, reikia daug patikimų, sutvarkytų duomenų. Pavyzdžiui, šiuo metu itin populiarus „Chat GPT“ algoritmas apmokytas remiantis viso pasaulio interneto tekstynais. Kita vertus, labai svarbu, kad DI pateikti atsakymai būtų patikimi. Žmonės turi jais pasitikėti ir suprasti, kaip tie rezultatai buvo gauti. Todėl kuriamas Aiškinamasis DI (Explainable A.I.). Svarbūs ir duomenų apsaugos klausimai. Taip pat reikia įvertinti ir tai, ar šių sistemų plitimas ir naudojimas nesumažins darbo vietų ir kokių pasekmių tai turės visuomenėje. DI dažnai klaidingai tapatinamas su automatizavimu. Dėl to mažai skiriama finansavimo įstaigoms, vystančioms tikrąjį DI. Akivaizdu, kad ateityje dirbtinio intelekto algoritmai bus plačiai naudojami tokiose srityse kaip personalizuotas gydymas, ugdymas, klientų aptarnavimas, autonominis transportas. Taip pat ir kūryboje.
Prof. Virginijus Marcinkevičius (VU).
VU prof. dr. Virginijus Marcinkevičius savo pranešime pabrėžė, kad dirbtinis intelektas yra tai, ką stengiamės atkartoti – sugebėjimą protauti, generuoti tekstą. Tai sistema, kuri elgiasi ir galvoja kaip žmogus, t. y. racionaliai. Esmė – atskirti, ar čia jau žmogus, ar ne. Šiuo metu DI jau sėkmingai verčia tekstus, atlieka paiešką ir rekomenduoja, redaguoja, atpažįsta vaizdus. Tačiau DI technologija (ir pati rinka) kol kas nereglamentuota. Daug kam kyla klausimas: jeigu kuriamas DI gali tapti protingesnis už žmogų, ar jis mūsų neužvaldys? Vakarų pasaulyje netgi atsirado iniciatyva pusmečiui stabdyti DI eksperimentus. Kiti tam prieštarauja, nes taip galima prarasti konkurencingumą, kadangi Kinija šių tyrimų nestabdys. DI vystymas iš tiesų kelia rizikų. Naudojant DI algoritmus lengva kurti ir platinti dezinformaciją. Jeigu apmokant sistemas naudojami netinkami, klaidingi duomenys, tą išmoksta ir algoritmas. Taigi DI technologijos gali destabilizuoti darbo rinkas ir politines sistemas, kelti grėsmę nacionaliniam saugumui. Daug priklauso nuo to, kas valdys tą dirbtinį intelektą.
Valdyti šias grėsmes galima, naudojant reguliavimą. Pavyzdžiui, audituoti kūrėjus, sertifikuoti DI algoritmus, reguliuoti prieigą prie skaičiavimo išteklių. Būtina telkti nacionalines pajėgas – agentūras, kurios prižiūrėtų DI kūrėjus, kurtų metodikas, vertintų etiškumą. Turi būti numatyta atsakomybė už sukeltą žalą. Todėl reikia išplėsti DI sistemų saugos tyrimų finansavimą. Turėtų būti sukurti valdymo standartai, rekomendacijos. Europos Komisija yra paskelbusi DI įstatymą, kuriuo mėginama reguliuoti DI sritį. Tikslas – skatinti DI diegimą įvairiose srityse ir sumažinti šios technologijos keliamas rizikas, kad žmonės pasitikėtų tokiomis programomis. Sukurti teisinę DI kūrimą ir naudojimą reglamentuojančią sistemą. Europos Komisija siekia, kad Europos Sąjungoje naudojamos sistemos būtų saugios. Rinkos dalyviai irgi nori aiškesnio teisinio reguliavimo.
Diskusija. Pirmas iš dešinės akad. Vytautas Nekrošius.
Komentuodamas šį pranešimą, LMA tikrasis narys prof. Vytautas Nekrošius konstatavo, kad teisinis reguliavimas dar neišsprendė jokios problemos. Jį gąsdina, kad naujų mokslo ir technologijų sričių žinios pirmiausia bus panaudotos blogiems tikslams (kaip branduolinės fizikos atveju, kai pirmiausia buvo sukurta atominė bomba, o tik vėliau atsirado branduolinės jėgainės). Pasaulyje nuolat vyksta nekontroliuojami procesai. DI sistemų vystymas – ne išimtis. Todėl nereikėtų dėti daug vilčių į teisinį reguliavimą. Reikia kitų priemonių, kurios tą procesą suvaldytų.
Dr. Linas Petkevičius (VU).
VU Matematikos ir informatikos fakulteto Informatikos instituto doc. dr. Linas Petkevičius pateikė konkrečių pavyzdžių, kaip DI algoritmai, modeliai (tokie kaip „Chat GPT“) naudojami kalbos technologijose (pvz., teksto analizei). Norint sukurti gerai veikiančius, nešališkus modelius, reikia didelių skaičiavimo išteklių, kurių Lietuvoje nėra. Pasaulio valstybės, didžiosios bendrovės labai aršiai dėl jų konkuruoja, ypač dėl vaizdo plokščių. Todėl būtina ir mūsų šalyje investuoti į skaičiavimo išteklius.
VU Duomenų mokslo ir skaitmeninių technologijų instituto vyresnioji mokslo darbuotoja, LMA Jaunosios akademijos narė dr. Gražina Korvel papasakojo Ateities komiteto nariams apie šnekos signalų apdorojimą ir su tuo susijusias problemas. Šioje srityje dirbantys mokslininkai siekia perkelti lietuvių kalbą į naujausias technologijas, kad galėtume naudoti žmonių šneką suprantančius ir natūraliai šnekančius kompiuterius. Gilaus mokymosi modeliai (RNN, CNN) gerokai pagerino automatinio šnekos atpažinimo sistemų tikslumą. Todėl šiuo metu VU sukurti modeliai puikiai atpažįsta šneką, netgi kalba su intonacija. Tačiau vis dar trūksta duomenų sukurti patikimus modelius, nes lietuvių kalba priklauso mažai išteklių turinčių kalbų grupei.
Reikia turėti omenyje, kad šios technologijos gali būti naudojamos ir dezinformacijai platinti. Pavyzdžiui, priešiškomis atakomis prieš automatinio šnekos atpažinimo sistemas siekiama manipuliuoti atpažinimo procesu ir priversti sistemą neteisingai interpretuoti sakomus žodžius ar frazes. O derinant vaizdo manipuliacijas su sintezuota kalba kuriamos išmaniosios vaizdo klastotės (angl. Deepfake). Taip galima diskredituoti asmenis, įdėti į lūpas tekstus, kurių jie nesakė. Labai svarbu tinkamai suprasti ir sąvokas. Atskirti, kuo kalba skiriasi nuo šnekos. Kalba – tai teksto apdorojimas. Akustiniai signalai – šnekos signalas.
Fizinių ir technologijos mokslų centro Optoelektronikos skyriaus vyresnysis mokslo darbuotojas dr. Tadas Paulauskas kalbėjo apie kvantines technologijas ir kodėl svarbu skatinti jų ekosistemos kūrimą. Dabar vyksta antroji kvantinė revoliucija. Tyrėjai jau sugeba sintetinti, kontroliuoti pavienes kvantines sistemas, kuriose informacija koduojama ir apdorojama ne klasiškai, bet kvantiniuose bituose. Tokios sistemos bus taikomos kuriant saugius kvantinius ryšius, kvantinius kompiuterius, kvantinius jutiklius. Šioje srityje daugiausia dirba fizikai. Lietuva yra įsipareigojusi įdiegti kvantinį ryšį, taip pat vysto kvantinius jutiklius. Tačiau norint neatsilikti nuo pasaulio, reikia daugiau ekspertų, studentų. Tik dabar formuojasi kritinė masė žmonių toje srityje.
Prof. Paulius Pakutinskas (MRU).
Mykolo Romerio universiteto Teisinių technologijų centro vadovas, prof. Paulius Pakutinskas kalbėjo, kad technologijos savaime nėra nei gėris, nei blogis. Svarbu, kaip mes jas naudojame. Gal ir gerai, kad dirbtinio intelekto algoritmų bijoma. Dėl to daugiau žmonių įsijungia į diskusijas. Jo manymu, šios srities reguliavimas vyksta pačiu laiku, nes dar yra tikslinamos kai kurios sąvokos. DI reguliavimo taisykles tikimasi turėti šį rudenį. Beje, šių technologijų taikymą reguliuoja daug valstybių, neišskiriant ir Afrikos šalių. Pažymėtina, kad Kinijoje siekiama reguliuoti ir karinį DI (pvz., autonominius dronus). Rizikų iš tiesų daug. Šie procesai ir diskusijos apie DI technologijų vystymąsi prasidėjo nuo 2016 metų. Kadangi šios technologijos vystosi itin greitai, taisykles kurti nėra lengva, sunku spėti. Štai atsirado nauja sąvoka – bendrojo naudojimo DI (kaip jau minėtas „Chat GPT“). Po kelių mėnesių sprogo „Chat GPT“ burbulas. Todėl dabar reikia atskirai reguliuoti šią DI algoritmų atmainą. Siekiant pasivyti technologijas, Europos Sąjunga siūlo išankstinį reguliavimą. Tai daroma grupuojant rizikas. Šiuo metu Europos Sąjunga yra paruošusi keliolika norminių aktų. Rengiama DI atsakomybių direktyva, kibernetinio saugumo, duomenų norminiai aktai ir kt. Kaip elgtis Lietuvai? P. Pakutinskas mano, kad papildomo reguliavimo nereikia. Tačiau būtina suvokti, jog tai išskirtinė technologija, tad darbo rinkos pokyčių, įvairių konfliktų ar net katastrofų tikrai neišvengsime. Jau dabar tokiai ateičiai reikia ruošti studentus, moksleivius. Laimė, žmogus adaptyvus, jis sugeba prisitaikyti. Tad rasime būdų, kaip sugyventi su dirbtiniu intelektu.
Baigdamas posėdį LMA prezidentas J. Banys vylėsi, kad tai bus ne paskutinis toks posėdis akademijoje. Na, o kalbant apie DI tenka pripažinti, kad tema aktuali, plati ir pasaulis kol kas neturi gerų sprendimų. Mums visiems reikia ieškoti jų kartu. Seimo narys R. Lopata pabrėžė, kad nacionalinio teisės akto, reguliuojančio DI, dar nėra. Savireguliacija grįstas reguliavimas būtų svarbus. Pavyzdžiui, mokslo bendruomenėms susikūrus etiško elgesio kodą DI tyrimų srityje. Šiuo metu reikės orientuotis į Europos DI įstatymą. Itin svarbus yra savų technologijų, įrankių vystymas, turimų duomenų naudojimas.
Dr. Rolandas Maskoliūnas, LMA vyriausiasis specialistas ryšiams su visuomene
Virginijos Valuckienės nuotraukos
GALERIJA