Ar dirbtinis intelektas gali turėti jausmus?

  • Teksto dydis:

Ar dirbtinis intelektas (DI) – žmogaus kuriami kompiuteriai – gali turėti jausmus? Tai vienas pagrindinių mokslinės fantastikos elementų. Vienas korporacijos „Google“ inžinierius net nušalintas nuo darbo – korporacijos DI modelio, sutrumpintai vadinamo LAMDA, kūrimo. Inžinierius sako, kad jo paties kurta mašina mąsto kaip septynerių metų vaikas, besidomintis fizika. Apie tai LNK pokalbis su KTU Dirbtinio intelekto centro vadove Agne Paulauskaite-Tarasevičiene.

– Man nepasirodė, kad ten yra kažkas tokio, ko nesitikėčiau iš tokio susirašinėjimo. Tai mato ir „Google“ kompanija. Ji įsikišo, nes nepagrįsti faktai, kad tai sąmoningumas, potyriai, pojūčiai, būtų reputacinė žala pačiai kompanijai. Pati kompanija teigia, kad skaitmeninės informacijos dialogų įvairiausiomis temomis – komentarai, filmai – labai daug, jog išmanieji vadinamieji chatbotai išmoktų komunikuoti, atsakyti į klausimus. Galbūt atsiranda tam tikrų algoritmų, kad atsakymas neatrodytų labai šabloniškas. Todėl man nepasirodė, kad tai kažkas tokio, kas verstų sunerimti ir atsidaro savarankiškai mąstantis, jaučiantis DI.

– Jūs manote, kad sukurtas DI modelis tikrai neturi jausmų ir sąmonės?

– Kas yra sąmonė? Yra skirtingų autorių apibrėžimų, kaip reikėtų tai suvokti. Jis geba analizuoti savo praeities veiksmus, potyrius. Buvo minimos taisyklės. Pirmoji sako, kad robotas ir DI turėtų neleisti žmogui susižaloti arba jo pačio sužaloti. Antroji – turėtų vykdyti visus įsakymus, nebent tai prieštarautų pirmai. Trečioji – apsaugoti savo egzistavimą, nebent tai prieštarautų pirmai ir antrai taisyklėms. Dabar taisyklės praplėstos, bet perskaičius dialogus nematau to, kas verstų galvoti, kad sukurtas naujas algoritmas ir padarytas progresas.

– Ar, kuriant DI, tikslas yra sukurti mašiną, kuri gebėtų suprasti save ir apsaugoti kitus bei save?

– Tikrai nesiekiame sukurti mašinos, kuri suvokti save kaip bendruomenės narę. DI robotų kūrimo tikslas turėtų būti padėti žmogui kai kurios veiklose, o ne sukurti asmenybę, kuri egzistuotų savarankiškai ir laikytų save tam tikros bendruomenės nare su morale, etikos normomis, sąmoningumu. Tokio tikslo nėra. Galbūt ateityje taip galėtų būti.

Visas reportažas – LNK vaizdo įraše:

 

 

– Kaip naudojami tokie DI modeliai kaip LAMDA?

– Manau, kad vyktų tam tikra nešabloniška komunikacija. Tai galėtų būti žaidimų, tam tikrų programų asistavimo dalis, kurioje pašnekovas – DI – neatrodo primityvus ir natūralia kalba atsako į pateiktus klausimus.

– Ar yra triukų, kaip apgauti chatbotus? Kaip suprasti, kad kalba ne žmogus, o robotas?

– Reikėtų paklausti iš praeities tam tikrų dalykų: ar prisimena, turi nuoskaudų, pojūčių, prisiminimų iš buvusio pokalbio. Atsakymas neturėtų būti šabloninis.

– Kaip žmogus pasielgtų su jausminga ir protinga mašina?

– Sudėtingas klausimas. Nemanau, kad mes iki to nueisime. Reikia suprasti, kaip DI mokosi. Jis išmoksta tik tai, ką mato. Jeigu robotui nesuteiksime informacijos apie jausmus, teisinius dalykus, galbūt jis neturės galimybės to išmokti. Visų pirma, reikia aiškiai nusibrėžti, kam kuriami DI sprendimai, robotai. Dabar diskutuojama, kol kas tai rekomendacijų lygmeniu, yra DI etikos rekomendacijos. Manau, ateityje jos įgaus teisinį svorį.

– Jeigu, prieš išjungiant, robotas žmogaus prašytų jo neišjungti ir palikti, kaip žmogus turi elgtis

– Tai apibrėžiama DI etikos rekomendacijose. Jis privalo turėti išjungimo mygtuką ir žmogus visada turi turėti galimybę jį išjungti. Tai net nesvarstoma, nes tada tikrai pradėsime nebekontroliuoti. Veiksmai nebūtinai turi būti piktybiški ar su tikslu, gali atsirasti atsitiktinių labai pavojingų veiksmų. Mes privalome užtikrinti saugumą.



NAUJAUSI KOMENTARAI

yja

yja portretas
ką įdiegs tą ir turės
VISI KOMENTARAI 1
  • Skelbimai
  • Pranešk
    naujieną
  • Portalo
    svečias
  • Orai
  • TV
    programa
  • Žaidimai
  • Horoskopai
  • Facebook
  • Twitter
  • RSS

Galerijos

Daugiau straipsnių