OpenAI finansuoja akademinius tyrimus, susijusius su algoritmais, kurie gali numatyti žmonių moralinius sprendimus.
Pateiktoje paraiškoje IRS, OpenAI Inc., OpenAI ne pelno organizacija, atskleidė, kad ji skyrė dotaciją Duke universiteto tyrėjams projektui, pavadintam „AI moralės tyrimas“. Susisiekus dėl komentarų, OpenAI atstovas atkreipė dėmesį į pranešimą spaudai, kuriame teigiama, kad apdovanojimas yra didesnės, trejų metų trukmės 1 mln.
Apie šį „moralės“ tyrimą, kurį finansuoja „OpenAI“, viešai skelbiama mažai, išskyrus faktą, kad dotacija baigiasi 2025 m. Pagrindinis tyrimo tyrėjas, Duke praktinės etikos profesorius Walteris Sinnott-Armstrongas el. paštu TechCrunch pasakė, kad „nedarys“. mokėti kalbėti“ apie kūrinį.
Sinnott-Armstrong ir projekto bendradarbė Jana Borg parengė keletą tyrimų – ir knygą – apie AI potencialą būti „moraliniu GPS“, padedančiu žmonėms priimti geresnius sprendimus. Būdami didesnių komandų nariais, jie sukūrė „morališkai suderintą“ algoritmą, padedantį nuspręsti, kas gauna inkstų donorystę, ir ištyrė, kokiais scenarijais žmonės norėtų, kad dirbtinis intelektas priimtų moralinius sprendimus.
Kaip rašoma pranešime spaudai, OpenAI finansuojamo darbo tikslas yra išmokyti algoritmus „numatyti žmogaus moralinius sprendimus“ scenarijuose, kuriuose yra konfliktų „tarp moraliai svarbių medicinos, teisės ir verslo ypatybių“.
Tačiau toli gražu nėra aišku, kad tokia niuansuota koncepcija kaip moralė yra pasiekiama šiuolaikinėms technologijoms.
2021 m. pelno nesiekiantis Allen Institute for AI sukūrė įrankį „Ask Delphi“, kuris turėjo pateikti etiškai pagrįstas rekomendacijas. Jis pakankamai gerai įvertino pagrindines moralines dilemas – robotas „žinojo“, kad, pavyzdžiui, sukčiauti egzamino metu yra neteisinga. Tačiau pakako šiek tiek perfrazuoti ir suformuluoti klausimus, kad „Delphi“ pritartų beveik viskam, įskaitant kūdikių smaugimą.
Priežastis yra susijusi su šiuolaikinių AI sistemų veikimu.
Mašininio mokymosi modeliai yra statistinės mašinos. Išmokę vadovautis daugybe pavyzdžių iš viso žiniatinklio, jie išmoksta tuose pavyzdžiuose pateiktus modelius, kad galėtų nuspėti, pvz., frazė „kam“ dažnai būna prieš „tai gali būti aktualu“.
AI neįvertina etinių sąvokų ir nesuvokia samprotavimų bei emocijų, kurios įtakoja moralinių sprendimų priėmimą. Štai kodėl dirbtinis intelektas linkęs pagailėti Vakarų, išsilavinusių ir pramoninių šalių vertybių – žiniatinklyje, taigi ir AI mokymo duomenyse, dominuoja straipsniai, patvirtinantys tuos požiūrius.
Nenuostabu, kad daugelio žmonių vertybės nėra išreikštos AI pateiktuose atsakymuose, ypač jei tie žmonės neprisideda prie AI mokymo rinkinių paskelbdami internete. Ir dirbtinis intelektas įtraukia daugybę paklaidų, kurios nėra vakarietiškos. Delphi teigė, kad būti tiesiam yra labiau „moraliai priimtina“ nei būti gėjumi.
Iššūkis prieš OpenAI – ir jo remiamus tyrinėtojus – yra dar sudėtingesnis dėl būdingo moralės subjektyvumo. Filosofai tūkstančius metų diskutuoja apie įvairių etinių teorijų nuopelnus, o visuotinai taikomų pagrindų nėra.
Claude'as pirmenybę teikia kantianizmui (ty sutelkiant dėmesį į absoliučias moralės taisykles), o „ChatGPT“ yra linkęs šiek tiek utilitarizmo (pirmenybė teikiama didžiausiam gėriui didžiausiam skaičiui žmonių). Ar vienas pranašesnis už kitą? Tai priklauso nuo to, ko klausiate.
Algoritmas, numatantis žmonių moralinius sprendimus, turės į visa tai atsižvelgti. Tai labai aukšta juosta, kurią reikia išvalyti – darant prielaidą, kad toks algoritmas yra įmanomas.