Sveiki, žmonės, sveiki atvykę į įprastą „TechCrunch“ AI informacinį biuletenį.
Šią savaitę AI atliktas naujas tyrimas rodo, kad generatyvinis AI tikrai nėra toks žalingas – bent jau ne apokaliptine prasme.
Straipsnyje, pateiktame Kompiuterinės lingvistikos asociacijos metinei konferencijai, Bato ir Darmštato universitetų tyrėjai teigia, kad tokie modeliai kaip Meta Llama šeima negali mokytis savarankiškai arba įgyti naujų įgūdžių be aiškių nurodymų.
Tyrėjai atliko tūkstančius eksperimentų, kad patikrintų kelių modelių gebėjimą atlikti užduotis, su kuriomis jie anksčiau nebuvo susidūrę, pavyzdžiui, atsakyti į klausimus apie temas, kurios nepatenka į jų mokymo duomenų sritį. Jie išsiaiškino, kad nors modeliai gali paviršutiniškai sekti instrukcijas, jie negalėjo patys įgyti naujų įgūdžių.
„Mūsų tyrimas rodo, kad baimė, kad modelis pasitrauks ir padarys kažką visiškai netikėto, naujoviško ir potencialiai pavojingo, nėra pagrįsta“, – sakė Bato universiteto kompiuterių mokslininkas Harishas Tayyaras Madabushi ir tyrimo bendraautoris. pareiškimas. „Vyraujantis pasakojimas, kad tokio tipo dirbtinis intelektas kelia grėsmę žmonijai, neleidžia plačiai pritaikyti ir plėtoti šias technologijas, taip pat nukreipia dėmesį nuo tikrų problemų, į kurias reikia sutelkti dėmesį.
Tyrimui yra apribojimų. Tyrėjai neišbandė naujausių ir labiausiai pajėgių modelių iš pardavėjų, tokių kaip „OpenAI“ ir „Anthropic“, o lyginamosios analizės modeliai dažniausiai yra netikslus mokslas. Tačiau tyrimas toli gražu nėra pirmasis, kuris atskleidžia, kad šiandieninės generacinės AI technologijos nekelia pavojaus žmonijai, o darant prielaidą, kad būtų kitaip, kyla apgailėtina politikos formavimo rizika.
Pernai žurnale „Scientific American“ AI etikas Alexas Hanna ir kalbotyros profesorė Emily Bender pareiškė, kad įmonių dirbtinio intelekto laboratorijos netinkamai nukreipia reguliavimo dėmesį į įsivaizduojamus pasaulio pabaigos scenarijus kaip biurokratinį manevravimo triuką. Jie atkreipė dėmesį į „OpenAI“ generalinio direktoriaus Samo Altmano pasirodymą 2023 m. gegužės mėn. vykusiame Kongreso klausyme, per kurį jis (neturėdamas įrodymų) teigė, kad generatyvūs AI įrankiai gali suklysti „labai neteisingai“.
„Platesnė viešoji ir reguliavimo agentūros neturi nusileisti šiam manevrui“, – rašė Hanna ir Bender. „Verčiau turėtume žiūrėti į mokslininkus ir aktyvistus, kurie praktikuoja tarpusavio vertinimą ir atmetė AI reklamą, bandydami suprasti žalingą jo poveikį čia ir dabar.
Jų ir Madabushi dalykai yra pagrindiniai dalykai, kuriuos reikia nepamiršti, nes investuotojai ir toliau investuoja milijardus į generuojančią AI, o ažiotažas artėja prie piko. Kompanijos, remiančios generatyviąsias AI technologijas, rizikuoja daugybe, o tai, kas naudinga joms – ir jų rėmėjams – nebūtinai bus naudinga mums likusiems.
Generatyvus AI gali nesukelti mūsų išnykimo. Tačiau tai jau kenkia kitais būdais – žiūrėkite, kaip plinta nesąžininga netikra pornografija, neteisėti veido atpažinimo areštai ir minios nepakankamai apmokamų duomenų anotatorių. Tikimės, kad politikos formuotojai taip pat tai pamatys ir pritars šiai nuomonei – arba galiausiai pasirodys. Jei ne, žmonija gali turėti ko bijoti.
Naujienos
„Google Dvyniai“ ir AI, o mano: Kasmetinis „Google“ aparatinės įrangos renginys „Made By Google“ įvyko antradienį, o bendrovė paskelbė daugybę „Gemini“ asistento atnaujinimų, taip pat naujų telefonų, ausinių ir išmaniųjų laikrodžių. Peržiūrėkite „TechCrunch“ apžvalgą, kad sužinotumėte naujausią informaciją.
AI autorių teisių ieškinys juda į priekį: Grupės ieškinys, kurį pateikė menininkai, teigiantys, kad „Stability AI“, „Runway AI“ ir „DeviantArt“ neteisėtai apmokė savo dirbtinio intelekto autorių teisių saugomus kūrinius, gali būti tęsiamas, tačiau tik iš dalies, pirmadienį nusprendė pirmininkaujantis teisėjas. Mišriu sprendimu keli ieškovų ieškiniai buvo atmesti, o kiti liko gyvi, o tai reiškia, kad ieškinys gali baigtis teisme.
X ir Groko problemos: Elonui Muskui priklausanti socialinės žiniasklaidos platforma X sulaukė daugybės skundų dėl privatumo po to, kai ji padėjo sau Europos Sąjungos naudotojų duomenis mokyti dirbtinio intelekto modelius be žmonių sutikimo. X sutiko sustabdyti ES duomenų apdorojimą, skirtą Groko mokymui – kol kas.
„YouTube“ išbando Dvynių protų šturmą: „YouTube“ bando integraciją su „Gemini“, kad padėtų kūrėjams sugalvoti vaizdo įrašų idėjas, pavadinimus ir miniatiūras. Ši funkcija, vadinama „Brainstorm with Gemini“, šiuo metu pasiekiama tik atrinktiems kūrėjams, kaip dalis nedidelio riboto eksperimento.
OpenAI GPT-4o daro keistus dalykus: OpenAI GPT-4o yra pirmasis bendrovės modelis, apmokytas balso, teksto ir vaizdo duomenų. Dėl to ji kartais elgiasi keistai – pavyzdžiui, imituoja kalbančiojo balsą arba atsitiktinai šaukia pokalbio viduryje.
Savaitės mokslinis darbas
Yra daugybė įmonių, siūlančių įrankius, kurie, jų teigimu, gali patikimai aptikti tekstą, parašytą generatyviniu AI modeliu, kuris būtų naudingas, tarkime, kovojant su dezinformacija ir plagiatu. Tačiau kai prieš kurį laiką išbandėme keletą, įrankiai retai veikė. Ir naujas tyrimas rodo, kad padėtis nelabai pagerėjo.
UPenn tyrėjai sukūrė duomenų rinkinį ir lyderių lentelę, Robust AI Detector (RAID), kurioje yra daugiau nei 10 milijonų dirbtinio intelekto sukurtų ir žmogaus parašytų receptų, naujienų straipsnių, tinklaraščio įrašų ir daugiau, kad būtų galima įvertinti AI teksto detektorių našumą. Jie nustatė, kad detektoriai, kuriuos jie įvertino, yra „daugiausia nenaudingi“ (tyrėjų žodžiais tariant), veikė tik tada, kai naudojami konkretiems naudojimo atvejams, o tekstas panašus į tekstą, kuriuo jie buvo mokomi.
„Jei universitetai ar mokyklos pasikliautų siaurai apmokytu detektoriumi, kad užfiksuotų, kaip studentai naudoja (generacinį AI) rašydami užduotis, jie galėtų klaidingai apkaltinti studentus sukčiavimu, nors taip nėra“, – sako kompiuterių ir informacijos profesorius Chrisas Callisonas-Burchas. mokslas ir tyrimo bendraautorius, teigiama pranešime. „Jie taip pat gali praleisti mokinius, kurie sukčiaudavo naudodami kitą (generatyvinį AI) namų darbams kurti.
Atrodo, kad dirbtinio intelekto teksto aptikimo srityje nėra jokios naudos – problema yra neišsprendžiama.
Pranešama, kad pati OpenAI sukūrė naują teksto aptikimo įrankį savo AI modeliams – patobulinimą, palyginti su pirmuoju bendrovės bandymu, tačiau atsisako jį išleisti, nes baiminasi, kad jis gali neproporcingai paveikti ne anglų kalbos vartotojus ir padaryti jį neveiksmingu dėl nedidelių pakeitimų. tekstą. (Mažiau filantropiškai sakoma, kad OpenAI taip pat nerimauja dėl to, kaip integruotas AI teksto detektorius gali paveikti jos produktų suvokimą ir naudojimą.)
Savaitės modelis
Atrodo, kad generuojantis AI tinka ne tik memams. MIT mokslininkai taiko tai, kad pažymėtų sudėtingų sistemų, tokių kaip vėjo turbinos, problemas.
MIT kompiuterių mokslo ir dirbtinio intelekto laboratorijos komanda sukūrė sistemą, vadinamą SigLLM, kuri apima komponentą, skirtą laiko eilučių duomenims (pakartotinai atliekamus matavimus laikui bėgant) konvertuoti į teksto įvestį, kurį gali apdoroti generacinis AI modelis. Vartotojas gali pateikti šiuos paruoštus duomenis modeliui ir paprašyti jo pradėti nustatyti anomalijas. Modelis taip pat gali būti naudojamas prognozuoti būsimus laiko eilučių duomenų taškus kaip anomalijų aptikimo vamzdyno dalį.
Sistema neveikė išskirtinai gerai tyrėjų eksperimentuose. Tačiau jei galima pagerinti jo veikimą, SigLLM galėtų, pavyzdžiui, padėti technikai pastebėti galimas įrangos, pvz., sunkiųjų mašinų, problemas prieš joms atsirandant.
„Kadangi tai tik pirmoji iteracija, nesitikėjome, kad pateksime ten iš pirmo karto, tačiau šie rezultatai rodo, kad čia yra galimybė panaudoti (generatyvinius AI modelius) sudėtingoms anomalijų aptikimo užduotims atlikti“, – sakė elektros specialistė Sarah Alnegheimish. Inžinerijos ir informatikos magistrantūros studentas ir pagrindinis straipsnio apie SigLLM autorius, teigiama pranešime.
Paimk krepšį
OpenAI šį mėnesį atnaujino ChatGPT, savo dirbtiniu intelektu pagrįstą pokalbių roboto platformą, į naują bazinį modelį, bet nepaleido pakeitimų žurnalo (gerai, vos tik pakeitimų žurnalas).
Taigi ką iš to daryti? Ką gali tiksliai vienas gaminys? Nėra ko tęsti, tik anekdotiniai įrodymai iš subjektyvių testų.
Manau, kad Ethanas Mollickas, Wharton profesorius, tyrinėjantis AI, inovacijas ir startuolius, padarė teisingą požiūrį. Sunku rašyti generuojamųjų AI modelių išleidimo pastabas, nes modeliai „jaučiasi“ skirtingai vienos sąveikos metu; jie daugiausia yra pagrįsti vibracijomis. Tuo pačiu metu žmonės naudojasi ir moka už „ChatGPT“. Argi jie nenusipelno žinoti, į ką jie įsivelia?
Gali būti, kad patobulinimai yra laipsniški, ir OpenAI mano, kad dėl konkurencinių priežasčių neprotinga tai pranešti. Mažiau tikėtina, kad modelis kažkaip susijęs su OpenAI pateiktais samprotavimais. Nepaisant to, kalbant apie AI, skaidrumas turėtų būti prioritetas. Be jo negali būti pasitikėjimo – ir OpenAI jau daug to prarado.