„Openai“ „gilūs tyrimai“ yra naujausias dirbtinio intelekto (AI) įrankis, sukuriantis bangas ir pažadantis tai padaryti per kelias minutes, ko prireiktų valandų, kol bus užpildyta žmonių ekspertas.
Jis yra „ChatGPT Pro“ funkcija ir parduodama kaip tyrimų asistentas, kuris gali atitikti apmokytą analitiką, jis savarankiškai ieško interneto, kaupia šaltinius ir pateikia struktūrizuotas ataskaitas. Tai netgi surinko 26,6 proc. Paskutinio žmonijos egzamino (HLE), griežto AI etalono, pralenkdamas daugelį modelių.
Tačiau gilūs tyrimai nelabai atitinka hype. Nors jis teikia poliruotas ataskaitas, jis taip pat turi rimtų trūkumų. Anot žurnalistų, kurie tai išbandė, gilūs tyrimai gali praleisti pagrindines detales, kovoti su naujausia informacija ir kartais sugalvoti faktus.

„Openai“ pažymi tai, kai išvardija jo įrankio apribojimus. Bendrovė taip pat sako, kad „kartais gali haliucinuoti faktus atsakymuose arba daryti neteisingas išvadas, nors pagal vidinius vertinimus, nors ir žymiai mažesniu greičiu nei esami„ ChatGPT “modeliai“.
Nenuostabu, kad nepatikimi duomenys gali paslysti, nes AI modeliai „nežino“ dalykų taip, kaip tai daro žmonės.
AI „tyrimų analitiko“ idėja taip pat kelia daugybę klausimų. Ar gali mašina – nesvarbu, koks galingas – iš tikrųjų pakeisti apmokytą ekspertą? Kokia būtų žinių darbo reikšmė? Ir ar AI tikrai padeda mums galvoti geriau, ar tiesiog palengvina sustoti mąstymą?
Kam yra „gilūs tyrimai“ ir kam tai skirta?
Rinkta finansų, mokslo, politikos, teisės ir inžinerijos profesionalų, taip pat akademikų, žurnalistų ir verslo strategų, gilūs tyrimai yra naujausia „agentinė patirtis“, kurią „Openai“ pradėjo „ChatGPT“. Tai žada atlikti sunkų tyrimų pakėlimą per kelias minutes.
Šiuo metu „CHATGPT Pro“ vartotojams JAV galioja tik gilūs tyrimai, kurių kaina – 200 USD per mėnesį. „Openai“ sako, kad ateinančiais mėnesiais ji bus skirta „Plus“, komandos ir įmonių vartotojams, o ateityje planuojama ekonomiškesnė versija.
Skirtingai nuo standartinio pokalbių, pateikiančių greitus atsakymus, gilūs tyrimai seka kelių žingsnių procesą, siekiant parengti struktūrizuotą ataskaitą:
- Vartotojas pateikia užklausą. Tai gali būti bet kas, pradedant rinkos analize ir baigiant teisinės bylos santrauka.
- AI paaiškina užduotį. Tai gali užduoti tolesnius klausimus, kad būtų patobulinta tyrimų apimtis.
- Agentas ieško interneto. Tai savarankiškai naršo šimtus šaltinių, įskaitant naujienų straipsnius, mokslinių tyrimų dokumentus ir internetines duomenų bazes.
- Jis sintezuoja savo išvadas. AI ištraukia pagrindinius dalykus, suskirsto juos į struktūrizuotą ataskaitą ir cituoja jos šaltinius.
- Pateikiama galutinė ataskaita. Per penkias-30 minučių vartotojas gauna kelių puslapių dokumentą-galbūt net doktorantūros disertaciją-apibendrina išvadas.
Iš pirmo žvilgsnio tai skamba kaip svajonių įrankis žinių darbuotojams. Atidesnis žvilgsnis atskleidžia reikšmingus apribojimus.
Daugelis ankstyvųjų testų atskleidė trūkumus:
- To trūksta konteksto. PG gali apibendrinti, tačiau ji visiškai nesupranta, kas svarbu.
- Tai ignoruoja naujus pokyčius. Tai praleido svarbiausius teisinius sprendimus ir mokslinius atnaujinimus.
- Tai susitvarko. Kaip ir kiti AI modeliai, jis gali užtikrintai generuoti melagingą informaciją.
- Tai negali pasakyti fakto iš grožinės literatūros. Tai neišskiria autoritetingų šaltinių nuo nepatikimų.
Nors „Openai“ teigia, kad jos įrankių konkurentai žmonių analitikai, AI neišvengiamai trūksta sprendimo, tikrinimo ir kompetencijos, dėl kurių geri tyrimai yra vertingi.
Ko AI negali pakeisti
„ChatGpt“ nėra vienintelis AI įrankis, galintis sužinoti internetą ir pateikti ataskaitas tik keliais raginimais. Pažymėtina, kad praėjus vos 24 valandoms po „Openai“ išleidimo, „Hugning Face“ išleido nemokamą atvirojo kodo versiją, kuri beveik atitinka jos našumą.
Didžiausia gilių tyrimų ir kitų AI įrankių, parduodamų „žmogaus lygio“ tyrimams, rizika yra iliuzija, kad AI gali pakeisti žmogaus mąstymą. PG gali apibendrinti informaciją, tačiau ji negali suabejoti savo prielaidomis, pabrėžti žinių spragas, kūrybiškai mąstyti ar suprasti skirtingas perspektyvas.

Ir AI sukurtos santraukos neatitinka kvalifikuoto žmogaus tyrėjo gylio.
Bet kuris AI agentas, nesvarbu, kaip greitai, vis tiek yra tik įrankis, o ne žmogaus intelekto pakeitimas. Žinių darbuotojams svarbiau nei bet kada investuoti į įgūdžius, kurių AI negali atkartoti: kritinis mąstymas, faktų tikrinimas, gilios patirties ir kūrybiškumo.
Jei norite naudoti AI tyrimų įrankius, yra būdų, kaip tai padaryti atsakingai. Galvojantis PG panaudojimas gali sustiprinti tyrimus neprarandant tikslumo ar gylio. Galite naudoti AI efektyvumui, pavyzdžiui, apibendrinant dokumentus, tačiau priimant sprendimus priimant žmogaus sprendimą.
Visada patikrinkite šaltinius, nes AI generuojamos citatos gali būti klaidinančios. Nepasitikėkite išvadomis aklai, tačiau taikykite kritinio mąstymo ir kryžminio patikrinimo informaciją naudodami gerbiamus šaltinius. Aukštųjų akcijų temoms, tokioms kaip sveikata, teisingumas ir demokratija, papildo AI išvadas su ekspertų indėliu.
Nepaisant produktyvios rinkodaros, kuri bando mums pasakyti kitaip, generatyvinė AI vis dar turi daugybę apribojimų. Žmonės, kurie gali kūrybiškai sintetinti informaciją, ginčyti prielaidas ir kritiškai mąstyti, išliks paklausa – AI dar negali jų pakeisti.
Raffaele F Ciriello, Sidnėjaus universiteto verslo informacinių sistemų vyresnioji dėstytoja
Šis straipsnis paskelbtas iš pokalbio pagal „Creative Commons“ licenciją. Perskaitykite originalų straipsnį.