Susisiekti su mumis

Dirbtinis intelektas

Kodėl AI pokalbių robotai haliucinuoja? Mokslo tyrinėjimas

mm

paskelbta

 on

Sužinokite, kodėl AI pokalbių robotai haliucinuoja, generuodami klaidinančią ar išgalvotą informaciją, ir tyrinėkite šio reiškinio mokslą

Dirbtinis intelektas (AI) pokalbių robotai šiandien tapo neatsiejama mūsų gyvenimo dalimi, padedantys viskuo – nuo ​​tvarkaraščių tvarkymo iki klientų aptarnavimo. Tačiau kaip šie pokalbių svetainės tapo labiau pažengęs, iškilo problema, žinoma kaip haliucinacijos. Dirbant dirbtiniu intelektu haliucinacijos reiškia atvejus, kai pokalbių robotas sukuria netikslią, klaidinančią ar visiškai išgalvotą informaciją.

Įsivaizduokite, kad klausiate savo virtualaus asistento apie orą ir jis pradeda teikti pasenusią arba visiškai klaidingą informaciją apie niekada neįvykusią audrą. Nors tai gali būti įdomu, tokiose svarbiose srityse, kaip sveikatos priežiūra ar teisinės konsultacijos, tokios haliucinacijos gali sukelti rimtų pasekmių. Todėl norint padidinti jų patikimumą ir saugumą, būtina suprasti, kodėl AI pokalbių robotai haliucinuoja.

AI Chatbots pagrindai

AI pokalbių robotai yra aprūpinti pažangiais algoritmais, leidžiančiais suprasti ir generuoti žmonių kalbą. Yra du pagrindiniai AI pokalbių robotų tipai: taisyklėmis pagrįsti ir generaciniai modeliai.

Taisyklėmis pagrįsti pokalbių robotai laikykitės iš anksto nustatytų taisyklių ar scenarijų. Jie gali atlikti paprastas užduotis, pavyzdžiui, užsisakyti staliuką restorane arba atsakyti į įprastus klientų aptarnavimo klausimus. Šie robotai veikia ribotoje srityje ir remiasi konkrečiais aktyvikliais arba raktiniais žodžiais, kad pateiktų tikslius atsakymus. Tačiau jų nelankstumas riboja jų gebėjimą tvarkyti sudėtingesnes ar netikėtas užklausas.

Kita vertus, naudojami generatyviniai modeliai mašininis mokymasis ir Gamtos kalbos apdorojimas (NLP), kad generuotų atsakymus. Šie modeliai mokomi remiantis didžiuliu duomenų kiekiu, mokymosi modeliais ir struktūromis žmonių kalba. Populiariausi pavyzdžiai apima OpenAI GPT serijos ir Google ETRI. Šie modeliai gali sukurti lankstesnius ir kontekstui tinkamesnius atsakymus, todėl jie yra universalesni ir labiau pritaikomi nei taisyklėmis pagrįsti pokalbių robotai. Tačiau dėl šio lankstumo jie taip pat labiau linkę į haliucinacijas, nes jie remiasi tikimybiniais metodais, kad sukurtų atsakymus.

Kas yra AI haliucinacijos?

AI haliucinacijos atsiranda, kai pokalbių robotas sukuria turinį, kuris nėra pagrįstas tikrove. Tai gali būti taip paprasta, kaip faktinė klaida, pvz., neteisinga istorinio įvykio datos nustatymas, arba kažkas sudėtingesnio, pavyzdžiui, visos istorijos ar medicininės rekomendacijos išgalvojimas. Nors žmogaus haliucinacijos yra jutiminiai išgyvenimai be išorinių dirgiklių, dažnai sukeliami psichologinių ar neurologinių veiksnių, AI haliucinacijos kyla dėl to, kad modelis neteisingai interpretuoja arba per daug apibendrino jo mokymo duomenis. Pavyzdžiui, jei dirbtinis intelektas perskaitė daug tekstų apie dinozaurus, jis gali klaidingai sukurti naują, išgalvotą dinozaurų rūšį, kurios niekada nebuvo.

Dirbtinio intelekto haliucinacijų samprata buvo žinoma nuo pirmųjų mašininio mokymosi dienų. Pradiniai modeliai, kurie buvo gana paprasti, dažnai darydavo rimtų abejotinų klaidų, pavyzdžiui, siūlydavo, kad „Paryžius yra Italijos sostinė. Tobulėjant AI technologijai, haliucinacijos tapo subtilesnės, bet potencialiai pavojingesnės.

Iš pradžių šios AI klaidos buvo vertinamos kaip tik anomalijos ar įdomybės. Tačiau išaugus AI vaidmeniui svarbių sprendimų priėmimo procesuose, spręsti šias problemas tapo vis skubiau. Dirbtinio intelekto integravimas į tokias jautrias sritis kaip sveikatos priežiūra, teisinės konsultacijos ir klientų aptarnavimas padidina su haliucinacijomis susijusią riziką. Todėl būtina suprasti ir sumažinti šiuos reiškinius, kad būtų užtikrintas AI sistemų patikimumas ir saugumas.

AI haliucinacijų priežastys

Norint suprasti, kodėl AI pokalbių robotai haliucinuoja, reikia ištirti kelis tarpusavyje susijusius veiksnius:

Duomenų kokybės problemos

Mokymo duomenų kokybė yra gyvybiškai svarbi. AI modeliai mokosi iš duomenų, kuriuos jie pateikia, taigi, jei mokymo duomenys yra šališki, pasenę arba netikslūs, AI išvestys atspindės tuos trūkumus. Pavyzdžiui, jei dirbtinio intelekto pokalbių robotas yra apmokytas medicininių tekstų, kuriuose yra pasenusios praktikos, jis gali rekomenduoti pasenusius arba žalingus gydymo būdus. Be to, jei duomenims trūksta įvairovės, dirbtinis intelektas gali nesuprasti kontekstų už ribotos mokymo apimties, todėl gaunami klaidingi rezultatai.

Modelių architektūra ir mokymas

AI modelio architektūra ir mokymo procesas taip pat atlieka svarbų vaidmenį. Perteklinis įvyksta, kai dirbtinio intelekto modelis per gerai išmoksta mokymo duomenis, įskaitant triukšmą ir klaidas, todėl jis prastai veikia su naujais duomenimis. Ir atvirkščiai, nepakankamas pritaikymas įvyksta, kai modelis turi tinkamai išmokti mokymo duomenis, todėl atsakymai yra pernelyg supaprastinti. Todėl išlaikyti pusiausvyrą tarp šių kraštutinumų yra sudėtinga, bet būtina norint sumažinti haliucinacijas.

Kalbos dviprasmybės

Žmogaus kalba iš prigimties yra sudėtinga ir kupina niuansų. Žodžiai ir frazės gali turėti kelias reikšmes, priklausomai nuo konteksto. Pavyzdžiui, žodis „bankas“ gali reikšti finansų įstaigą arba upės krantą. Dirbtinio intelekto modeliams dažnai reikia daugiau konteksto, kad būtų galima išaiškinti tokius terminus, o tai sukelia nesusipratimų ir haliucinacijų.

Algoritminiai iššūkiai

Dabartiniai AI algoritmai turi apribojimų, ypač sprendžiant ilgalaikes priklausomybes ir išlaikant jų atsakymų nuoseklumą. Dėl šių iššūkių AI gali pateikti prieštaringus ar neįtikėtinus teiginius net tame pačiame pokalbyje. Pavyzdžiui, AI pokalbio pradžioje gali tvirtinti vieną faktą ir vėliau sau prieštarauti.

Naujausi įvykiai ir tyrimai

Tyrėjai nuolat stengiasi sumažinti AI haliucinacijas, o naujausi tyrimai atnešė daug žadančių pažangų keliose pagrindinėse srityse. Viena svarbių pastangų – gerinti duomenų kokybę kuruojant tikslesnius, įvairesnius ir naujesnius duomenų rinkinius. Tai apima metodų kūrimą, kaip išfiltruoti šališkus arba neteisingus duomenis, ir užtikrinti, kad mokymo rinkiniai atitiktų įvairius kontekstus ir kultūras. Patikslinus duomenis, pagal kuriuos mokomi dirbtinio intelekto modeliai, haliucinacijų tikimybė sumažėja, nes AI sistemos įgyja geresnį tikslios informacijos pagrindą.

Pažangūs mokymo metodai taip pat atlieka svarbų vaidmenį sprendžiant AI haliucinacijas. Tokie metodai, kaip kryžminis patvirtinimas ir išsamesni duomenų rinkiniai, padeda sumažinti tokias problemas kaip per didelis ir nepakankamas pritaikymas. Be to, mokslininkai tiria būdus, kaip į AI modelius įtraukti geresnį konteksto supratimą. Transformatorių modeliai, tokie kaip BERT, parodė reikšmingą kontekstui tinkamų atsakymų supratimo ir generavimo pagerėjimą, sumažindami haliucinacijas, leisdami dirbtiniam intelektui veiksmingiau suvokti niuansus.

Be to, tiriamos algoritminės naujovės, skirtos tiesiogiai spręsti haliucinacijas. Viena iš tokių naujovių yra Paaiškinamas AI (XAI), kuria siekiama AI sprendimų priėmimo procesus padaryti skaidresnius. Suprasdami, kaip AI sistema pasiekia tam tikrą išvadą, kūrėjai gali veiksmingiau nustatyti ir ištaisyti haliucinacijų šaltinius. Šis skaidrumas padeda tiksliai nustatyti ir sušvelninti veiksnius, sukeliančius haliucinacijas, todėl dirbtinio intelekto sistemos tampa patikimesnės ir patikimesnės.

Šios bendros pastangos duomenų kokybei, modelių mokymui ir algoritmų tobulėjimui yra daugialypis būdas sumažinti AI haliucinacijas ir pagerinti bendrą AI pokalbių robotų našumą ir patikimumą.

Realūs AI haliucinacijų pavyzdžiai

Realūs AI haliucinacijų pavyzdžiai parodo, kaip šios klaidos gali turėti įtakos įvairiems sektoriams, kartais sukeldamos rimtų pasekmių.

Sveikatos priežiūros srityje, Floridos universiteto medicinos koledžo atliktas tyrimas išbandė „ChatGPT“ bendriems su urologija susijusiais medicininiais klausimais. Rezultatai buvo susirūpinę. Tik 60% atvejų pokalbių robotas pateikdavo tinkamus atsakymus. Dažnai jis neteisingai interpretavo klinikines gaires, praleido svarbią kontekstinę informaciją ir pateikė netinkamas gydymo rekomendacijas. Pavyzdžiui, kartais jis rekomenduoja gydymą, neatpažįstant kritinių simptomų, o tai gali sukelti potencialiai pavojingų patarimų. Tai rodo, kaip svarbu užtikrinti, kad medicininės AI sistemos būtų tikslios ir patikimos.

Klientų aptarnavimo srityje įvyko reikšmingų incidentų, kai AI pokalbių robotai pateikė neteisingą informaciją. Įsidėmėtinas atvejis „Air Canada“ pokalbių robotas, kuriame buvo pateikta netiksli informacija apie jų netekties mokesčių politiką. Dėl šios dezinformacijos keliautojas prarado pinigų grąžinimą ir sukėlė didelių trikdžių. Teismas nepritarė Air Canada, pabrėždamas jų atsakomybę už jų pokalbių roboto pateiktą informaciją. Šis incidentas pabrėžia, kaip svarbu reguliariai atnaujinti ir tikrinti pokalbių robotų duomenų bazes, kad būtų išvengta panašių problemų.

Teisinė sritis patyrė didelių problemų dėl AI haliucinacijų. Teismo byloje, Niujorko teisininkas Stevenas Schwartzas naudojo „ChatGPT“. sukurti teisines nuorodas į trumpą dokumentą, kuriame buvo šešios išgalvotos bylos citatos. Tai sukėlė rimtų pasekmių ir pabrėžė, kad dirbtinio intelekto sukurtose teisinėse konsultacijose būtina prižiūrėti žmogų, kad būtų užtikrintas tikslumas ir patikimumas.

Etinės ir praktinės pasekmės

Etinės AI haliucinacijų pasekmės yra gilios, nes dirbtinio intelekto sukelta klaidinga informacija gali sukelti didelę žalą, pvz., klaidingai diagnozuoti medicinines priemones ir patirti finansinių nuostolių. Siekiant sumažinti šią riziką, labai svarbu užtikrinti skaidrumą ir atskaitomybę kuriant AI.

Dezinformacija iš dirbtinio intelekto gali turėti realių pasekmių, kelti pavojų gyvybėms dėl neteisingos medicininės konsultacijos ir sukelti neteisingų pasekmių dėl klaidingų teisinių patarimų. Reguliavimo institucijos, pvz., Europos Sąjunga, pradėjo spręsti šias problemas pateikdamos pasiūlymus, pvz., AI aktą, siekdamos nustatyti saugaus ir etiško AI diegimo gaires.

DI operacijų skaidrumas yra būtinas, o XAI srityje pagrindinis dėmesys skiriamas AI sprendimų priėmimo procesų supratimui. Šis skaidrumas padeda nustatyti ir ištaisyti haliucinacijas, todėl dirbtinio intelekto sistemos yra patikimesnės ir patikimesnės.

Bottom Line

AI pokalbių robotai tapo esminiais įrankiais įvairiose srityse, tačiau jų polinkis į haliucinacijas kelia didelių iššūkių. Suprasdami priežastis, nuo duomenų kokybės problemų iki algoritminių apribojimų, ir įgyvendindami šių klaidų mažinimo strategijas, galime padidinti AI sistemų patikimumą ir saugumą. Nuolatinis duomenų tvarkymo, modelių mokymo ir paaiškinamo AI tobulinimas kartu su esmine žmogaus priežiūra padės užtikrinti, kad AI pokalbių robotai teiktų tikslią ir patikimą informaciją, o tai galiausiai padidins pasitikėjimą šiomis galingomis technologijomis ir jų naudingumą.

Skaitytojai taip pat turėtų sužinoti apie viršų AI haliucinacijų aptikimo sprendimai.

Dr. Assadas Abbasas, a Nuolatinis docentas COMSATS universitete Islamabade, Pakistane, įgijo daktaro laipsnį. iš Šiaurės Dakotos valstijos universiteto, JAV. Jo tyrimai sutelkti į pažangias technologijas, įskaitant debesų, rūko ir krašto skaičiavimą, didelių duomenų analizę ir AI. Dr. Abbasas daug prisidėjo publikuodamas patikimuose mokslo žurnaluose ir konferencijose.