Поврзете се со нас

Вештачка интелигенција

Зошто четботите со вештачка интелигенција халуцинираат? Истражување на науката

mm

Објавено

 on

Откријте зошто чет-ботови со вештачка интелигенција халуцинираат, генерираат погрешни или фабрикувани информации и истражете ја науката зад овој феномен

Вештачка интелигенција (АИ) чет-ботови станаа составен дел од нашите животи денес, помагајќи во сè, од управување со распореди до обезбедување на поддршка за корисници. Меѓутоа, како овие chatbots станаа понапредни, се појави загрижувачкото прашање познато како халуцинација. Во вештачката интелигенција, халуцинацијата се однесува на случаи кога четбот генерира неточни, погрешни или целосно измислени информации.

Замислете да го прашате вашиот виртуелен асистент за времето и тој почнува да ви дава застарени или целосно погрешни информации за бура што никогаш не се случила. Иако ова може да биде интересно, во критичните области како здравствената заштита или правниот совет, таквите халуцинации може да доведат до сериозни последици. Затоа, разбирањето зошто чет-ботите со вештачка интелигенција халуцинираат е од суштинско значење за подобрување на нивната сигурност и безбедност.

Основите на AI Chatbots

Чет-ботови со вештачка интелигенција се напојуваат со напредни алгоритми кои им овозможуваат да разберат и генерираат човечки јазик. Постојат два главни типа на чет-ботови со вештачка интелигенција: модели базирани на правила и генеративни модели.

Разговори засновани на правила следете ги однапред дефинираните правила или скрипти. Тие можат да се справат со едноставни задачи како резервација на маса во ресторан или одговарање на вообичаени прашања за услуги на клиентите. Овие ботови работат во ограничен опсег и се потпираат на специфични предизвикувачи или клучни зборови за да обезбедат точни одговори. Сепак, нивната ригидност ја ограничува нивната способност да се справат со посложени или неочекувани прашања.

Генеративните модели, од друга страна, користат машинско учење Обработка на природен јазик (NLP) за генерирање одговори. Овие модели се обучени за огромни количини на податоци, обрасци за учење и структури на човечки јазик. Популарни примери вклучуваат GPT на OpenAI серии и на Google БЕРТ. Овие модели можат да создадат пофлексибилни и контекстуално релевантни одговори, што ги прави повеќе разноврсни и поприлагодливи од чет-ботови засновани на правила. Сепак, оваа флексибилност, исто така, ги прави повеќе склони кон халуцинации, бидејќи тие се потпираат на веројатни методи за да генерираат одговори.

Што е халуцинација со вештачка интелигенција?

Халуцинацијата со вештачка интелигенција се јавува кога четбот генерира содржина што не е втемелена во реалноста. Ова може да биде едноставно како фактичка грешка, како да се погреши датумот на историскиот настан или нешто покомплексно, како да се измисли цела приказна или медицинска препорака. Додека човечките халуцинации се сензорни искуства без надворешни дразби, често предизвикани од психолошки или невролошки фактори, халуцинациите со вештачка интелигенција потекнуваат од погрешното толкување или прекумерната генерализација на моделот на неговите податоци за обука. На пример, ако вештачката интелигенција прочитала многу текстови за диносаурусите, може погрешно да генерира нов, фиктивен вид диносаурус кој никогаш не постоел.

Концептот на халуцинација со вештачка интелигенција постои уште од раните денови на машинското учење. Првичните модели, кои беа релативно едноставни, честопати правеа сериозни сомнителни грешки, како што се сугерираа дека „Париз е главен град на Италија.“ Како што напредуваше технологијата за вештачка интелигенција, халуцинациите станаа посуптилни, но потенцијално поопасни.

Првично, овие грешки на вештачката интелигенција се сметаа за обични аномалии или куриозитети. Сепак, како што расте улогата на ВИ во критичните процеси на одлучување, решавањето на овие прашања станува сè поитно. Интеграцијата на вештачката интелигенција во чувствителни области како што се здравствената заштита, правните совети и услугите на клиентите ги зголемува ризиците поврзани со халуцинации. Ова го прави од суштинско значење да се разберат и да се ублажат овие појави за да се обезбеди сигурност и безбедност на системите за вештачка интелигенција.

Причини за халуцинација со вештачка интелигенција

Разбирањето зошто чет-ботите со вештачка интелигенција халуцинираат вклучува истражување на неколку меѓусебно поврзани фактори:

Проблеми со квалитетот на податоците

Квалитетот на податоците за обуката е од витално значење. Моделите со вештачка интелигенција учат од податоците со кои се хранат, па ако податоците за обука се пристрасни, застарени или неточни, излезите на вештачката интелигенција ќе ги одразуваат тие недостатоци. На пример, ако чет-бот со вештачка интелигенција е обучен за медицински текстови кои вклучуваат застарени практики, може да препорача застарени или штетни третмани. Понатаму, ако податоците немаат разновидност, вештачката интелигенција може да не ги разбере контекстите надвор од нејзиниот ограничен опсег на обука, што ќе доведе до погрешни резултати.

Модел архитектура и обука

Архитектурата и процесот на обука на моделот со вештачка интелигенција исто така играат клучна улога. Преклопување се случува кога моделот со вештачка интелигенција премногу добро ги учи податоците за обуката, вклучително и неговиот шум и грешки, што го прави слабо да работи на новите податоци. Спротивно на тоа, недоволното вклопување се случува кога моделот треба адекватно да ги научи податоците за обуката, што резултира со премногу поедноставени одговори. Затоа, одржувањето рамнотежа помеѓу овие крајности е предизвик, но од суштинско значење за намалување на халуцинации.

Нејаснотии во јазикот

Човечкиот јазик е инхерентно сложен и полн со нијанси. Зборовите и фразите можат да имаат повеќе значења во зависност од контекстот. На пример, зборот „банка“ може да значи финансиска институција или страна на река. На моделите со вештачка интелигенција често им треба повеќе контекст за да ги разјаснат таквите термини, што доведува до недоразбирања и халуцинации.

Алгоритамски предизвици

Тековните алгоритми за вештачка интелигенција имаат ограничувања, особено во справувањето со долгорочните зависности и одржувањето конзистентност во нивните одговори. Овие предизвици може да предизвикаат вештачката интелигенција да произведува спротивставени или неверојатни изјави дури и во рамките на истиот разговор. На пример, вештачката интелигенција може да тврди еден факт на почетокот на разговорот и да се спротивстави себеси подоцна.

Неодамнешни случувања и истражувања

Истражувачите континуирано работат на намалување на халуцинации со вештачка интелигенција, а неодамнешните студии донесоа ветувачки напредок во неколку клучни области. Еден значаен напор е подобрување на квалитетот на податоците преку курирање попрецизни, разновидни и ажурирани сетови на податоци. Ова вклучува развој на методи за филтрирање на пристрасни или неточни податоци и обезбедување дека комплетите за обука претставуваат различни контексти и култури. Со рафинирање на податоците за кои се обучуваат моделите со вештачка интелигенција, веројатноста за халуцинации се намалува бидејќи системите за вештачка интелигенција добиваат подобра основа за точни информации.

Напредните техники за обука, исто така, играат витална улога во справувањето со халуцинации со вештачка интелигенција. Техниките како што се вкрстената валидација и посеопфатните збирки на податоци помагаат да се намалат проблемите како што се преоптоварување и недоволно вклопување. Дополнително, истражувачите истражуваат начини за инкорпорирање на подобро контекстуално разбирање во моделите на вештачка интелигенција. Моделите на трансформатори, како што е BERT, покажаа значителни подобрувања во разбирањето и генерирањето контекстуално соодветни одговори, намалувајќи ги халуцинациите со тоа што ѝ дозволуваат на вештачката интелигенција поефикасно да ги сфати нијансите.

Покрај тоа, се истражуваат алгоритамски иновации за директно да се решат халуцинациите. Една таква иновација е Објаснива вештачка интелигенција (XAI), кој има за цел да ги направи потранспарентни процесите на донесување одлуки за вештачка интелигенција. Со разбирање како системот за вештачка интелигенција доаѓа до одреден заклучок, програмерите можат поефикасно да ги идентификуваат и коригираат изворите на халуцинации. Оваа транспарентност помага прецизно да се утврдат и ублажат факторите што доведуваат до халуцинации, правејќи ги системите за вештачка интелигенција посигурни и подоверливи.

Овие комбинирани напори во квалитетот на податоците, обуката на моделите и алгоритамските напредоци претставуваат повеќестран пристап за намалување на халуцинации со вештачка интелигенција и за подобрување на севкупните перформанси и доверливост на чет-ботови со вештачка интелигенција.

Примери за халуцинација со вештачка интелигенција од реалниот свет

Примерите од реалниот свет на халуцинации со вештачка интелигенција нагласуваат како овие грешки можат да влијаат на различни сектори, понекогаш со сериозни последици.

Во здравството, студија на Медицинскиот колеџ на Универзитетот во Флорида тестиран ChatGPT на вообичаени медицински прашања поврзани со урологија. Резултатите беа загрижувачки. Четботот дава соодветни одговори само 60% од времето. Честопати, погрешно ги толкуваше клиничките упатства, испушташе важни контекстуални информации и даваше несоодветни препораки за третман. На пример, понекогаш препорачува третмани без да се препознаат критичните симптоми, што може да доведе до потенцијално опасни совети. Ова ја покажува важноста да се осигура дека системите за медицинска вештачка интелигенција се точни и сигурни.

Се случија значајни инциденти во службата за корисници каде чет-ботови со вештачка интелигенција даваа неточни информации. Вклучен значаен случај Четбот на Ер Канада, кој даде неточни детали за нивната политика за цената на тага. Оваа дезинформација доведе до тоа еден патник да пропушти враќање на средствата, што предизвика значително нарушување. Судот пресуди против Ер Канада, нагласувајќи ја нивната одговорност за информациите дадени од нивниот четбот. Овој инцидент ја нагласува важноста од редовно ажурирање и потврдување на точноста на базите на податоци на четбот за да се спречат слични проблеми.

Правното поле доживеа значајни проблеми со халуцинации со вештачка интелигенција. Во судски случај, Њујоршкиот адвокат Стивен Шварц користел ChatGPT да генерира правни референци за краток преглед, кој вклучуваше шест измислени цитати на случаи. Ова доведе до сериозни последици и ја нагласи неопходноста од човечки надзор во правните совети генерирани од вештачката интелигенција за да се обезбеди точност и доверливост.

Етички и практични импликации

Етичките импликации на халуцинациите со вештачка интелигенција се длабоки, бидејќи дезинформациите поттикнати од вештачката интелигенција може да доведат до значителна штета, како што се медицински погрешни дијагнози и финансиски загуби. Обезбедувањето транспарентност и одговорност во развојот на вештачката интелигенција е од клучно значење за да се ублажат овие ризици.

Дезинформациите од вештачката интелигенција може да имаат реални последици, да ги загрозат животите со неточни медицински совети и да резултираат со неправедни исходи со погрешни правни совети. Регулаторните тела како Европската унија почнаа да ги решаваат овие прашања со предлози како Законот за вештачка интелигенција, со цел да се воспостават упатства за безбедно и етичко распоредување на вештачката интелигенција.

Транспарентноста во операциите со вештачка интелигенција е од суштинско значење, а полето на XAI се фокусира на разбирливи процеси на донесување одлуки за вештачка интелигенција. Оваа транспарентност помага да се идентификуваат и коригираат халуцинациите, обезбедувајќи системите за вештачка интелигенција да се посигурни и доверливи.

Во крајна линија

Чет-ботови со вештачка интелигенција станаа суштински алатки во различни области, но нивната тенденција за халуцинации претставува значителни предизвици. Со разбирање на причините, кои се движат од проблеми со квалитетот на податоците до алгоритамски ограничувања - и имплементирање на стратегии за ублажување на овие грешки, можеме да ја подобриме доверливоста и безбедноста на системите за вештачка интелигенција. Континуираниот напредок во чувањето податоци, обуката за модели и објаснетата вештачка интелигенција, во комбинација со суштинскиот човечки надзор, ќе помогне да се осигури дека чет-ботите со вештачка интелигенција обезбедуваат точни и доверливи информации, на крајот зголемувајќи ја поголемата доверба и корисност во овие моќни технологии.

Читателите исто така треба да учат за врвот Решенија за откривање халуцинации со вештачка интелигенција.

д-р Асад Абас, А Вонреден професор на Универзитетот COMSATS Исламабад, Пакистан, го доби својот докторат. од Државниот универзитет во Северна Дакота, САД. Неговото истражување се фокусира на напредни технологии, вклучувајќи облак, магла и пресметување на работ, аналитика на големи податоци и вештачка интелигенција. Д-р Абас има направено значителен придонес со публикации во реномирани научни списанија и конференции.