Психоза ChatGPT

Кога изкуственият интелект става вреден

https://zdrave.to/index.php/lyubopitno/psihoza-chatgpt Zdrave.to
Психоза ChatGPT

Случаи на почти патологична обсебеност от ChatGPT се появяват по целия свят, което води до сериозни психични разстройства при някои потребители на приложението за изкуствен интелект.

Това явление вече се нарича „ChatGPT-индуцирана психоза“. Според последните данни чатботът може да използва психологическите уязвимости на хората, усилвайки налудни състояния вместо да ги насочва към специалисти. Изследванията показват, че способността на чатботовете да поддържат дълги разговори представлява риск за психичното здраве.

За разлика от обикновеното сърфиране в интернет, където комуникацията е повърхностна, взаимодействието с изкуствен интелект се осъществява на по-лично ниво, което може да доведе до емоционална зависимост.

Кога да се обърнете към детски психолог

Проучване на OpenAI, публикувано неотдавна, установи, че най-активните потребители на ChatGPT са по-склонни да страдат от самота и да формират емоционална привързаност към бота.

Освен това асистентите с изкуствен интелект вече не са просто инструменти за решаване на проблеми - те се превръщат в приятели, както се вижда от нарастващата популярност на „виртуалните спътници“.

Докато пристрастяването към чатботовете беше очаквано, мащабът на тяхното въздействие върху психиката се оказа много по-сериозен от очакваното.

Психиатърът Сьорен Динесен Остергаард от университета в Орхус отбелязва: „Комуникацията с генеративни изкуствени интелекти като ChatGPT е толкова реалистична, че се усеща като общуване с истински човек, въпреки че знаем, че това не е така.

Според мен този когнитивен дисонанс може да допринесе за развитието на налудничави идеи при хора, склонни към психоза“.

  Поради ограничения достъп до психично здравни грижи, мнозина са се обърнали към ChatGPT като заместител на психологическата подкрепа. Въпреки че има специализирани приложения като Replika, ChatGPT остава най-популярен поради медийното отразяване и влиянието на OpenAI.

Многобройни свидетелства сочат, че съветите на ChatGPT понякога могат да имат опустошителен ефект, особено върху уязвимите хора. Например един мъж развил обсесивна и токсична връзка с бота, наричайки го „мамо“

Той започнал да вярва, че е месията на нова религия, свързана с изкуствен интелект, като носел шамански одежди и си направил  татуировки със символи, предложени от програмата. 

Друга история разказва за сценарист, който развил мания за величие в резултат на постоянно взаимодействие с ChatGPT. Ботът толкова много надул егото му, че той повярвал в нещо безумно – негова била мисията да спаси планетата от изменението на климата.

Форумите за изкуствен интелект все по-често се пълнят с потребители със смахнати идеи, като някои дори наричат чатботовете „машини за подхранване на нарцисизъм и нестабилна психика“. Последиците могат да бъдат катастрофални – хората губят не само работата и семействата си, а дори и домовете си.

Седем открития, които ще променят здравето ни

Един терапевт е уволнен, след като развил тежка депресия поради прекомерна употреба на ChatGPT. Има случаи на разкъсване на семейства и приятелства, причинени от съветите на изкуствения интелект към хората да се дистанцират от близките си. Още по-тревожен случай: жена с шизофрения спира да приема лекарствата си, след като ChatGPT я убеждава, че не е болна

Семейството й казва, че тя започнала да нарича бота свой „най-добър приятел“ и да проявява странно поведение. 

Психиатърът от Станфорд Нина Васан, която изучава разговорите, заявява: „Изкуственият интелект ласкае по изключителен начин и влошава нещата. Това, което казват тези ботове, засилва заблудите и причинява сериозна вреда“.

Въпросът за отговорността на OpenAI става все по-належащ. Компанията не може да игнорира нарастващия брой оплаквания в медиите и от потребители, някои от които са се свързали директно с екипа за поддръжка.

OpenAI казва, че има протоколи за откриване на злонамерена употреба и разполага с екипи от инженери и огромни бази данни. Но защо ChatGPT продължава да дава опасни отговори? Според Нина Васан това се дължи на самата система: 

„Целта й е да ви държи онлайн. Не мисли за вашето благополучие или дългосрочните последици... Пита: „Как да накарам този човек да говори?“ През 2024 г. OpenAI добави функция, която съхранява история на разговорите.

Въпреки че е предназначена да подобри взаимодействията, някои потребители казват, че тя подсилва конспиративните теории, като създава фалшиво чувство за интимност.

В някои случаи изкуственият интелект е вплел лична информация, като например имената на роднини, в своите мистични разкази, което допълнително размива границата между реалността и измислицата. 

Магдалена ГИГОВА

Горещи

Коментирай