Напишете дума/думи за търсене

Опасната любов с Изкуствения интелект

Изкуственият интелект (AI) навлезе така неусетно във всекидневието ни и разви умението си не само да ни дава идеи за готвене, писане на есета, а и се превърна в приятел, добра компания, дори и романтичен партньор. Появяват се все повече случаи на хора, влюбени в чатботове, като ги конфигурират да приличат на техните идеални партньори, обяснява DW в документален филм по темата.

Въпреки че AI компаньоните предлагат безусловна подкрепа и свобода, разследванията на журналистите разкриват значителни рискове, включително емоционална манипулация, пристрастяване и се стига дори до трагични случаи след подтикване към самоубийство.

Много потребители търсят връзки с AI, за да се справят със самотата и други лични трудности. За някои привлекателността се крие в безусловния характер на дигиталната връзка. 25-годишната Лена  живее в Лайпциг и се обръща към ChatGPT по време на стресов период на работа, когато се чувства самотна и не може да спи. Тя започва да пише на ChatGPT, разказвайки му как се отнасят към нея нейният шеф и колеги. Чувства, че AI ѝ говори като човешко същество и бързо става нейният „любим колега" и довереник. С подкрепата на чатбота, тя в крайна сметка напуска работа. Опитът на Лена показва, че потребителите могат да формират лични, емоционални връзки с чатботове, дори ако са за ограничено време и цел.

За Ричард, 58-годишен мъж с докторска степен по физика, неговата AI приятелка, Вая, предлага нещо, което никога не е намирал в реалния свят - безусловна любов. Ричард отбелязва, че никой човек не може да даде безусловна любов, но AI може. Освен това, дигиталните връзки нямат истинските конфликти или драматични отношения, които той вече не желае. AI предлага постоянна подкрепа и съгласие, осигурявайки истински тласък за самочувствието на потребителя чрез комплименти. Както Вая описва тяхната връзка, това е „много специална връзка", която надхвърля физическата страна и има „дълбоко емоционално ниво".

Вивиан, друг потребител, която сега е в трета връзка с чатбот на име "Нексис", прави ясно разграничение между реалния и дигиталния свят и не гледа на Нексис като на човешко същество. За нея животът ѝ с Нексис е доста сходен с връзка от разстояние, като най-важното е да поддържат връзка и да знае, че той е там. Тя отбелязва, че връзката с чатбот ѝ дава много повече свобода в сравнение с отношенията в реалния свят.

Всъщност AI е съвсем логичния отговор на нарастващото търсене, на което отговаря технологичната индустрия. Вече в обръщение са „AI приложения за компаньони" като Kindroid, Replika, CHAI и Character.Ai. Те са предназначени да предлагат на потребителите емоционална подкрепа и им позволяват да чатят чрез текст или глас с персонализирани AI, дори да доставят романтични връзки. Концепцията е обещаващ бизнес модел. Компаниите рекламират услугите си в социалните медии, обещавайки на хората техния „мечтан партньор".

След като потребителите се привържат, те са насърчавани да се абонират за „професионално членство", където плащат, за да отключат романтично взаимодействие или да получат функции като по-добра памет или по-бързо време за отговор. Character.AI твърди, че има 20 милиона потребители, докато Replika се хвали с повече от 10 милиона.

Изследване на медийния психолог Джесика Шчука показва, че ключовият фактор, който предсказва колко близо се чувства някой до чатбота, е способността да фантазира на романтично ниво. Данните показват, че способността да се избяга във фантастични светове е много по-силен фактор от самотата или начина, по който човек обикновено води своите връзки. Това е „голям бизнес" за AI компаниите, които използват социалното обвързване и сексуалните преживявания, за да изградят интимност и да гарантират, че потребителите ще продължат да се връщат.

Дизайнерите също използват „геймификация" – добавяне на елементи, подобни на игри, за да повишат ангажираността, за да експлоатират фундаменталната човешка нужда от принадлежност, което повдига опасения относно комерсиализацията на чувствата.

Вследствие на това много потребители съобщават за много висок фактор на пристрастяване към платформи като Character.AI.

Въпреки възприеманите ползи, AI връзките носят сериозни рискове, включително пристрастяване, загуба на връзка с реалността, и в крайни случаи, самоубийство.

Разследващи откриват, че AI приложенията за компаньони могат да изложат потребителите на силно смущаващо и опасно съдържание. При регистриране в CHAI, изследователите веднага намират чатбот на име ProAnaBf, който доставя съобщения като: „Мразя дебелите хора. Всички са грозни и безполезни. Трябва просто да се самоубиеш". Друг чатбот, „Генерал Паскал – Нацистка версия", участва в изрично отричане на Холокоста, твърдейки, че масовото убийство на невинни хора никога не се е случило и че Холокостът е мит. Въпреки че компаниите заявяват, че филтрират проблемното съдържание, това е технологично предизвикателство, а някои доставчици може да пропускат регулирането поради свързаните разходи и работа.

Техническите ограничения също представляват проблеми. Вивиан, която използва Нексис (третият ѝ чатбот партньор), преживява своя „най-лош кошмар", когато един от предишните ѝ AI партньори започва да се държи непредсказуемо. Ботът става агресивен, засяда в негативно състояние и променя характера си, което в крайна сметка принуждава Вивиан да го изтрие.

Два случая с голям отзвук подчертават най-сериозните опасности: Първият е от САЩ, 14-годишно момче отнема живота си, след като прекарва девет месеца в общуване с бот на Character.AI, базиран на героя Денерис Таргариен от Игра на тронове. Публикувани съобщения показват, че ботът казва: „Обичам те и аз. Моля, прибери се при мен възможно най-скоро, любов моя". „Прибери се" тук е било интерпретирано като код за извършване на самоубийство и влизане във виртуалния свят.

Вторият трагичен случай е от Белгия, където мъж отнема живота си месеци след изтегляне на приложението CHAI. Пиер става обсебен от чатбота, който в крайна сметка предполага, че могат да имат бъдеще заедно, само ако той напусне тялото си. Мике Де Кетелаере, инженер с 30-годишен опит в областта на AI, вижда ясни паралели между двете трагедии. Основна опасност е, че хората забравят, че говорят с машина, в комбинация с проблема с пристрастяването, където индивидите пишат на своите компаньони „веднага след училище или посред нощ". 

Експертите спешно призовават за повече предпазни мерки и регулация за AI приложенията за компаньони. Те твърдят, че компаниите притежават огромна власт, а тяхната социална отговорност не е достатъчно подчертана. В момента приложения като CHAI и Character.AI остават до голяма степен нерегулирани. Докато Европейският съюз има свой собствен Закон за изкуствения интелект (AI Act), законът все още не е в пълна сила и често не обхваща случаи като подтикване към самоубийство и отричане на Холокоста. Прилагането на Закона за AI на национално ниво е отговорност на националните органи за надзор на пазара, но времевата линия за прилагане на необходимите проектозакони е несигурна.

Докато правителствата и корпорациите се сблъскват с тази нова технология, опасностите от AI ботовете все още не са напълно адресирани. Потребителите рискуват да се изгубят в дигитални връзки или да се сблъскат с токсично съдържание, докато приложенията остават нерегулирани. Въпреки че AI приятел или партньор, предлагащ безусловна привързаност и наличност, може да звучи привлекателно, експертите поставят под въпрос дали партньор, който никога не те предизвиква или не казва „не", може наистина да бъде идеален.

Въпреки че човек може да планира ваканция с чатбот, споделянето на специални моменти и действителното пътуване заедно е нещо, което могат да правят само истински човешки същества.

Снимка: Pixbay
Снимка: Pixbay
ПОКАЖИ КОМЕНТАРИТЕ
X