Напишете дума/думи за търсене

Колко е опасно за хората алгоритмичното пристрастие?

Търсите оферта за работа. Подавате жалба в отдела за обслужване на клиенти. Информирате се за кредит или друг банков продукт. Резервирате самолетен билет или хотел. Новините, информацията и рекламите, които виждате, когато влизате в социалните си медии... Алгоритмите стоят зад безкрайни ежедневни задачи в повече сектори, отколкото си представяме, което води до феномен, известен като алгоритмично пристрастие.

То представлява безшумни механизми, които все повече и повече движат света, без ние да забележим. И най-удивителното от всичко е, че те се научават да бъдат все по-ефективни с данните, които им предоставяме. Те непрекъснато се адаптират към човешките същества – онези, които са кодирани като „потребители“, опитвайки се да предложат все по-персонализирано, бързо и задоволително изживяване, така че усилието да е минимално за ползвателя.

Пипалата на това алгоритмично пристрастие достигат до приложенията за запознанства, където дори може да посредничи при избора ни на партньор, като ни представи поредица от много конкретни кандидати, уж въз основа на нашите предпочитания.

Алгоритмите се стремят да улеснят живота ни, но в действителност те решават вместо нас.

Какво е алгоритмично пристрастие?
Алгоритмите могат да улеснят живота ни. Ако сте любител на природата и защитник на околната среда, например е много вероятно да намерите все повече и повече информация, свързана с тази тема, във вашите социални медии. Това не е непременно нещо лошо, разбира се. Нещата обаче се променят, когато притесненията ви не са съвсем здравословни.

Нека не забравяме ужасния случай с Моли Ръсел. Тази тийнейджърка търсеше информация, свързана със самоубийство, и дойде време, когато всичко, което нейните социални мрежи й показаха, беше съдържание, свързано с тази тема. Почти без да го осъзнаваме, може да останем пленници на информационен балон, в който други тенденции и разнообразно съдържание вече не си проправят път.

Алгоритмичното пристрастие се отнася до нашето фалшиво чувство за контрол върху информацията, която получаваме, и решенията, които вземаме, защото има смущаващ код, който прониква в ежедневието ни, предлагайки ни постоянно данни, които почти никога не са безпристрастни. Но нека помним, почти винаги има скрити интереси.

Не ние решаваме, правят го алгоритмите вместо нас
Има феномен, който виждаме все по-често в нормализирането на изкуствения интелект. Той ни дава фалшиво чувство за контрол и самоефективност. Това усещане ще се увеличи много повече, когато използването на ChatGPT стане рутинно, за да ни помогне в нашите дипломни работи и безкрайни ежедневни задачи.

Ще се чувстваме по-ефективни, но в действителност този чатбот ще изпълнява задачите, които ни принадлежат. Това невинаги е отрицателно, но увеличава гореспоменатото алгоритмично отклонение. Тоест усещането, че решаваме и действаме без никаква намеса, когато това не е така.

Алгоритмите не са справедливи
Кати О'Нийл е математичка, която написва много популярна книга, озаглавена Weapons of Mathematical Destruction (2016). В нея тя описва алгоритмите като „оръжия за масово унищожение“. Като начало, тези изчислителни стойности не са освободени от морални и културни пристрастия, да не говорим за интересите зад тях.

В книгата тя разказва за случая на учителка, уволнена в резултат на негативна оценка за нея, извършена от алгоритъм. В тази оценка били анализирани данни от лични съобщения, медицински доклади и други. Същото се случва и при оценката на преотстъпване на ипотеки или някакъв вид помощ. Определени етнически групи, например, винаги ще бъдат в неравностойно положение.

Повечето компании и организации обаче валидират тези бързи анализи. Пристрастността на алгоритъма ги кара да заключат, че това, което анализира той, винаги ще бъде валидно, дори и да не е честно, и често тези данни дори не се събират лично.

Алгокрация: алгоритми в услуга на политиката
Често казваме, че политиците са далеч от истинските проблеми на хората. Подлагаме на съмнение техните идеи, защото те не отговарят на нуждите на своите избиратели. Друга критика е прекомерното им харчене на държавни пари за съветници, лошото управление и грешките им при вземане на решения и създаване на законодателство.

Наскоро разследване, публикувано от консултантската компания Deloitte, разказа за нещо много поразително. Може да има бъдеще, в което алгоритмите и изкуственият интелект ще поемат голяма част от задачите на политиците. Те могат просто да анализират данните, които големите технологични компании събират за нас с нашите мобилни телефони. По този начин те ще знаят нашите нужди и ще могат да дадат по-подходящи социални отговори.

По същия начин изкуственият интелект може да бъде обучен така, че политическото управление да не е измама. Неговият аналитичен капацитет би заменил множество съветници и би спестил безкрайната работа на публичните органи. Алгокрацията, разбирана като силата на алгоритмите да заменят работата на политиците, може да ни изглежда най-антиутопична, но е реална възможност.

Университетът в Утрехт проведе проучване, което показа, че позволяването на алгоритмите да заменят всички бюрократични аспекти на държавните организации може да бъде от полза. Причината? Гражданите са склонни да имат по-голямо доверие в управлението, което една машина може да извърши, отколкото в това, извършвано от политик (друго очевидно пристрастие).

Заключение
Алгоритмичното пристрастие става все по-силно. Ще продължим да мислим, че много от покупките, които правим, хората, на които обръщаме внимание в социалните мрежи, или идеите, които смятаме за верни, са продукт на нашата воля. Ще продължим да се възприемаме като хора със свободни умове, докато в действителност мълчаливо ще ставаме все по-обусловени от технологиите.

Виждаме това особено при младите хора, които са все по-нещастни, защото живеят в цифрова вселена, основана на социално сравнение. Трябва да разберем, че алгоритмите не са обекти, които възникват сами. По-скоро зад тях стоят големи компании, които ги програмират. И такова програмиране винаги има цел.

Ако сме се запътили към бъдеще, в което хората и изкуственият интелект работят заедно, трябва тези, които обучават и програмират AI, да бъдат прозрачни за своите изобретения и да изхождат от по-етични, справедливи, морални и здравословни ценности. Трябва да регулираме тези механизми, които все повече променят поведението на потребителите. Тоест всеки един от нас.

ПОКАЖИ КОМЕНТАРИТЕ
X