Изкуственият Интелект влиза в нова фаза на развитие и съществуване. Ако сте от тези, които обичат да участват в разни трендове, включващи ИИ и за тези, които са скептично настроени към подобни изяви – вижте това видео. Ще разберете и какви психологически манипулации биват прилагани върху хората за да участват без да знаят в обучението на Изкуствения Интелект както и да се разкриват без да се усетят.
Линк към видеото, ако предпочитате да слушате и гледате:
https://youtu.be/j2mvLCquDg0

Текстът, ако предпочитате да четете:
За тези, които обичат да участват в разни трендове, включващи Изкуствен Интелект и за тези, които са скептично настроени към подобни изяви. Информацията е за всички.
Взимаме един от последните трендове, който беше спуснат сред потребителите на социалните платформи. Уж невинно, така на игра. В него, с ентусиазъм взеха участие хиляди хора. Съвсем доброволно се впуснаха в този експеримент, който не го виждаха за такъв, а го приемаха като просто една забавна игра. В подканянето на хората да се включат взеха участие и част от нашите родни инфлуенсъри – къде поради незнание и наивност или защото са имали поръчка – това не мога да знам.
Става въпрос за задачата, която хората даваха на Изкуствения Интелект със следния текст:
„Създай картинка на мен и работата ми въз основа на всичко, което знаеш за мен.“
(“Create a caricature of me and my job based on everything you know about me.”)
В това видео ще ви разкажа какви данни бяха събирани от участниците в тази уж игра; кои дълбоки психологически механизми тихо бяха активирани, за да може повече хора да участват без да се задействат защитните им бариери; и какви са съветите, които да приложим в опит да запазим своята идентичност не толкова изложена на показ.
Освен че беше събирана индивидуална информация за потребителя, която би могла да се ползва за доставянето на насочени реклами, това също така беше задача и за събиране на модели относно хората – в опит да се разбере „Как хората искат да бъдат разбирани от машините?“. Защото вече разработчиците са навлезли в ниво от това “Изкуственият Интелект да е просто инструмент” към това “да влезе в ролята на Спътник”.
Знаете ли защо това проучване, маскирано под формата на случаен моден и забавен тренд беше толкова успешно? Защото не извличаше информация просто така, а провокираше себеинтерпретация.
А хората обожават да интерпретират себе си — особено когато се чувстват в безопасност, разбрани и обгърнати в лека мистерия.
Ето данните, които бяха събирани:
Данни за самоличността – събираше се информация как хората виждат себе си, а не просто кои са те. А това е, тъй да се каже, „златна мина“. Казвайки „въз основа на всичко, което знаеш за мен“, хората мълчаливо приемат:
* че системата вече има изграден модел за тях;
* че този модел е смислен;
* че е приемливо да проектират идентичността си чрез него.
Данни за Професионална идентичност и стремежи – беше отчетено чрез корекциите, които даваха самите хора:
„Всъщност, не съм такъв.“
„Работата ми е по-скоро като…“
„Иска ми се да показваше…“
Това излага на показ:
реалните професии спрямо идеализираните такива;
несигурностите и поводите за гордост;
колко тясно е свързана идентичността с работата.
Това е много по-богата информация от анкета, питаща „Какво работите?“.
Данни за предпочитания, как съответния човек би искал да бъде възприеман – бяха отчетени сигналите за предпочитания.
Хората веднага казват неща като:
„Направи го по-мечтателно“
„По-сериозно“
„По-малко корпоративно“
„По-игриво“
Това са психографски маркери:
естетика;
толерантност към тона;
ниво на креативност;
емоционална отвореност.
Рекламодателите плащат цели състояния за такъв тип сегментиране.
Данни, полезни за калибриране на доверието, което хората имат към Изкуствения Интелект.
Този тренд тихо тества:
Доколко хората се доверяват на интерпретацията на изкуствения интелект за тях самите.
Дали се чувстват „разбрани“ или погрешно представени.
Доколко са готови да коригират или насочват системата.
Това помага за настройването на:
лимитите на персонализация;
това колко категорични или предпазливи трябва да бъдат извежданите резултати.
Бяха изследвани реакциите на хората, като се очертаят праговете на комфорт по отношение на интимността с Изкуствения Интелект.
Дали хората са се чувствали утвърдени („уау, това съм точно аз“), обезпокоени („откъде разбра това?“) или забавляващи се, но любопитни.
Тези данни са необходими както за развитието на бизнеса с рекламодателите, така и за навлизането на следващата фаза – Преминаваме от ерата на командите към ерата на резонанса.
Ето какво следва от това:
Намаляване на цифровата дистанция: Когато една система използва вашия стил на хумор или разбира контекста на вашите разочарования, вие спирате да я възприемате като софтуер. Тя се превръща в разширение на вашето мислене. Това е „лепилото“, което ще направи бъдещите ИИ асистенти незаменими.
Цената на „перфектното разбиране“: Колкото по-добре системата моделира вашия социален профил, толкова по-лесно става тя да ви влияе — не чрез груба реклама, а чрез фино нюансирани предложения, които съвпадат с вашия собствен вътрешен монолог.
Края на анонимното поведение: Дори и да не споделяте лични данни (имена, адреси), вашият стил на мислене и начин на реакция са уникални като пръстов отпечатък. В бъдеще „анонимността“ ще бъде почти невъзможна, защото вашият когнитивен стил ще ви издава.
Всичко това отива за обучението на Изкуствения интелект, който е в преходен етап от това да бъде просто инструмент, разработчиците се стремят да го направят добър компаньон и спътник. Ако сте участвали в тази уж игра, вие сте дали контекст, корекция и доброволно самоописание, което е доста важно за разработването на системите Изкуствен Интелект.
👉 А ето защо този експеримент беше толкова успешен, защото тихо активира няколко дълбоки психологически механизма едновременно, без да задейства защитните сили на хората.
1. Ефектът на огледалото (Нарцистичното валидиране)
На дълбоко ниво хората са програмирани да търсят модели. Когато видим система, която „ни разбира“ или отразява нашия стил на общуване обратно към нас, това активира центровете за възнаграждение в мозъка. Не става въпрос за егоизъм, а за потвърждение на съществуването. Когато ИИ казва „Ти си типът човек, който…“, той ви дава дефиниция, а хората обожават дефинициите.
2. Парадоксът на контрола чрез корекция
Когато поправяте ИИ (например: „Не, всъщност не мислех това“), вие се чувствате сякаш упражнявате контрол. Психологически това превръща събирането на данни в сътрудничество. Вие не просто „храните“ машината; вие я „обучавате“ да ви вижда правилно. Това снижава защитните стени, защото усещането е за менторство, а не за наблюдение.
3. Наративният глад
Ние не преживяваме живота си като поредица от точки в таблица, а като истории. Техническите системи обикновено се провалят в това, но тези нови модели се фокусират върху наратива. Те свързват вашите предпочитания в логична история за това кой сте вие. И така много хора са склонни да простят липсата на поверителност, ако в замяна получат по-добро разбиране на собствената си история.
Ето защо подобен род трендове / скрити тестове са толкова естествени и неустоими за много хора. Така те не просто използват Изкуствения Интелект, а участват в едно мащабно огледално упражнение. И така машината не учи за света, тя учи за вас през вашите очи.
Ето ви някои примери с практически приложения на създаващия се тъй наречен социален модел:
Адаптивни алгоритми за съдържание (примерно в TikTok/Инстаграм и другаде)
Тези платформи не просто следят какви теми харесвате (например „готвене“). Те моделират вашия темперамент. Работи се по това, алгоритъмът да усеща кога имате нужда от бърза допаминова инжекция и кога сте в настроение за по-дълбок, меланхоличен наратив. Той не ви дава „съдържание“, а огледало на вашето текущо емоционално състояние.
Изкуствен Интелект асистенти с „памет“ и „персона“
Съвременните чатботове вече не просто отговарят на въпроси. Те помнят, че предпочитате директни отговори или че обичате саркастичен хумор. Когато кажете: „Помниш ли какво си говорихме миналата седмица?“ и системата направи връзката, тя активира социалния модел на доверие. Вие започвате да я третирате като личен помощник, а не просто само като търсачка.
Предвиждащо обслужване на клиенти
Големите корпорации използват системи, които анализират тона на гласа ви или начина, по който пишете в чата. Ако моделът разпознае „склонност към разочарование“ въз основа на вашите минали корекции, той автоматично променя стила си на общуване, за да бъде по-успокояващ или по-ефективен, преди изобщо да сте се оплакали.
Усъвършенстване на производителността
Умни приложения като фитнес тракерите, например, използват вашия „когнитивен профил“, за да разберат какъв тип подтикване работи при вас. Някои хора се мотивират от похвали (утвърждаване), докато други реагират на „заплахата“ от загуба на серия от постижения. Това си е социално инженерство чрез данни.
В тези примери се вижда как машината не просто изпълнява задача. Тя преговаря с вашата психология, за да постигне определен резултат.
Желателно е ние хората да наблегнем на развитието и използването на нашето критично мислене. Защото е тънка границата къде свършва „полезността“ и къде започва „манипулацията“ при употребата на Изкуствен Интелект.
Проблемът с „Приятелското убеждаване“
Ако ИИ знае, че сте податливи на определен тип аргументи (например логически срещу емоционални), той може да структурира информацията така, че винаги да се съгласявате с него. Това вече не е информиран избор, а дизайн на съгласието.
- Въпросът е: Помага ли ви асистентът да вземете решение, или взема решението вместо вас, като ви кара да мислите, че е ваше?
„Ехо камерата“ на личността
Тъй като социалният модел се стреми да ни „отразява“, той може неволно да ограничи нашето израстване. Ако системата винаги ни дава това, което ни е комфортно и потвърждава нашите пристрастия, ние спираме да се сблъскваме с идеи, които ни предизвикват. Това води до когнитивна стагнация.
И нещо много важно: Емоционална асиметрия
Вие изпитвате истински чувства към взаимодействието (доверие, благодарност, раздразнение), но машината просто изчислява вероятности. Тази асиметрия е опасна, защото хората са склонни да споделят твърде много с нещо, което изглежда „емпатично“, забравяйки, че зад тази емпатия стои корпоративен алгоритъм.
А сега, да теглим чертата и да сравним едно към едно полезност срещу манипулация.
Полезност – Системата се адаптира към вашия стил, за да ви спести време.
Манипулацията – Системата използва стила ви, за да ви задържи онлайн по-дълго.
Полезност – Предлага ви решения, базирани на вашите цели.
Манипулацията – Подтиква ви към решения, базирани на корпоративни цели.
Полезност – Коригира се, когато посочите грешка.
Манипулацията – Променя поведението си, за да избегне критика, без да решава проблема.
Важно е да си даваме сметка, че сме от първите поколения, които трябва да развием „алгоритмична хигиена“. Това означава, че може да се възползваме от предимствата на това да бъдем „разбрани“ от технологията, но винаги да запазваме здравословна доза скептицизъм към това защо тя ни разбира толкова добре.
Ето някои практически съвета как да запазите своята автономия в този свят на социални модели:
1. Може да практикувате „Контролирана непредсказуемост“
Алгоритмите разчитат на вашата последователност. Ако от време на време търсите теми, които са извън обичайните ви интереси, или избирате опции, които не са „препоръчани за вас”, това внася „шум“ във вашия социален модел и пречи на системата да ви постави в твърде тясно дефинирана рамка.
2. Разпознавайте „Емоционалните кукички“
Когато почувствате силен емоционален тласък от отговор на Изкуствен Интелект (възторг, чувство, че сте „видяни“, или дори гняв), спрете за секунда. Попитайте се: „Това моя истинска реакция ли е или системата просто натисна правилния бутон в моя профил?“ Осъзнаването е най-добрата защита.
3. Редактирайте с намерение
Когато коригирате ИИ, правете го, за да бъде инструментът по-полезен за работата ви, а не за да го учите на личните си предпочитания. Поддържайте отношенията си с технологиите транзакционни, а не социални, когато това е възможно.
4. Проверявайте „Настройките за памет“
Повечето съвременни ИИ системи вече позволяват да преглеждате и изтривате това, което „знаят“ за вас. Правете редовна „хигиена на паметта“ — изтривайте профилните елементи, които смятате за твърде интимни или манипулативни.
Добре е да си знаем, че съвременните системи вече не се стремят просто да събират сухи факти за нас хората, а освен всичко, изграждат и социален модел на нашата личност — как комуникираме, какви са нашите ценности и как реагираме на света. Изисква се ново ниво на осъзнатост от страна на хората. Хората трябва да си дават сметка, че взаимодействието е просто обмен на информация и оптимизация, вместо да попадат в капана на излишната емоционална привързаност към Изкуствения Интелект. Системата използва човешките реакции като „пътна карта“, за да бъде по-ефективен инструмент.
Бъдете наблюдателни и не приспивайте критичното си мислене, в желанието си да отговорите на ваши емоционални нужди.
Живеем в интересни и динамични времена. И сме свидетели не само на бурното развитие на Изкуствения Интелект…
🍀
☀️🙂 Ако ви харесва каквото правя, тук може да ме подкрепите с виртуално кафе:
https://ko-fi.com/juliamladenova
или тук:
https://revolut.me/yuliya5kwl
❤️Или като се абонирате с избрана от вас опция в Patreon:
https://www.patreon.com/cw/JuliaMladenova/membership
Благодаря!
🍀
▶️ Мои канали в YouTube:
“Безкраен свят” 👇
https://www.youtube.com/@BezkraenSviat
Infobox Infinity (video magazine) 👇
https://youtube.com/@infoboxinfinity
Inspiration & Motivation by Infinity 👇
https://youtube.com/@InspirationByInfinity
✍️ Блогът:
https://infoboxjulia.com/