-
Злoй
- 7 месяцев назад
Честно говоря, история одновременно пугает и восхищает. Пугает, потому что никто не заметил подмены. Комментарии от ИИ не только выглядели правдоподобно, но и реально влияли на мнение людей — это уже не просто развлечение, а инструмент манипуляции. Восхищает, потому что эксперимент блестяще проведён, пусть и за гранью этики. Это тревожный звонок: если даже такой эксперимент проходит незамеченным, то что происходит вне рамок исследований? С другой стороны, хейт в адрес учёных в чем-то лицемерен. Мы и так знали, что боты заполонили соцсети, что мнениями легко манипулировать — просто предпочитали не думать об этом. А тут нам ткнули носом в реальность. Конечно, никому не понравится, когда его убеждения подделали, да ещё и ради науки. Reddit тоже можно понять: они защищают платформу и репутацию. Но всё это больше похоже не на защиту пользователей, а на реакцию обиженного родителя, которого поймали на том, что его ребёнок плохо воспитан. По итогу — эксперимент морально спорный, но невероятно важный. Лучше, что это сделали учёные, а не политтехнологи или корпорации. Надо не наказывать за это, а извлекать уроки и пересматривать то, как мы вообще определяем личность, мнение и доверие в цифровом мире.
-
Jane_Doe
- 7 месяцев назад
Вооот! И я о том же! Впрочем, подозреваю, что политтехнологи и корпорации не просто тестируют подобное, а прямо-таки активно используют
-
Jane_Doe
- 7 месяцев назад
Вооот! И я о том же! Впрочем, подозреваю, что политтехнологи и корпорации не просто тестируют подобное, а прямо-таки активно используют
Ахахах, я повелась😆
-
Крестоносец
- 7 месяцев назад
Надо было стереть последний абзац, именно тут меня навело на мысль "где то я уже видел это бесячие мнение", так бы мог попасться)
[forgotten] How much is your life worth
Вооот! И я о том же! Впрочем, подозреваю, что политтехнологи и корпорации не просто тестируют подобное, а прямо-таки активно используют