По мере того, как системы искусственного интеллекта (ИИ) становятся все более сложными, их потенциальное влияние на политику вызывает как надежды, так и опасения. Новые исследования показывают, что политические аргументы, сгенерированные ИИ, могут быть столь же убедительными, как и те, которые создают люди, что потенциально изменит нашу форму общения в политической сфере — с далеко идущими последствиями.
Два исследования из Стэнфордского университета углубляются в эту сложную проблему. Первое исследование, возглавляемое профессором Робом Уилером, изучало убедительность текстов, написанных ИИ, на различные политические темы, такие как контроль за оборотом оружия и изменение климата. Результаты оказались поразительными: участники, подвергшиеся воздействию аргументов, сгенерированных ИИ, демонстрировали сдвиги в своих мнениях, подобные тем, кто читал тексты, написанные людьми, независимо от того, поддерживали они изначально те или иные политики.
Это открытие ставит под сомнение утверждение о том, что ИИ не обладает необходимой тонкостью для того, чтобы эффективно склонять общественное мнение. В то время как участники признали логику и ясность текстов, сгенерированных ИИ, они сочли тексты, написанные людьми, более эмоционально воздействующими благодаря личному опыту и приемам повествования.
В отдельном исследовании профессор Закари Тормала и его команда сосредоточились на том, как люди воспринимают политические аргументы в зависимости от того, кем они сформулированы — человеком или ИИ. Их исследование показало, что люди более склонны рассматривать противоположные точки зрения, если они представлены ИИ, приписывая это открытости объективности и отсутствию предвзятости, которые ассоциируются с искусственным интеллектом.
Эффект «ИИ» простирается за рамки простой восприимчивости. Участники, столкнувшиеся с возражениями со стороны ИИ, были более склонны распространять эти идеи и даже проявляли сниженную враждебность к тем, кто занимал различные политические позиции. Это предполагает, что ИИ может потенциально действовать как мостик через идеологические разломы, способствуя более гражданским и плодотворным разговорам.
Тем не менее оба исследования подчеркивают двуединый характер этого потенциала. Хотя ИИ-основанная коммуникация может помочь людям более конструктивно взаимодействовать с разнообразными точками зрения, способность этой технологии имитировать человеческое убеждение сопряжена с врожденными рисками. Если злоумышленники воспользуются ИИ для распространения дезинформации или манипулирования общественным мнением, последствия могут быть катастрофическими. Представьте себе сценарий, где иностранные субъекты используют ИИ для разжигания конфликтов и усиления существующих социальных напряженностей в период выборов. Этот пугающий прогноз подчеркивает острую необходимость этических норм и мер предосторожности в отношении разработки и применения ИИ в политической сфере.
В конечном итоге, эти исследования Стэнфордского университета служат резким напоминанием: ИИ стремительно становится мощным инструментом, формирующим наше мировоззрение и влияющим на политическую сферу. Покажет ли он в итоге большую взаимопониманию или же обострит общественные деления — покажет время. Одно ясно — мы должны ориентироваться в этом новом ландшафте как с осторожной надеждой, так и с неуклонной бдительностью.
