ИИ может уничтожить человечество: эксперты назвали дипфейки одной из главных угроз современности Развитие ИИ может ударить по ядерной безопасности, предупреждает «Foreign Affairs». Главная опасность — идея передать машинам право решать, когда наносить ядерный удар. США уже ввели правила, которые гарантируют, что последнее слово остаётся за человеком. Си Цзиньпин тоже заявил, что ИИ нельзя доверять ядерное оружие. Но угроза назрела раньше. ИИ уже способен запутать лидеров ядерных стран дипфейками — поддельными, но убедительными аудио, фото и видео. Такой фейк может показать несуществующую атаку и подтолкнуть к ошибочному приказу. ИИ может спровоцировать войну или посеять хаос. С развитием нейросетей качество видео достигнет такого уровня, что его будет невозможно отличить от оригинала. Есть и другая проблема — ошибки и «галлюцинации» ИИ, если его подключат к системам раннего предупреждения. Машина может выдать ложный сигнал, а в ядерной сфере цена такой ошибки — миллионы жизней. @nexta_live