Эксперты предупреждают, что искусственный интеллект может привести к вымиранию


Десятки поддержали это заявление, опубликованное на веб-странице Центра безопасности ИИ.

«Снижение риска исчезновения людей из-за ИИ должно быть глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война», сообщается в нем, но другие говорят, что опасения преувеличены.

Сэм Альтман, исполнительный директор компании OpenAI, производящей ChatGPT, Демис Хассабис, исполнительный директор Google DeepMind, и Дарио Амодеи из Anthropic поддержали это заявление.

Однако сайт Центра безопасности ИИ уже составил ряд возможных сценариев катастрофы:

ИИ можно использовать в качестве оружия — например, инструменты для обнаружения наркотиков можно использовать для создания химического оружия.

Генерируемая искусственным интеллектом дезинформация может дестабилизировать общество и «подорвать коллективный процесс принятия решений».

Сила ИИ может все больше концентрироваться в руках все меньшего и меньшего числа людей, что позволит «режимам навязывать узкие ценности посредством повсеместного наблюдения и жесткой цензуры».

Ослабление, при котором люди становятся зависимыми от ИИ, «по аналогии со сценарием, изображенным в фильме «Валл-И».

Доктор Джеффри Хинтон, ранее предупреждавший о рисках, связанных со сверхинтеллектуальным ИИ, также поддержал призыв Центра безопасности ИИ.

Подписался и Йошуа Бенжио, профессор компьютерных наук Монреальского университета.

Доктора Хинтона, профессора Бенжио и профессора Нью-Йоркского университета Янна ЛеКанна часто называют «крестными отцами искусственного интеллекта» за их новаторскую работу в этой области, за которую они вместе получили премию Тьюринга 2018 года, которая отмечает выдающийся вклад в информатику.

Многие другие эксперты также считают, что опасения по поводу того, что ИИ уничтожит человечество, нереалистичны и отвлекают внимание от таких проблем, как предвзятость в системах, которые уже являются проблемой.

Арвинд Нараянан, ученый-компьютерщик из Принстонского университета, ранее говорил Би-би-си, что сценарии катастроф, подобные научно-фантастическим, нереалистичны: «Существующий ИИ далеко не настолько способен, чтобы эти риски материализовались. краткосрочный вред ИИ».

Старший научный сотрудник Оксфордского института этики в области искусственного интеллекта Элизабет Реньерис сказала BBC News, что ее больше беспокоят риски, ближе к настоящему.

«Достижения в области искусственного интеллекта увеличат масштабы автоматизированного принятия решений, которые являются предвзятыми, дискриминационными, исключающими или иным образом несправедливыми, а также непостижимыми и неоспоримыми», — сказала она.

Они «приведут к экспоненциальному увеличению объема и распространению дезинформации, тем самым разрушая реальность и подрывая общественное доверие, а также будут способствовать дальнейшему неравенству, особенно для тех, кто остается по ту сторону цифрового разрыва».

По словам Реньерис, многие инструменты ИИ, по сути, «бесплатно пользуются» «всем человеческим опытом на сегодняшний день». Многие обучаются на созданном людьми контенте, тексте, искусстве и музыке, которые они затем могут имитировать, а их создатели «эффективно передали огромное богатство и власть из общественной сферы небольшой горстке частных лиц».