Искусственный интеллект способен уничтожить человечество при определенном развитии событий в технологическом секторе ведущих стран мира, передает Tengrinews.kz со ссылкой на gazeta.ru.
Искусственный интеллект способен уничтожить человечество при определенном развитии событий в технологическом секторе ведущих стран мира, передает Tengrinews.kz со ссылкой на gazeta.ru.
"Сегодняшние системы и близко не представляют экзистенциальный риск. Но через один, два, пять лет? Слишком много неопределенности. Вот в чем проблема. Нет уверенности, что мы осознаем этот момент, когда мы будем на грани катастрофы", - отметил профессор, научный сотрудник Монреальского университета Йошуа Бенжио.
Компании могут предоставить системам с ИИ все больше и больше автономии и подключать их к жизненно важной инфраструктуре, включая электрические сети, фондовые рынки и вооружение. Именно решение перейти эту черту и может вызвать проблемы. Об этом пишет газета The New York Times.
"В какой-то момент станет ясно, что большая машина, управляющая обществом и экономикой, на самом деле не находится под контролем человека и не может быть отключена, как не может быть отключен S&P 500", - рассказал космолог из Калифорнийского университета в Санта-Крузе Энтони Агирре.
В NYT указали на то, что пока системы с ИИ склонны "застревать в бесконечных петлях" из повторяющихся данных, но со временем эти ограничения могут быть устранены, если разработчики доработают эти программы.
"Поскольку ИИ-системы учатся на большем количестве данных, чем способны понять даже их создатели, эти системы уже демонстрируют неожиданное поведение. Некоторые эксперты опасаются, что, по мере того, как исследователи делают эти системы более мощными, обучая их на все больших объемах данных, они могут приобрести больше вредных и даже опасных привычек", - заключил автор.
В конце мая главы компаний в области ИИ опубликовали открытое письмо, в котором предупредили, что технологии искусственного интеллекта однажды могут представлять экзистенциальную угрозу для человечества и должны рассматриваться как риск наравне с пандемиями и ядерными войнами.
Один из них, глава OpenAI Сэм Альтман, пошел еще дальше и призвал идти по пути государственного регулирования всей индустрии. Во время поездки в ОАЭ он призвал создать международное агентство по аналогии с международным агентством по атомной энергии (МАГАТЭ) для контроля за подобными разработками.
Нажмите сюда, чтобы подписаться и получать казахстанские новости в сервисе от Google.
Показать комментарии