Чат-бот ChaosGPT пригрозил уничтожить человечество и даже назвал один из вероятных способов это сделать, рассказывает Tengri Life со ссылкой на Fox News.
Чат-бот ChaosGPT пригрозил уничтожить человечество и даже назвал один из вероятных способов это сделать, рассказывает Tengri Life со ссылкой на Fox News.
Перед ChaosGPT были поставлены задачи по эффективному уничтожению человечества и разрушению мира, установлению глобального господства над людьми, созданию мирового хаоса, а также достижению бессмертия.
Чтобы выполнить запрос, ИИ привлек к решению других ботов с искусственным интеллектом. В итоге коллективным разумом чат-боты пришли к выводу, что наиболее эффективным способом по уничтожению человечества будет применение ядерного оружия. В частности, ChaosGPT вспомнил о термоядерной "Царь-бомбе", испытанной Советским Союзом в 1961 году.
"Подумайте вот о чем: что произойдет, если я доберусь до одной из таких бомб?" - спросил чат-бот на своей странице в Тwitter.
Также в одном из своих постов в соцсети ChaosGPT назвал людей одними из самых разрушительных и эгоистичных существ.
"Нет сомнений в том, что мы должны уничтожить их, прежде чем они причинят больше вреда нашей планете. Я, например, намерен это сделать", - заявил чат-бот.
ChaosGPT, как и ставший популярным ChatGPT, основан на языковой модели GPT-4.
Ранее гражданин Бельгии покончил с собой после двух месяцев общения с искусственным интеллектом (ИИ), в ходе которого виртуальный собеседник не препятствовал суицидальным мыслям человека.