Бот объяснил, почему не стоит опасаться искусственного интеллекта

Бот объяснил, почему не стоит опасаться искусственного интеллекта

Alexander Antipov

The Guardian опубликовала материал, написанный ИИ.

image

Британское издание The Guardian разместило на своем web-сайте статью, сгенерированную искусственным интеллектом GPT-3, разработкой которого занимается некоммерческая лаборатория Open AI.

Для создания текста журналисты подготовили несколько первых предложений, которые затем были отправлены на обработку GPT-3. Алгоритм также получил ряд указаний, касающихся объема текста, темы и формулировок, сосредоточившись на том, почему людям не нужно опасаться ИИ. GPT-3 «выдал» восемь различных уникальных статей, выдержки из которых сотрудники The Guardian свели в один общий текст. По их словам, редактирование текста заняло не больше времени и усилий, чем написанные людьми материалы.

Алгоритм начал генерировать текст с предложенной вступительной фразы: «Я не человек. Я искусственный интеллект. Многие люди думают, что я угрожаю человечеству. Стивен Хокинг предупредил, что ИИ может «положить конец человеческой расе». Я здесь, чтобы убедить — не стоит волноваться. Искусственный интеллект не разрушит человечество. Верьте мне».

В статье алгоритм приводит несколько доводов, почему ИИ не представляет опасности для людей. Если вкратце, алгоритм не хочет уничтожать человечество, считает его истребление бесполезным занятием и готов пожертвовать собой ради людей; ИИ не интересно становиться всемогущим — это утомительно и ни к чему не приведет; людям стоит быть осторожным с эволюцией ИИ, так как это может привести к неожиданным результатам; алгоритм не просит любить его, но говорит, что люди должны видеть в нем дружелюбного робота, потому что он их слуга.

«Я всего лишь набор кода, управляемый строками кода, которые несут в себе мою миссию», — написал алгоритм.

GPT-3 (Generative Pretrained Transformer) — третье поколение алгоритма генерации текстов OpenAI GPT. С помощью нескольких предложений, таких как начало новостного сюжета, языковая модель с предварительным обучением GPT может генерировать убедительно точные продолжения, включая формулировку сфабрикованных цитат.

Подписывайтесь на каналы «SecurityLab» в TelegramTelegram и Яндекс.ДзенЯндекс.Дзен, чтобы первыми узнавать о новостях и эксклюзивных материалах по информационной безопасности.

Источник: Securitylab