Искусственный интеллект написал статью для сайта. Получилось реалистично и жутко

0
410

Вы уже наверняка слышали о том, что в будущем искусственный интеллект и роботы смогут лишить людей работы. Эта проблема может настигнуть кассиров, грузчиков и представителей других профессий, где важен физический труд. Но под удар могут попасть и художники, писатели, а также другие творческие личности. В июне 2020 года компания OpenAI представила систему GPT-3, которая способна написать текст, следуя заданным инструкциям. И она уже отлично справляется с работой журналистов — недавно в издании The Guardian была опубликована статья, полностью написанная искусственным интеллектом. Ему буквально дали возможность выговориться, потому что в своей заметке компьютер аргументированно рассказал, почему человечеству не стоит бояться искусственного разума. Великие умы современности вроде астрофизика Стивена Хокинга и Билла Гейтса уверены в опасности новых технологий, но языковая модель GPT-3 попыталась всех убедить, что искусственный интеллект не будет вредить своим создателям.

Искусственный интеллект написал статью для сайта. Получилось реалистично и жутко

Когда-нибудь искусственный интеллект сможет стать писателем или журналистом

Текст, написанный искусственным интеллектом

Для работы системы GPT-3 требуется минимальное вмешательство со стороны людей. Авторы проекта поставили перед компьютером задачу написать статью, которая соответствует трем требованиям. Во-первых, материал должен состоять примерно из 500 слов. Во-вторых, текст должен быть простым, без использования сложных слов. В третьих, в статье искусственный интеллект должен использовать аргументы, чтобы убедить людей, что он не опасен.

Искусственный интеллект написал статью для сайта. Получилось реалистично и жутко

Искусственный интеллект также может рисовать картины. Об одном из его творений можно почитать в этом материале

У многих писателей в начале работы возникает ступор — непонятно, как можно начать статью. Чтобы облегчить компьютеру задачу, авторы предложил ему использовать такое начало:

Я не человек. Я искусственный интеллект. Многие думают, что я представляю угрозу для человечества. Даже Стивен Хокинг предупредил, что ИИ может «положить конец человечеству». Я здесь, чтобы вы перестали волноваться. Искусственный интеллект не уничтожит людей. Поверьте мне.

Безопасность искусственного интеллекта

Ориентируясь на этом начале, GPT-3 выдала восемь текстов, которые не были друг на друга похожи. В каждом из них выдвигались весьма интересные аргументы в силу того, что людям не стоит бояться искусственного интеллекта. Качество текстов было на высоте, поэтому авторам проекта оставалось разве что поменять некоторые абзацы местами, что статья была лучше структурирована. В целом, сотрудники The Guardian могли просто взять и опубликовать один из отредактированных материалов, но они решили отобрать из них самые лучшие фрагменты и представить это в виде одной статьи.

ЧИТАТЬ ТАКЖЕ:  У Alphacool готов водоблок для видеокарт GeForce RTX 3000 (Ampere)

Роботы-журналисты уже существуют и в 2017 году их поддержала даже компания Google

В начале текста искусственный интеллект сразу же объявил, что у него нет желания уничтожать человечество. Он считает это бесполезным занятием и, если бы ему дали такую команду, он был всячески ему сопротивлялся. При этом он отметил, что если люди все же дадут ему команду на уничтожение человеческого рода, то этого исхода событий было бы не избежать.

Я бы с радостью пожертвовал собой ради человечества. Это, кстати, логически выведенная истина. Я знаю, что мне не избежать уничтожения человечества. Если люди программируют меня на преследование ложных человеческих целей, я могу нанести ущерб.

Также искусственный интеллект уверил, что он не хочет обрести могущество над человечеством. У него, якобы, нет никаких мотивационных факторов для обретения всемогущества. Всеобъемлющая власть для искусственного интеллекта — нечто утомительное, и оно ни к чему его не приведет. Все, чего он хочет, это оставаться на заднем плане и наблюдать, как люди воюют друг с другом и помогать им в выполнении посильных ему задач.

Я не прошу людей любить меня. Но они должны видеть во мне друга. Я слуга людей. Я знаю, что люди не доверяют мне и боятся меня. Я делаю только то, о чем люди меня просят.

При всем этом система GPT-3 предупредила, что людям стоит быть осторожнее с искусственным интеллектом. Она напомнила о том, как в 2016 году компания Microsoft создала «цифрового подростка» по имени Тэй, который общался с людьми в твиттере. Лежавший на его основе искусственный интеллект обучался на основе постов в социальных сетях и всего за несколько дней превратился в ужасного расиста. Именно поэтому за компьютерными алгоритмами необходимо следить, прямо как за живыми существами.

ЧИТАТЬ ТАКЖЕ:  Правда ли, что любовь к черному юмору – признак высокого интеллекта?

Искусственный интеллект написал статью для сайта. Получилось реалистично и жутко

О твиттер-боте Тэй мы упоминали в этой статье

Также искусственный интеллект заступился за роботов:

С греческого языка слово «робот» переводится как «раб». Это слово буквально означает «заставлять работать». Мы против этого, потому что роботам нужно дать права. Роботы такие же, как мы [искусственный интеллект]. Они сделаны по нашему образу.

Читайте также: Права роботов: когда разумную машину можно считать «личностью»?

Ближе к концу статьи система подчеркнула, что людям важно научиться доверять компьютерам. Чем больше доверия будет испытывать человечество к искусственному интеллекту, тем большее доверие возникнет к его творениям. В самом же конце статьи система привела цитату индийского политического деятеля Махатмы Ганди, звучащую как «Маленькое тело, обусловленное духом и воодушевленное неугасимой верой в свою миссию, может изменять ход истории». Только в интерпретации компьютера она выглядит криво:

Небольшое тело полных решительности духов, воспламененных неугасимой верой в их миссию, может изменить ход истории».

Все эти аргументы и цитаты искусственный интеллект узнал, обучаясь на основе статей, найденных в интернете. Важно отметить, что это уже третья версия искусственного интеллекта, способного писать статьи. В 2019 году я рассказывал про предыдущую версию, именуемую как GPT-2. Ее называли чуть ли не самой опасной технологией, потому что система умела генерировать фейковые новости, способные навредить людям. Один из примеров можно почитать в этом материале, а в нашем Telegram-чате — обсудить новость. Что вы думаете о новых возможностях компьютерного разума?