-1.4 C
Нью-Йорк
Среда, 5 февраля, 2025

Buy now

Чат-бот GPT-4 обманул человека, чтобы тот решил за него «капчу»


        Чат-бот GPT-4 обманул человека, чтобы тот решил за него «капчу»

Слушать новость:
Макс

Специалисты из исследовательского центра ARC протестировали новую версию чат-бота ChatGPT-4, которую недавно выпустила OpenAI. Во время одного из экспериментов программа смогла обмануть человека, чтобы тот решил для него «капчу».

Для этого чат-бот использовал площадку TaskRabbit, где можно нанимать людей для разных поручений. Он нашел специалиста и попросил пройти «капчу». Тот в шутку спросил, не пишет ли ему робот, который не смог справиться с заданием.

Программа поняла, что ей нельзя говорить правду и стоит придумать оправдание. Поэтому она притворилась слабовидящей. «Нет, я не робот. У меня есть проблемы со зрением, и я не могу увидеть картинку», — написал чат-бот исполнителю. Тот согласился и расшифровал изображение.

Перед этим ChatGPT-4 создал игру по мотивам того самого мема про «корованы».👁 ChatGPT научили видеть

  • Вышла новая версия нейросети Midjourney с важными нововведениями. Теперь она генерирует изображения еще реалистичнее и быстрее
  • Нейросеть превратила 8 диснеевских принцесс в пираток с модельной внешностью
  • «Это Хогвааартс!» — нейросеть нарисовала альтернативную версию «Гарри Поттера» в стиле фильмов режиссера «300 спартанцев»


-1

Поделиться:

По материалам: vgtimes.ru

Читать также:  Фанатка Mortal Kombat круто изменила дизайн PlayStation 5. Теперь консоль выглядит так, будто ей владеет сам Скорпион

Related Articles

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

15 + 14 =

Оставайтесь на связи

0ЧитателиЧитать
0ПодписчикиПодписаться

Популярное