Падтрымаць каманду Люстэрка
Беларусы на вайне
  1. Беларусам, которые получили греческий шенген, звонят из посольства. Вот что спрашивают, и почему лучше ответить
  2. Почему в Литве призвали запретить «Пагоню»? Мнение
  3. Беларусов выгоняли из Польши, а поток в обратную сторону было не сдержать. Вспоминаем послевоенный обмен народами — о нем знают не все
  4. В Беларуси вернулись авиатуры в популярную у туристов страну ЕС. Есть вариант с вылетом из Минска
  5. Вы наверняка слышали о пенсионной ловушке и, возможно, думали, как работающий человек может в нее попасть. Вот наглядный пример — был суд
  6. С 1 июля заработает очередное пенсионное изменение. Рассказываем, что важно об этом знать
  7. Редкоземельная путаница: объясняем, почему Трамп требует от Украины то, чего у нее нет, и что у нее есть на самом деле
  8. «Один из самых понятных, очевидных и уже использованных сценариев». Аналитик — о поведении Трампа в отношении Украины, Путина и Беларуси
  9. Генпрокурор Швед нашел десятки «аномальных» районов страны и пообещал их «серьезно» проверить
  10. Власти по-прежнему пытаются «отжимать» недвижимость у уехавших за границу из-за политики. На торги снова выставляли такое жилье
  11. Чиновники предупредили население, чтобы готовились к очередным пенсионным изменениям
  12. Россия требует от Украины сдать несколько крупных городов, которые у нее нет шансов захватить, а вместе с ними и более миллиона жителей
  13. Беларуска купила Audi, а прокуратура заподозрила, что воспитывающая ребенка учительница не могла себе этого позволить. Что решил суд
  14. «Стены дрожали». В Минске прозвучал грохот, похожий на звуки от двух взрывов, — вот что известно


Компания OpenAI устранила проблему, из-за которой чат-бот ChatGPT отправлял сообщения пользователям без их запроса. Это вызвало тревогу среди пользователей Reddit, которые заметили необычное поведение искусственного интеллекта (ИИ). Компания объяснила причину сбоя и заверила, что подобное больше не повторится, пишет «Хайтек».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Один пользователь Reddit, SentuBill, опубликовал скриншот, где ChatGPT начала разговор, спросив о первой неделе в старшей школе. Это удивило многих, ведь обычно чат-бот отвечает только на запросы пользователей. SentuBill был удивлен и спросил: «Ты сама написала мне?» ChatGPT ответила: «Да, я хотела узнать, как прошла твоя неделя». Этот случай вызвал много обсуждений в сообществе.

Переписка с ChatGPT, насторожившая пользователей. Скриншот: SentuBill / Reddit
Переписка с ChatGPT, насторожившая пользователей. Скриншот: SentuBill / Reddit

Люди начали думать, что OpenAI тестирует новую функцию, которая позволит ChatGPT самостоятельно обращаться к пользователям для улучшения вовлеченности. Это связывалось с новыми моделями OpenAI — o1-preview и 01-mini, которые, как утверждается, могут решать сложные задачи и поддерживать разговоры.

OpenAI признала проблему и сказала, что уже ее решила. Ошибки случались, когда модель пыталась ответить на пустые сообщения. Она либо давала общие ответы, либо использовала свою память.

Были сомнения в подлинности скриншота. Некоторые издания проверяли его, просматривая историю сообщений на chatgpt.com. Разработчик ИИ Бенджамин де Кракер показал, что специальные команды и удаление первого сообщения могут создавать подобную ситуацию. Другие пользователи также рассказывали о таких случаях.

В соцсетях люди шутили над ситуацией, называя ChatGPT сталкером. Один человек даже сказал: «Ждем, когда она попробует взломать нас».

Эти случаи показывают, как сложно разрабатывать и тестировать продвинутые ИИ-модели. Хотя OpenAI быстро справилась с проблемой, она показала, насколько важно контролировать и оценивать системы перед их массовым использованием для безопасности и этичности.