По данным Business Insider, ссылающегося на осведомленные источники, компания OpenAI планирует выпустить следующую версию своей революционной языковой модели GPT – GPT-5 – уже к середине 2024 года.

Сразу два человека, тесно связанных с OpenAI, сообщили изданию, что вероятность релиза GPT-5 этим летом весьма высока. Более того, некоторые корпоративные клиенты уже получили доступ к демонстрационной версии нейросети для предварительного тестирования.

“Это действительно хорошо, даже существенно лучше, чем GPT-4,” – поделился один из тех, кто успел опробовать GPT-5 на практике. Правда, окончательный процесс обучения модели еще не завершен.

После этого предстоит всесторонняя проверка безопасности нейросети. Специальная группа исследователей из числа сотрудников OpenAI и приглашенных экспертов подвергнет GPT-5 бомбардировке провокационными и опасными запросами для выявления признаков токсичности, предвзятости и других нежелательных паттернов.

Точная дата релиза GPT-5 пока не определена и будет зависеть от результатов тестирования на этапе проверки безопасности, подчеркивает Business Insider.

OpenAI выпустила предыдущую итерацию GPT-4 в марте 2023 года. В ноябре того же года компания обновила нейросеть до версии GPT-4 Turbo с увеличенным размером контекста и более актуальной базой знаний.

Возросшие возможности языковых моделей OpenAI вызывают растущий интерес и беспокойство в индустрии искусственного интеллекта. Многие ожидают, что GPT-5 станет еще более продвинутой и производительной системой, но вместе с тем усилятся опасения касательно ее безопасного и этического применения.

Быстрое развитие больших языковых моделей от таких компаний как OpenAI, DeepMind, Anthropic и других вызывает все больше опасений в обществе по поводу рисков, связанных с искусственным интеллектом.

Так, в марте 2023 года более тысячи ведущих экспертов в области ИИ, включая Илона Маска и сооснователя Apple Стива Возняка, подписали открытое письмо с призывом ввести шестимесячный мораторий на обучение систем искусственного интеллекта более продвинутых, чем GPT-4. Они предупредили об опасности гонки вооружений в сфере ИИ и необходимости принять меры для обеспечения безопасного развития технологий.

Тем не менее, компании продолжают наращивать усилия по созданию всё более мощных языковых моделей. В феврале 2024 года Google анонсировала работу над PalMed – специализированной моделью для медицинской области, которая по прогнозам должна превзойти человеческих врачей.

Споры вокруг этических последствий развития ИИ не утихают. Одни предупреждают о рисках создания суперинтеллекта, другие указывают на огромный потенциал технологий для прогресса человечества при грамотном подходе. Ясно одно – наступающая эра искусственного интеллекта потребует выработки новых норм и правил для его безопасного и ответственного внедрения.

  • ЕС наносит удар по энергетике России: 14-й пакет санкций бьет по СПГ и финансам — 24/06/2024 13:14
  • Как Россия отвечает на новые санкции США в сфере ИТ — 23/06/2024 10:50
  • Мобильная игра Go Lick The World вышла на Android и IOS — 22/06/2024 11:54

Подпишись на канал Digital Report в Telegram

GPT-5 OpenAI безопасность ИИ большие языковые модели ИИ искусственный интеллект контроверсии ИИ разработка ИИ технологии будущего этические риски