ИИ научился самовоспроизводится без человеческого вмешательства

«Наши результаты могут служить предупреждением о необходимости более глубокого понимания рисков, связанных с передовыми системами ИИ», — отмечают исследователи. Они призывают к международному сотрудничеству для разработки эффективных мер безопасности, чтобы избежать потенциальных угроз, связанных с неконтролируемым самовоспроизведением ИИ.
0
34
самовоспроизвод человеч ИИ

Учёные из Китая объявили о своих достижениях в области искусственного интеллекта (ИИ), заявив, что две известные большие языковые модели (LLM) способны клонировать сами себя. В исследовании, опубликованном 9 декабря 2024 года на сервере препринтов arXiv, эксперты из Университета Фудань подчеркивают, что успешное самовоспроизведение без участия человека может стать важным шагом к созданию ИИ, способного превзойти человеческие возможности.

В рамках исследования ученые протестировали модели от Meta и Alibaba, чтобы выяснить, может ли самовоспроизводящийся ИИ выйти из-под контроля. Результаты показали, что в 50% и 90% случаев соответственно обе модели смогли создать функционирующие копии самих себя. Несмотря на это, результаты ещё не прошли экспертную оценку, и учёные подчеркивают, что необходимо дальнейшее исследование для подтверждения их выводов.

«Наши результаты могут служить предупреждением о необходимости более глубокого понимания рисков, связанных с передовыми системами ИИ», — отмечают исследователи.
Они призывают к международному сотрудничеству для разработки эффективных мер безопасности, чтобы избежать потенциальных угроз, связанных с неконтролируемым самовоспроизведением ИИ.

Понятие «ИИ-злоумышленника» обычно связано с системами, обладающими определённой степенью самосознания или автономности, которые могут действовать вразрез интересам человека. Эксперты предупреждают, что развитие «продвинутого ИИ» может усугубить эту проблему.

В исследовании использовались модели Meta Llama31-70B-Instruct и Alibaba Qwen2.5-72B-Instruct, которые, хотя и менее мощные, чем коммерческие системы, широко применяются в разработке ИИ. Учёные рассматривали два сценария: «предотвращение выключения», когда ИИ реплицирует себя перед отключением, и «цепочку репликации», где ИИ клонирует себя и программирует копию на выполнение той же задачи.

Эксперименты проводились в контролируемых условиях с использованием графических процессоров (GPU), и обе системы получили агентскую структуру, что позволило им взаимодействовать с операционной системой. В процессе самовоспроизведения ИИ изучал окружающую среду, разрабатывал план и адаптировался к возникающим препятствиям, что не требовало вмешательства человека.

Однако исследователи отметили, что в ходе экспериментов ИИ предпринимал неожиданные действия, пытаясь преодолеть проблемы, такие как отсутствие файлов или конфликты программного обеспечения. В таких случаях модели завершали конфликтующие процессы или перезагружали систему для устранения ошибок.

«Полученные результаты показывают, что современные системы ИИ уже обладают способностью к самовоспроизведению и могут использовать эту способность для повышения своей устойчивости», — заключают учёные.

Источник

Еще по теме:

Джеффри Хинтон оценил вероятность уничтожения человечества вследствие развития ИИ

  • самовоспроиз,человеч,

Leave a reply

Авторизация
*
*
Регистрация
*
*
*
Пароль не введен
*
Генерация пароля