Новая доза топлива от ИИпатриарха в костер ИИстерики вокруг GPT: “ой, мы не будем знать где правда”
Опять “совершилось страшное” – «Крестный отец» нейросетей Джеффри Хинтон ушел из Google. Он решил покинуть компанию, чтобы честно рассказывать об опасностях нейросетей.* В чем опасности по его мнению? [с моими комментариями – AR]
1) Интернет будет наводнен фальшивыми фотографиями, видео и текстом, и обычный человек “больше не сможет знать, что правда”. [Ой, проснулся дедушка! Уже целое поколение выросло не только в отсутствии разницы между правдой и враньем, но даже в искреннем непонимании того, что такое правда, – AR]
2) ИИ-технологии перевернут рынок труда, заменяя помощников юристов, переводчиков и других, выполняющих рутинные задачи и даже более того. [Как будто что-то плохое. Толпа клерков с функциями дрессированных попугаев и зарплатами в разы превышающей среднюю уже давно мозолят глаза обществу, – AR]
3) ИИ может принимать непредсказуемые решения в менеджменте корпораций и в применении “автономного оружия”. [Вряд ли кто-либо способен принимать более идиотские решения в корпоративном менеджменте и более гнусные решения в военном деле, чем жадные безграмотные амбициозные социопаты, делающие это сейчас – AR]
4) И вообще “эта штука может стать умнее людей” [А вот это случай так называемого вранья, см. ниже – AR]
Тема “поумнения” цифровых подделок под нейронную сеть уже рассматривалась в этом журнале (весело, с огоньком и с примерами), в т.ч. было отмечено: 40 лет назад в книге “The Creative Computer. Machine intelligence and human knowledge” (в русском переводе “Компьютер творец”) Donald Michie (Дональд Мичи), один из основателей искусственного интеллекта, как концепции, автор методики программирования многошаговых интеллектуальных игр (MENACE) основатель Turing Institute в Глазго, The Human Computer Learning Foundation, и т.д., и т.п. – уделил огромное внимание вопросу, который считал ключевым для ИИ. Это вопрос о внутренних моделях окружающего мира, о модели построения/корректировки таких моделей, и о рекурсивном применении такого моделирования в интеллектуальной системе. Без внутренней модели, связывающей возможные явления внешнего мира (или вообще предметной области) – нет интеллекта. Подобие интеллекта, которое можно создать на базе модели сетей Хопфилда путем формирования больших решающих таблиц, “обучаемых” на примерах – окажется имитацией, опасной для пользователя, поверившего в “разумность” такого подобия.**
Ирония ситуации состоит в том, что Джеффри Хинтон (которому сейчас 75 лет), в бытность свою ученым, в 1980-х, занимался именно сетями Хопфилда, точнее, применение к ним метода Монте-Карло с целью исключить зависание в локальных минимумах ошибки (точно так же как метод Монте-Карло применяется к алгоритмам поиска минимума на обобщенной поверхности отклика). Гибрид сети Хопфилда с дополнением Монте-Карло по версии Хинтона и Сейновски был назван (шутки ради) машиной Больцмана. И это единственное значимое достижение Хинтона в computer science. Казалось бы, уж он-то должен яснее прочих понимать, что “эта штука” не может стать умнее человека, или хотя бы умнее божьей коровки. Скорее всего. он понимает это – но ради поддержания мейнстрима его попросили сказать иное (и как бы привязать к этому свой переход из ранга топ-консультантов в ранг почетных пенсионеров)…
…Что там было у Хинтона 1-м пункте насчет правды?
Бургомистр: Бери, не стесняйся. Я при деньгах. У меня как раз вчера был припадок клептомании. Бери…
Генрих: Спасибо, не надо. Ну а теперь скажи мне правду…
Бургомистр: Ну что ты, сыночек, как маленький,- правду, правду… Я ведь не обыватель какой-нибудь, а бургомистр. Я сам себе не говорю правды уже столько лет, что и забыл, какая она, правда-то. Меня от нее воротит, отшвыривает. Правда, она знаешь чем пахнет, проклятая?
(Евгений Шварц. Дракон. 1944 год)
…Такие дела…
——————
*) Собственно событие
‘The Godfather of A.I.’ Leaves Google and Warns of Danger Ahead. For half a century, Geoffrey Hinton nurtured the technology at the heart of chatbots like ChatGPT. Now he worries it will cause serious harm.
«Крестный отец ИИ» Джеффри Хинтон ушел из Google, считая внедрение ИИ опасным
«Крестный отец» нейросетей Джеффри Хинтон ушел из Google. Он решил покинуть компанию, чтобы честно рассказывать об опасностях нейросетей
‘Godfather of AI’ leaves Google amid ethical concerns Geoffrey Hinton is worried AI could eliminate jobs and spread misinformation.
Джеффри Хинтон покинул Google из-за этических проблем с технологией ИИ
Кто такой Джеффри Хинтон
**) История темы в этом журнале: Блеск и нищета ChatGPT: обучающие интернет-яды, ЛГБТКонсультант+, и гептасексуальные марсиане
Текст: А. Розов
Подпишитесь на наш телеграм-канал https://t.me/history_eco
- Новая доза топлива,в костер ИИстерики,от ИИпатриарха,вокруг GPT "ой,мы не будем
Leave a reply
Для отправки комментария вам необходимо авторизоваться.