Конюшкова Елена Георгиевна : другие произведения.

О "разуме" нейросетей

Самиздат: [Регистрация] [Найти] [Рейтинги] [Обсуждения] [Новинки] [Обзоры] [Помощь|Техвопросы]
Ссылки:
Школа кожевенного мастерства: сумки, ремни своими руками
 Ваша оценка:
  • Аннотация:
    Эта статья была задумана еще в конце 2023 года, но в связи с тем, что мне отключили выход в интернет без всяких уважительных причин, публикую ее лишь теперь, когда удалось подключиться. Поэтому тут ссылки на газетные статьи конца прошлого года и цитаты оттуда. Статья о реальной опасности ИИ для социума, если продвигать эту технологию бездумно.

  
  О "разуме" нейросетей
  
  Я, хотя и являюсь программистом с большим стажем, но нейросетями мне заниматься на работе не пришлось, ибо работала в других сферах. Да и популярность нейросети приобрели в нашей стране лишь относительно недавно.
  
  Тем не менее, я прочитала ряд статей и книжек по теме нейросетей, и даже детально разобрала ряд наиболее интересных мне примеров. Иначе вникнуть в смысл происходящего там невозможно. Только после этой разборки очевидными стали некоторые важные детали, которые при поверхностном изучении как-то ускользают от внимания.
  
  Наиболее интересной и запутанной темой является, как мне представляется, имитация осмысленной человеческой речи. Забавно, что программы научились неплохо имитировать речь, но если вникнуть в начинку этих программ, то выясняется, что ничего даже отдаленно напоминающего процессы, происходящие в человеческом сознании, там нет и близко. По идее это должно быть ясно всем сразу, потому как обучают эти нейросети на наборах данных, а не на восприятии реального мира и реальных речей, привязанных к этому миру. Но это только по идее.
  
  В реальности люди попадают под впечатление речей искусственного интеллекта (ИИ далее), так похожих на речь человека и начинают воображать себе черт знает что про них. Так, например, даже в центральной прессе (конкретно, в "Независимой газете" от 21.12.23, в статье "Нейросети и перспективы стратегической стабильности") выдают такие перлы, что хоть стой, хоть падай. А ведь их читает и им доверяет множество людей, у которых мозги быстро могут съехать набекрень. Пытаюсь противостоять этому печальному процессу в меру своих слабых сил.
  
  В статье сначала говорится о том, что с самого верха нашей "вертикали" поступили указания о необходимости "ускоренного внедрения в их (правительства, то есть) деятельности технологий искусственного интеллекта. Ожидается, что обновленная стратегия по развитию ИИ в России может быть утверждена до конца 2023 года". И это говорится о технологиях, в значительной степени непрозрачных для людей вообще и, главное, для специалистов, работающих в этих сферах. Грядет кошмар! Это безумное решение.
  
  К счастью, находятся специалисты, прекрасно понимающие огромную опасность подобных необдуманных решений. О них я скажу ниже.
  
  А пока еще одну цитату из вышеуказанной статьи: "все больше признаков, хотя и косвенных, того, что нейросети вполне могут обрести субъектность. А человека они воспринимают в качестве мутагенного фактора, который можно использовать на благо развития нейросетей".
  
  Насчет "субъектности" нейросетей не когда-нибудь лет через 100-500, а "уже в ближайшие пять лет" - это чушь невероятная. И главное в этой чуши то, что субъектность, иначе говоря, самосознание, в принципе может появиться там и только там, где появляется отделенное от прочего пространства условное функционирующее тело, которое является вместилищем этого разума, иначе говоря нейросетей. По одной простой причине: ощущение "Я" появляется в принципе только в том случае, если есть "Не Я". То есть мир распадается на две неравные части: малая принадлежит мне, а большая всему остальному миру. Из противопоставления этих двух условных пространств и рождается ощущение "Я". Подумайте об этом, я же здесь углубляться не буду, статья совсем о другом.
  
  И в конце этой странной статьи дикий вывод: "С нейросетями придется договариваться. В противном случае ИИ, контролирующие и оценивающие ядерную безопасность, договорятся сами, без нас. Не факт, что результат этих нейросетевых переговоров понравится "родителям" искусственного интеллекта".
  
  Мыслимое ли дело?! Вы поняли? Руководство требует человеческие решения заменять решениями ИИ в важнейших вопросах, тогда как никто на данный момент толком не понимает, каким образом в каждом конкретном случае ИИ принимает решение. Пусть они в ряде случаев были эффективны, но нельзя же бразды правления отдавать этому "черному ящику"! Это примерно так же, как гадать на кофейной гуще, вместо продуманных осознанных решений.
  
  Так на кой же их так сильно внедрять в жизнь, чтобы придти к такому печальному финалу?? Вы бы сначала разобрались в деталях работы этого механизма. Не умеете? Так тогда не сходите с ума, поручая неведомым алгоритмам, важные задачи, в том числе ядерную безопасность. Собственные мозги надо включать своевременно. Оно как-то надежнее.
  
  И еще один очевидный момент. Под эту самую непрозрачность работы алгоритмов нейросетей очень легко впихнуть любые махинации под видом работы ИИ. Были бы деньги и доступ к тем компьютерам, где ИИ установлены. Они вам там такую "субъектность" устроят"!! Потом пойди, проверь! А там будут сидеть доверенные программисты и помогать ИИ выдавать необходимые решения. Охрана ИИ будет по высшему разряду, не сомневайтесь.
  
  И, самое главное, получается, что за самые жуткие решения никто не отвечает! Кто начал очередную войну, возможно, ядерную? ИИ, ребята! А какой с него спрос?
  Это же маразм мирового масштаба, чтобы такое допустить.
  
  Теперь про оппонентов озвученной точки зрения. В той же "Независимой газете", но еще от 09.11.2023 в статье "Центробанк выпускает ИИ на финансовый рынок" видно как сильно сопротивляется этот самый Центробанк подобным странным нововведениям и говорит вполне разумные вещи: "Присущие ИИ риск-факторы (например, проблемы объяснимости алгоритмов и качества применяемых данных) могут значительно усиливать классические риски финансового сектора, в частности приводить к фальсификации клиентских данных, мошенничеству...".
  
  Далее там же упоминаются "такие проблемы как непрозрачность принимаемых ИИ решений, подверженность манипуляциям, игнорирование требований к конфиденциальности и др.".
  
  Наличие рисков подтверждают и другие эксперты, как написано в статье: "нейросети оперируют теми данными, которые есть в доступе, они ничего нового не придумывают, а лишь перебирают набор вариантов...".
  
  В общем, ситуация далека от нормальной. Несмотря на то, что многие задачи уже успешно решаются с помощью ИИ, это совсем не значит, что им можно поручать любые задачи. Нужно строго очертить круг задач, которые они могут решать. Это могут быть задачи рутинные и не особо значимые, так, чтобы сомнительные результаты можно было легко исправить.
  
  Это же мечта всех злодеев мира: найти "субъекта" вроде бы разумного и имеющего возможность принимать решения. При этом отвечать за эти решения некому! Конфетка!
  
  Теперь перейду к собственным размышлениям по теме. Опять же о понимании и имитации речи. Самое главное здесь то, что осмысленность решений и высказываний ИИ лишь кажущаяся, за ней не стоит никакого понимания, к которому мы все привыкли, разговаривая с другими людьми. Именно из-за этой иллюзии у людей и возникают нелепые мысли о субъектности ИИ. За словами людей стоят их мысли, мы к этому привыкли. За словами ИИ стоит длительная дрессировка, чтобы ИИ, без всяких мыслей существующих, научить формулировать нужные людям фразы. Это симуляция на деле. Так и только так это и надо понимать.
  
  На входе в человеческое сознание - весь сложный окружающий мир, на входе у ИИ - специально подобранные для каждой конкретной задачи наборы данных. Например, наборы слов. Слов, которым не соответствуют объекты реального мира. Или даже образы этих объектов! Ничего этого у ИИ нет. Запомните это, дабы не впадать в идиотизм.
  
  Когда разбираешься в программах этой имитации разума, то понимаешь, что в основе лежит совершенно иная логика, искусственно выстроенная на достижение конкретного результата, и не имеющая ничего общего с человеческим пониманием предмета обсуждения. Когда я это только поняла, мне стало даже как-то страшновато, настолько это далеко от человеческого понимания темы. А выглядит, тем не менее, похоже. Это лишь симуляция. Никаких важных решений доверять ИИ нельзя. Это закон самосохранения.
  
  "Разум" ИИ в плане имитации речи сводится к какому-то волейболу, или усложненному бильярду, когда в "лузы" надо загнать не любые слова-шарики, а лишь обладающие определенными техническими характеристиками. Смысловое же содержание слов учитывается не само по себе (оно вообще там неизвестно), а лишь в силу принадлежности какому-то месту в матрице или в группе.
  
  То есть, с тем, как использует слова человеческий разум, нет ничего общего: смысл просто не может быть учтен, т.к. понимать его внутри этой программы некому.
  
  Я повторяю все это здесь многократно и по-разному, в надежде, что это повторение не оставит возможности читателям не заметить это важнейшее для понимания природы ИИ утверждение.
  
  Я не спорю с тем, что когда-нибудь через многие десятки, а скорее, сотни лет, развитие ИИ может привести к реальному полномасштабному интеллекту. Но для этого надо как минимум дать нейросетям возможность познавать реальный окружающий мир и обучаться примерно так, как мы обучаем детей, а не на искусственных подогнанных под конкретные задачи выборках. Какие данные на входе - такой и результат! Скособоченный и в инвалидной коляске.
  
  Пока мы только начали изучение этой гигантской темы. На выходе получили уродца, местами уже чего-то более-менее связно лопочущего, а хотим разговаривать с ним, как со взрослым разносторонним ученым. Это путь в абсолютное безумие в плане развития цивилизации.
  
 Ваша оценка:

Связаться с программистом сайта.

Новые книги авторов СИ, вышедшие из печати:
О.Болдырева "Крадуш. Чужие души" М.Николаев "Вторжение на Землю"

Как попасть в этoт список

Кожевенное мастерство | Сайт "Художники" | Доска об'явлений "Книги"