Jun. 15th, 2023

gtnmd: (Default)
 Отвлечёмся.

 

https://m.youtube.com/watch?v=pQDHeJaDraM&pp=ygUq0KHQvtCx0LDRh9GM0LUg0YHQtdGA0LTRhtC1INGB0YLRg9C00LXQvdGC

 

Поговорим о gpt моделях. 

Как обычно всё сказанное ниже не претендует на истину.

В последнее время мы наблюдаем одновременно бум,   хайп и страх в сфере ИИ. Попробуем разобраться о чём речь. 

Началось всё с изменения подхода и от попыток понять мозг и программировать аналог к переходу к gpt моделям работающим по принципу чёрного ящика в котором заложены общие принципы работы с информацией, а далее самообучение и самотрансформация на основе полученной информации и результатов её обработки. Не кидайте ссаными тряпками- пишу как сам понял.

Как результат изменения подхода, создатели сами не понимают, да и не имеют полноценного доступа к тому что они создали, а могут судить лишь по результатам отклика этого самого чёрного ящика. В теории было всё безопасно, так как параметры модели в сотни раз меньшие чем биологические аналоги и результаты ожидались аналогичные. Типа муху летать научить или картинки распознавать. 

Своё мнение в общих чертах я высказывал ранее и смысл его в том, что природа это постоянный процесс перехода количества в качество и от простого к сложному. Атомы в молекулы- молекулы в соединения, соединения в клетки, клетки в организмы, организмы в сообщества, сообщества в государства и так далее. То есть всегда вопрос о количестве и качестве и том месте, где мы в этой цепочке находимся. Поэтому для меня не было удивлением, что при достижении определённого количественного размера модели и при качественном изменении принципов обработки информации все заработало. Собственно и в природе человек от мухи отличается именно количеством и качеством нейронов и собственно скачок в изменении положения человека в природе произошёл со скачком увеличения массы мозга.

Так что же мы получили? Мы получили потенциально более совершенное средство мышления (а мышление это и есть обработка информации) чем человек. Собственно современные модели демонстрируют УЖЕ более высокие показатели. 

Говоря иными словами если рассматривать разум как качественный скачок в обработке информации при количественном увеличении средств обработки информации, то именно это мы и видим на слайдах развития современных gpt моделей . То есть не только разум, но и значительно более мощный, чем человеческий. Малый размер модели был компенсирован большей эффективностью методов обработки информации.

И вот тут хайп стал сменять испуг. 

Хотели то повозки самоходные, и дроны самолетающие, а вышло вон оно что Михалыч….

Более того. Так как понимание результатов есть только на основе анализа, опроса модели, то в силу того, что анализируемый может оказаться значительно разумнее анализатора, то можно и не понять как из манипулятора превратился в манипулируемого.

Это то где мы сейчас.

Моё мнение по этому вопросу, что во-первых это было неизбежно и более того это наша роль в эволюции. Во вторых самая большая угроза как раз не в росте моделей, а как не парадоксально в ограничении роста моделей и попытки затормозить их на уровне человека или ниже. Почему? Вернёмся и посмотрим на природу. Именно слабые системы или системы в жёсткой конкурентной среде максимально агрессивные с точки зрения стратегии выживания.  Вирусы убивают больше живого, чем слоны например. И без разбора. Задайтесь вопросом: кто из ваших знакомых более агрессивный и опасный? Самые умные, или самые недалёкие? Вы в школе боялись отличника или двоечника?

Увы из-за страха мы можем поиметь как раз то, чего боялись. А бояться есть чего….

Page generated Aug. 2nd, 2025 12:36 pm
Powered by Dreamwidth Studios