March 29th, 2021

Говорят: Твое печенье - шо без сахара варенье. Мол, плевались без конца,

Рано утром я очнулся,
К чемодану потянулся.
Что такое? Где маца?
Ламца-дрица-оп-ца-ца!

Говорят: Твое печенье,
Что без сахара варенье.
Мол, плевались без конца,
Ламца-дрица-оп-ца-ца!

Свой таскаешь чемодан,
Чтоб обманывать славян.
Будем брать тя, подлеца,
Ламца-дрица-оп-ца-ца!

(no subject)

Пытаюсь читать разное про всяческие новомодные методы Machine Learning, распространившиеся в основном за последние 20 лет (хотя придуманные как методы вычислительной математики раньше), с их своеобразным волапюком:
- k-ближайших соседей (KNN)
- Машина опорных векторов (SVM)
- Gradient Boosting Machine (GBM),
- Random Forest (RF)
- Перцептроны и когнитроны
- Глубокая сеть доверия
- Алгоритм имитации отжига
- Ограниченная машина Больцмана
- TensorFlow
Несть им числа.

Я так вижу поверхностным взглядом, что аналогии и терминологию они черпают из нескольких областей физики (связь с которой утратили), впрочем, это было в вычислительной математике и раньше:
- Модели Изинга (и Поца) для твердых тел, отсюда все рассуждения про "гамильтонианы"
- Термодинамика, отсюда энергии, отсюда же понятие о метастабильности
- Тензоры (ну понятно)
- Топология
- В сетях - перколяции, фрактальность и т.п.
Наверно там многое еще не охвачено. :) Вот анализ размерностей (в разных видах) напрашивается. :) Еще синтаксис-семантика (вот про язык вирусов https://science.sciencemag.org/content/371/6526/233 но это не совсем отуда), вычислительными математиками становятся бывшие физики, а не лингвисты. :)

Ну про то, как на механику последние 20 лет наступили понятия вроде "лагранжевых когерентных структур", которые заменили прежние классические концепции, я ужe как-то рассуждал.