ИИ и Вселенная

Блог им. H2O 30 июня 2019, 19:43 H2O
Впервые астрофизики использовали искусственный интеллект для создания комплексной 3D-модели Вселенной. Результат был получен настолько быстро и оказался настолько точным, что разработчики пока не понимают, как это произошло. Их удивила способность ИИ делать с гигантским объемом данных то, чему систему не учили.
Созданная учеными из Центра вычислительной астрофизики Нью-Йорка модель Deep Density Displacement может точно предсказать, как будет выглядеть космос, если изменить кое-какие параметры — например, концентрацию темной материи. Она тратит на обсчет симуляции несколько миллисекунд, в то время как обычные «быстрые» симуляции требуют нескольких минут. Кроме того, она оказалась поразительно точной.

Такие компьютерные модели, как D3M — важный научный инструмент для астрофизиков-теоретиков. С их помощью ученые понимают, как могла бы развиваться Вселенная при различных обстоятельствах, например, если бы количество темной энергии, заставляющей ее расширяться, менялось бы со временем.

Такие исследования требуют проведения тысяч симуляций, и быстродействующая и точная программа способна сократить срок исследования в разы. И теперь она есть.

D3M моделирует влияние гравитации на Вселенную. Ученые выбрали гравитацию, потому что это наиболее важная сила, когда речь заходит об эволюции космоса в долгосрочной перспективе. Наиболее точные методы расчета влияния силы притяжения на каждую из миллиардов частиц за все время существования Вселенной требуют около 300 вычислительных часов на одну симуляцию. Более быстрые методы могут справиться за две минуты, но точность при этом падает.

В ходе обучения ученые загрузили в нейросеть D3M 8000 различных симуляций от самых высокоточных моделей. Когда учеба завершилась, D3M сама провела симуляцию кубической Вселенной со стороной 600 млн световых лет и сравнила результаты с самыми медленными (сотни часов вычислений) и самыми быстрыми (пара минут) моделями. D3M справилась за 30 мс с относительной погрешностью 2,8%. У самой быстрой модели этот показатель равен 9,3%.

Но не скорость или точность проекта, названного для краткости D3M, поразили ученых больше всего.

Настоящий шок вызвала у них возможность модели предсказать поведение системы при изменившихся параметрах — даже несмотря на то, что она не получала никаких данных, в которых эти параметры были бы иными.

«Этот как учить программу распознавания изображений по картинкам с котами и собаками, и выяснить, что она узнает слонов, — объяснила Ширли Хо, руководитель проекта. — Никто не знает, как у нее это получилось. Эту загадку нам лишь предстоит разгадать».    

Нейросеть PlaNet, разработанная в Google и DeepMind, создает динамические модели мира на основе визуальных данных, что позволяет ей разобраться в таких абстрактных понятиях, как скорость объектов. Некоторые задачи она решает в 50 раз эффективней конкурентов.

https://hightech.plus/2019/06/27/ii-sozdal-sverhtochnuyu-model-vselennoi-i-uchenie-ne-znayut-kak

Капитан намекает что они изменяли данные которые подавались на вход системе. Сама система при этом не менялась.

Суть примерно такая.

1. Сначала задают архитектуру нейросети, слои, передаточные функции и коэффициенты и т.д. На этом этапе нейросеть выдает полнейшую хуйню для любых параметров.
2. Потом они берут конкретные входные параметры, и посчитанные другим методом правильные результаты для этих параметров. Входные параметры подаются на вход (кеп), а на выход из сети приходит какая-то полурандомная хуйня. Но обучающий алгоритм сравнивает результаты сети с полученными ранее, и корректирует внутренние параметры нейросети так, чтобы ее результаты приблизились к правильным.
3. Берут другие конкретные входные параметры, и соответствуеющие результаты. Проделывают с ними то же самое.
4. Пункты 2 и 3 повторяются 10005000 раз, пока результаты нейросети не станут достаточно близким к реальным на всех интересующих диапазонах входных параметров.

Как можно догадаться, нейросеть хорошо работает для параметров которые похожи на те, на которых она натренирована. Если подать на вход то для чего ее совсем не тренировали, то высока вероятность что она выдаст хрень. Но иногда бывает что нейросеть в процессе тренировки «находит» неизвестный параметр который люди найти не могут, и благодаря тому что она успешно его интерполирует/экстраполирует, сеть умудряется хорошо работать на нетренированных случаях. Именно это и произошло в данном случае. И именно это удивило ученых своей крутостью.

Просто. Были до этого системы симуляции, некоторые медленные и более точные, некоторые менее. Их точность узнавали без изменённых параметров. А после — на них параметры меняли. Точность у них сохраняется. После — этой вот нейросетке скармливают результаты работы симуляций. А удивились тому, что система так же рассчитывает быстро те параметры, которой нейронку не обучали.
1 комментарий
 Отр.:
Думаю, если по простому, то она находит детали, которые вытекают из множества комбинаций заранее заложенной модели. В этом плане ИИ действительно может указать человеку на достаточно очевидные вещи, на которые человек не обратил внимание. Что в свою очередь, приведет к открытию еще новых параметров.

Они войдут в матрицу и аналогично будут участвовать в процессе. Но есть вопрос. И он связан с человеком.

Дело в том, что восприятие человека огромно. По умолчанию, человек оперирует таким количеством данных, что их невозможно вложить в начальные условия.

ИИ старается описать модели, которые существуют в пространстве. Но восприятие натренированного человека и есть само это пространство. Сознание Гуатамы было пространство. Все, что находится в этом пространстве, особенно такие объекты, которые могут указать на себя пальцем и сказать: это я, а это отличное от меня — ограниченно.

Если мы говорим на уровне ограниченности, то ИИ однозначно будет умней человека. Но ИИ будет всегда глупей пространства. Т.к. ИИ, только часть его.

В этом плане, как тренируется ИИ? Он набирает данные. Как тренировался Гуатама? Он убирал ограничения. Человеку не надо набирать данные. Они есть и они воспринимаются. Но мы не слышим их. Наши знания, наше ЭГО, эгоцентризм мешает увидеть их. Границы виноваты. Т.е. Гуатама тренировками убрал границы. Убрал шум, который мешал.

Это разный подход. Да и науке сложно, если все описывать по пунктам. Гуатама говорил, на вопрос: что содержит пространство, утрированно — ВСЕ! Но ведь наука не успокоиться. Она скажет. Давайте пункты, что все.

Но тут был ответ. Если я начну перечислять это, то не хватит наших жизней говорил он.

Т.е. мы опять приходим к тому, что если задать границы, ИИ успешней человека опишет поведение в этих границах, но откроет много всего нового в рамках этих границ. Но далее, модель перечисления, накопления, перебора, не сработает. Нет числа условий, которые надо учитывать. Нет им конца. Это не миллиарды условий. Если бы было число, вопрос бы только упирался в мощности и время. Но нет границ. В этом потенциал человека. Ему все это доступно изначально. Машине нет.
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии.