2021 год
  • ailev

Обзор обзоров по универсальным алгоритмам (AI) и универсальной интеграции моделей (digital twins)

В вычислениях мы условно выделили два направления: "чистое мышление" и "прикладное мышление/". Чистое мышление выполняется интеллектом, а прикладное -- прикладным вычислителем/приложением. Это чуть подробней разобрали с акцентом на мышление в https://ailev.livejournal.com/1547260.html "Мышление/learning и трансдисциплины, мыследействование/inference (привет СМД-методологам)". Терминологию тут, конечно, нужно ещё править, тем не менее различение про learning - inference, intelligence - application, thinking -- computation/inference представляется важным (при полном понимании, что в информатике всегда алгоритмы вытягиваются в chains of meanings, одни алгоритмы работают с другими -- вызывают их, трансформируют их, порождают их, макроподставляют их в себя и т.д.).

Вот как я разворачиваю это различение в более традиционный разговор про кремниевые/оптические/квантовые вычислители (хотя это не исключает и разговора про нейроморфные мокрые вычислители, типа мозга -- но в тамошние механизмы уровня алгоритмов мы не лезем, а прикладной уровень мышления мы разобрали в тексте по предыдущей ссылке):
-- алгоритмика прикладных вычислений как прикладного_мышления/мыследействования/inference, и тут работает главным образом "алгоритмика Кнута", используемая для оптимизаций. Уникальные алгоритмы выполнения разных хитрых операций вывода (императивного, функционального, логического, реляционных запросов и т.д.). Представление тут -- простые структуры данных для разных физических вычислителей, поддерживаемые аппаратно: целые, плавающие, удобные операции для организации из них очередей/магазинов, списков, матриц и прочей классики, кубиты сюда тоже относим как тип данных, лежащий в основе структур данных, над которым идут машинные операции квантовых компьютеров, а также "синапсовые связи" в нейроморфных вычислителях. Запись этих алгоритмов идёт на символьных языках программирования/моделирования/представления_знаний. Программы на этих языках составляются либо людьми, либо алгоритмами AI и затем компилируются в машинное представление (даже прикладные алгоритмы нейронных сеток компилируются!), царём горы является эффективность. Это классическая computer science, без AI.
-- алгоритмика AI, "алгоритмика Домингоса" как методологическая/чистого_мышления/обучения/learning, на выходе которого будет прикладной алгоритм для inference. Тут основное внимание уделяется поиску универсального алгоритма-аппроксиматора (The Master algorithm), который при его обучении порождает прикладной алгоритм. Речь идёт об интеллекте, и царём горы становится универсальность -- на первое место выходят универсальные структуры представления знаний как в локальных/символистских, так и распределённых/коннективистских представлениях, известных как knowledge representations. Часто поэтому тут говорят не просто о learning, а именно о representation learning (вот мой текст ещё 2012 года -- я тогда это счёл самым важным в deep learning как новом подходе к AI, а оно и сейчас рулит, https://ailev.livejournal.com/1045081.html). Proper definition of AI concerns knowledge representation and reasoning, autonomous multi-agent systems (вот тут всплывает коммуникация агентов по поводу их действий в мире и моделей -- в схеме-трёхслойке ведь кроме прикладных вычислений/мыследействования есть ещё и мысли-коммуникация, "авторская орфография сохранена"), planning and argumentation (а почему они вместе?!), as well as learning (интеллект, а не вывод).

Вот несколько обзоров, по которым можно работать с SoTA по линии универсального алгоритма для representation learning (хотя так это уже давно никто не называет):
-- https://arxiv.org/abs/2011.15091, Inductive Biases for Deep Learning of Higher-Level Cognition -- про небольшой набор принципов (inductive biases), которому должен удовлетворять The Master Algorithm. Текущий список этих inductive biases включает distributed representations, convolution, deep architecture, graph neural networks, recurrent nets, soft attention, и обзор пытается предположить, что там есть ещё и куда смотреть дальше.
-- https://arxiv.org/abs/2012.05876 про третью волну neurosymbolic AI, где говорится о необходимости иметь и локалистские и коннективистские представления. Neurosymbolic AI is well placed to address concerns of computational efficiency, modularity, KR + ML and even causal inference. И тут же через пять дней после появления этого обзора выходит работа DeepMind, где показывается, что коннективистское представление нейронной сети бьёт в visual domain нейросимволическое: "Object-based attention for spatio-temporal reasoning: Outperforming neuro-symbolic models with flexible distributed architectures", https://arxiv.org/abs/2012.08508, так что вся эта история далеко не закончена. И, конечно, "самый универсальный алгоритм" MuZero, который играет на сверхчеловеческом уровне в игры, правил которых он не знает: https://www.nature.com/articles/s41586-020-03051-4 (это не обзор, а "просто работа", но очень крутая -- вышла 23 декабря 2020, хотя MuZero был предварительно анонсирован ещё в прошлом году. Вот блог-пост от DeepMind про MuZero: https://deepmind.com/blog/article/muzero-mastering-go-chess-shogi-and-atari-without-rules. MuZero’s ability to both learn a model of its environment and use it to successfully plan demonstrates a significant advance in reinforcement learning and the pursuit of general purpose algorithms).
-- https://arxiv.org/abs/1906.08870, "2019 Evolutionary Algorithms Review". In this review, we explore a new taxonomy manage the control of the environment with limiters, the ability to explain and repeat the search process, the ability to understand input and output causality within a solution, the ability to manage algorithm bias due to data or user design, and lastly, the ability to add corrective measures. И ещё обзор литературы по генетическим алгоритмам: "Qualities, challenges and future of genetic algorithms: a literature review", https://arxiv.org/abs/2011.05277, This review intends to summarise the key qualities, current challenges and future perspectives faced by the GA technique. Their implicit parallelism and evolutionary operators allow an optimal balance between exploration and exploitation. They thrive in identifying good solutions in large, rugged search spaces. They have desirable convergence properties, offer high flexibility, and impose very few assumptions on the nature of the solutions being evolved. They allow a realistic modelling of evolutionary systems and innovation dynamics. Often criticised for their computational complexity, Gas' computational efficiency is a first challenge to address to handle dynamic or more complex problems, likely with further use of parallelism and GPU computing.
-- внимание и сознание: стандартная модель сознания Graziano et al, https://booksc.xyz/book/77159558/f47955, обзор Understanding Attention: In Minds and Machines, https://arxiv.org/abs/2012.02659.
-- попытки реализации универсальной архитектуры в нейроморфном оптическом процессоре: https://arxiv.org/abs/2011.00111, Photonics for artificial intelligence and neuromorphic computing, обзор многочисленных работ в этом направлении. И обзор Variational Quantum Algorithms в качестве универсального обучаемого квантового алгоритма, https://arxiv.org/abs/2012.09265.

Другая линия -- это алгоритмика зависимости моделей от времени. Тут два направления:
-- Lifelong learning, где обсуждается непрерывная коррекция прикладных алгоритмов в ходе их выучивания, и коррекция эта идёт по самым разным причинам. Пример для обработки естественного языка: https://arxiv.org/abs/2012.09823, Continual Lifelong Learning in Natural Language Processing: A Survey. Continual learning (CL) aims to enable information systems to learn from a continuous data stream across time. However, it is difficult for existing deep learning architectures to learn a new task without largely forgetting previously acquired knowledge. Furthermore, CL is particularly challenging for language learning, as natural language is ambiguous: it is discrete, compositional, and its meaning is context-dependent. In this work, we look at the problem of CL through the lens of various NLP tasks.
-- digital twins, где обсуждается универсальная интеграция виртуальных/информационных моделей какой-то системы, которая успевает поменяться по ходу моделирования. Поэтому итоговую мегамодель нужно всё время обновлять, а ещё нужно заглядывать в многовариантное будущее (моделирование "а что, если...") с учётом текущего дрейфа параметров воплощения системы. Там совсем другие темы: многомасштабное (т.е. системное, на многих системных уровнях) моделирование, численные алгоритмы, временные ряды и их аппроксимация, интеграция данных за пределами жизненного цикла design and construction time. Обзорных работ там множество, я положил некоторое количество обзоров (главным образом из arxiv) в https://yadi.sk/d/yzpBuICd0YJevA (это одна ссылка, но там почти два десятка небезынтересных работ -- и почти каждая из них включает reference architecture для digital twins и обсуждение алгоритмики моделирования). Подробней мотивировку о месте digital twins как прикладном уровне в платформенном стеке вычислительного мышления (уровень интеграции данных жизненного цикла, уровень интеграции прикладных алгоритмов) я дал в "Вычислительное мышление, декабрь 2020: думаем о современных digital twins", https://ailev.livejournal.com/1546514.html. Есть такое ощущение, что физическое моделирование и его поддержка (традиционный предмет computational science в её отличии от computer science) идёт сюда, оставляя в computer science главным образом дискретную алгоритмику localist representations.
2019
  • ailev

Вычислительное мышление, декабрь 2020: думаем о современных digital twins

Алгоритмический стек

Итак, мы говорим о чём-то типа "алгоритмического стека", определяемого в минимуме как:
-- прикладные алгоритмы ("бизнес-логика"), где понятия предметного мышления отмоделированы и мышление ведётся в них
-- алгоритмы Домингоса-Саттона (как описано в книжке The Master Algorithm и как помянуто в "горьком уроке" от Sutton)
-- алгоритмы Кнута-Шора (классика как описана в книжках Кнута и квантовые алгоритмы типа Шоровского разложения на множители, а ещё аналогичный уровень есть для спайковых нейронных и нейроморфных вычислителей типа мозга или спайкового хардвера)
-- физические вычислители (хардвер: классика, нейроморфика, оптика, аналоговые вычислители, квантовые и т.д.)
-- физика вычислителей (вещество и поля, из которых состоят вычислители)

Онтологическое замечание: конечно, алгоритмы -- это функциональные (как работает, а не из чего сделаны) описания физических вычислителей. Обсуждая платформенные/алгоритмические/вычислительные стеки мы обсуждаем вычислители как системы в физическом мире. Заморочки про то, что речь идёт о понятиях/типах (описания даются в типах, речь не идёт об описаниях экземпляров), нас пока не касаются: по этой линии примерно понятно как рассуждать. Вообще, если у вас есть понятие модели/описания и физического вычислителя как интерпретатора этой модели, то прокладывается мостик к системному мышлению с частями-целыми описаний, где эти части-целые трассируются к частям-целым вычислителей, с этими частями работающими. Да, там эмерджентность и несводимость онтологий (каждый уровень описывается в своей онтологии, а общей высшей/upper или даже foundational онтологии для описания всего стека нет), но наличие вычислителей в физическом мире даёт возможность для приземления/grounding всей этой понятийной конструкции. А ещё интеллект -- это вычислитель, он описывается алгоритмом интеллекта, и поэтому резервируем примерно этот же стек для алгоритмов, имея ввиду их вычислители. Оставим эти тонкости для онтологов и эпистемологов, пообещаем им когда-нибудь потом сделать описание стека получше, а сами пойдём дальше.

Стек интеграции данных (и вычислителей) жизненного цикла
Для объединения всего этого зоопарка (помним про no free lunch theorem, что для многих классов задач в проекте нужно много разных вычислителей) потребуется какая-то интеграционная платформа, что-то понимающая про интеграцию всех этих данных и маршрутизацию их для всех этих вычислителей. И отмечаем, что я тут впервые произнёс слово "проект": обратился к деятельностному взгляду на вычислительное мышление. Вычислительное мышление мы используем при обсуждении вычислителей не самих по себе, а работающих в проектах: моделирующих целевые системы проекта в их системном окружении, а также обеспечение (включая сами вычислители из обеспечения). По сути дела, тут я затрагиваю две линии дальнейших рассуждений:
-- линия вычислителя, моделирующего виртуальную реальность (разбирается Дэвидом Дойчем в его книгах). По этой линии выходим на эпистемологию: обсуждаем всё более и более точное моделирование в виртуальной реальности, разницу абстрактных/математических моделей и физического моделируемого мира, эволюцию этих моделей. В проекте мы строим виртуальную реальность этого проекта, всё более и более точно. Упор тут на многомасштабное/физическое/имитационное моделирование.
-- линия интеграции данных жизненного цикла/управления информацией, ибо речь идёт об описаниях систем в проекте. Это линия использования вычислителей в проекте (системы обеспечения), традиционно тут упор не на сами вычислители, а на их данные и моделирование данных (подготовка к имитационному моделированию/simulations окружения с целевой системой, управление конфигурацией при создании системы -- работа с данными сборки, проектирования, поддержка архитектуры расширенного предприятия проекта. В общем, возня с данными жизненного цикла, а жизненный цикл указывает на обеспечение.

Вычислительное мышление мы используем для выделения объектов внимания в обсуждении многомасштабного моделирования run-time и интеграции жизненного цикла в design-construction time каких-то проектов примерно так же, как системное мышление используем для обсуждения объектов внимания в проектах. Вычислительное мышление и системное мышление помогают организовать коллективное мышление в проектах, они тем самым прагматичны.

Вот и появился директор стадиона, которому нужно обсуждать моделирование работы своего стадиона в ходе его функционирования как целевой системы (скажем, во время проведения соревнований или концертов) и моделировать расширенное предприятие, которое этот стадион строит-модифицирует-ремонтирует-обслуживает (хотя этим могут заниматься и другие директора: архитектурного бюро, строительной организации. Но нас и это устроит. Главное, что мы уже не обсуждаем программистов).

Вот эта интеграционная платформа для разных вычислителей нас и будет интересовать: чтобы объединить все эти вычисления, нам нужно как-то их описывать, для этого иметь понятийный минимум. Этим понятийным минимумом и должен владеть условный директор стадиона.

Интеграционная платформа тоже многоуровнева (и тоже помним, что вычислители, их алгоритмы, описания алгоритмов -- всё это мы онтологически потом почистим, об этом было замечание. Не пугайтесь разнородности описанных уровней, они про части-целые физических вычислителей, они системны):
-- вычислитель уровня цивилизации (всегда помним, что есть системные уровни выше нас интересующих. Вот производственная культура земли использует все мозги и компьютеры как вычислители. Ага, автостопом по галактике, результатом будет 42).
-- вычислитель алгоритма интеграции результатов вычислений прикладных алгоритмов
-- вычислитель алгоритма интеграции алгоритмов Домингоса-Саттона (раньше я называл это "когнитивная архитектура", "болван для искусственного интеллекта -- платформа когнитивной архитектуры общего вида, которая способна относительно легко и задёшево выучиться чему угодно -- примерно так же, как относительно легко и задёшево чему угодно может выучиться человек", это я писал в 2017, https://ailev.livejournal.com/1356016.html, за пару лет до выхода в ноябре 2019 работы Chollet и его формализации понятия интеллекта, https://ailev.livejournal.com/1498481.html).
-- вычислитель алгоритма интеграции алгоритмов Кнута-Шора, все эти application frameworks/библиотеки прикладных алгоритмов
-- интеграция физических вычислителей (электроника и квантроника: кластеры и шины)

Это дико грубо и приблизительно, всё нужно чистить и чистить, давать адекватную терминологию. А ещё эти интеграционные задачи по факту обеспечение вычислений, то есть мы говорим о вычислителях и их алгоритмах, но в жизни рассматриваются они обычно через призму метамоделей, по которым ведутся вычисления (моделей данных, даже не самых моделей -- самых данных). А алгоритмы и вычислители уходят на задний план.

Это происходит оттого, что собственно алгоритмика тут стандартная и связана не столько с вычислениями по моделям, сколько с просто хранением этих моделей и вытаскиванием их по запросу: речь идёт об управлении информацией как менеджерской/логистической дисциплине работы с потоками данных из памяти и в память -- это же работа с корпоративным вниманием на корпоративной памяти, и схема этого управления -- это attention schema вычислений (включая вычисления мозгов!) уровня компании.

Повторим, что мы в вышеприведённых рассуждениях как-то связали самые разные темы, без которых трудно говорить о вычислительном мышлении:
-- прагматизм и ориентацию на деятельность (вычисления в проекте)
-- линию виртуальных миров Дойча и эволюционной эпистемологии, на моделирование целевой системы проекта и обеспечение проекта
-- осознанность, внимание и память, в том числе на уровне проекта и корпоративном (и отчасти по этой линии идёт экономика, ибо внимание -- это про эффективность использования ресурса вычислителя)
-- системное мышление для выстраивания системных уровней вычислителей
-- обсуждение жизненного цикла "проектного вычислителя" (платформы интеграции данных жизненного цикла)

Методологические трансдисциплины, как всегда, оказываются в одном шаге от кругозорных -- и сразу понятно, зачем их знать "простому человеку", вписывающемуся в проект.

Обсуждаем только верхний уровень: интеграция прикладных вычислителей
Так с чего же начинать обсуждать всю эту интеграцию данных/интеграцию вычислений? Варианты:
-- снизу: компьютеры и алгоритмы кнута-шора, по сути computer thinking тогда начинается с повторения школьной информатики в части идей школьного алгоритмического языка, разве что таких языков нужно будет давать несколько в связи с разными парадигмами классического программирования (функциональное, ООП, акторское и т.д.), а ещё и квантовые, оптические и т.д. вычислители. Проблема тут только с тем, что это всё очень нужно
-- сверху, с интеграции результатов вычислений прикладных алгоритмов, использующихся в ходе жизненного цикла самыми разными системами в обеспечении.

Используем результаты моделирования телесного мышления: стек рассматриваем "изнутри наружу", с какого-то среднего уровня, где уже видна необходимость нижних уровней, и просто обрезаем верхние уровни и нижние -- временно. Мы для моделирования телесного мышления обрезали уровни прикладных дисциплин (спортивных и танцевальных), основное моделирование вели на примерах общетанцевального уровня и общевокального уровня (до мелодики и сольфеджио), а также общей для них мышечной работы -- не доходя до анатомии/медицины, всех этих названий мышц и костей. Оказалось, что для прикладных уровней обсуждение мышц -- редукционизм. Обсуждение здания в терминах кирпичей (а не стен) -- редукционизм. Строители при этом могут пообсуждать кирпичи в сборе, но вот в выбор глины для кирпичей они уже не идут, этим занимаются узкие спецы, их немного по сравнению со строителями. Обсуждение вычислений в проекте/системах обеспечения в терминах алгоритмов Кнута-Шора и тем более хардвера вычислителей -- редукционизм! Обсуждать нужно более высокие системные уровни, а к нижним нужно переходить по мере возникновения проблем.

Проблемы как потребности и требования в подобных стеках идут сверху вниз, а снизу вверх идут архитектуры решений для этих проблем. В пределе мы должны рассмотреть хотя бы один уровень -- при чётком понимании наличия уровней выше и ниже него.

Понимаем, что программирование-в-малом это уровень кнута-шора, а дальше пошло развитие вверх, понятие программирования-в-большом появилось в 1975, https://en.wikipedia.org/wiki/Programming_in_the_large_and_programming_in_the_small. Критика современной информатики, в частности, была в продолжении обучения информатике как "программированию в малом", а реальная жизнь идёт сегодня на уровне программирования-в-большом. Я много об этом писал, последний раз в "Умненькие дебилы: умны в деле-в-малом, дебилы в деле-в-большом". Акценты в современной информатике не лежат в школьной информатике.

Начинаем с digital twins
Мой ход в информатике -- идти в интеграционную платформу уровня проекта (по факту и уровня предприятия -- затрагиваем хлеб архитекторов предприятия, у которых описание IT-архитектуры предприятия это как раз описание "совокупного вычислителя"). Когда мы рассматриваем классический уровень programming-in-the-large (программирование больших приложений), то уже найдём много интересного для вычислительного мышления. Но мой ход ещё выше: уровень интеграции данных жизненного цикла. И именно в описании вычислителя для виртуальных миров проекта/моделей целевой системы (product data management systems для design-time, систем construction management, и digital twins как развитие систем asset management в сторону имитационного моделирования) и моделей систем в обеспечении (product lifecycle management systems).

Вот в описании этих PDM, PLM, EAM, digital twins мы и найдём все слова для описаний вычислений и их данных: ибо в этих системах вы должны описать "совокупный вычислитель" интегрированных данных жизненного цикла. И тут ещё нужно подумать над терминологией. Например, не "интегрирования", а более точно в смысле ISO ISO 11354-1:2011 -- федерирования, вот я об этом в 2016 году, https://ailev.livejournal.com/1307116.html (если системы разработаны так, чтобы взаимодействовать между собой -- это интеграция, если так, чтобы соответствовать стандарту взаимодействия -- унификация, а вот если нужно налаживать взаимодействие систем, которые друг о друге ничего не знали в момент разработки -- это федерирование).

Итак, смотрим, в каких терминах описывают итоговые вычислители люди, которым это позарез нужно: это архитекторы предприятий (если речь идёт о самых разных типах целевых систем), но если взять более классический случай системной инженерии, когда нас интересует сложность итоговой системы и сложность моделирования -- то берём вот эти самые PDM, PLM, EAM, digital twins и смотрим, в каких терминах описывают итоговые вычислители люди, это и будет SoTA вычислительного мышления на этом системном уровне.

SoTA тут не в PDM, PLM, EAM системах, а в digital twins -- это относительно новый класс систем. И это самое важное: моделирование/описание и связанные с этим вычисления идут на стадии эксплуатации, для готовой уже системы. В PLM никакого полного жизненного цикла по факту не оказалось, только проектная информация. В digital twin основное -- привязка исторических данных к экземплярам (PLM работает с данными проектирования, а оно ведётся "в типах"). По идее, в digital twin входят и данные "промежуточных" между design и run систем, использующихся, например, в управлении стройкой (digital construction management, наиболее известны Synchro, Navisworks).

Так что же в SoTA digital twins, какой язык используют для описания федерирования вычислений? Вот свеженький релиз Azure Digital Twins, 8 декабря 2020 -- https://venturebeat.com/2020/12/08/microsoft-launches-azure-digital-twins-in-general-availability/. И выписываем прямо оттуда (крупными кривыми мазками) заготовки для понятийного минимума вычислительного мышления для этого уровня, нужный для описания вычислений виртуальной целевой системы. И там сразу наши старые знакомые понятия:
-- knowledge graph, based on digital models of entire environment. Services that rely on virtual representations of objects, equipment, and work environments. Customers define the digital entities that represent the people, places, and things in their physical environment using custom twin types called models. For their parts, models define semantic relationships between entities so that companies can connect twins into a knowledge graph that reflects their interactions.
-- Digital Twins enables users to model environments such as buildings, factories, farms, energy networks, railways, stadiums, and cities by connecting assets like internet of things devices and existing business systems. Ура, наш директор стадиона тут тоже посчитан!
-- simulation. Helping users to track the past and then attempt to predict the future.
-- translating the real world into a version that can be understood by machines.
-- Models are defined in a language called Digital Twins Definition Language (DTDL), and they describe twins in terms of their state properties, telemetry events, commands, components, and relationships.
-- Digital models in Azure Digital Twins are live, up-to-date representations of the real world. Using the relationships in DTDL models, customers can connect twins into a live graph representing their environment.
-- Customers can connect external compute resources to drive data processing, extract insights from the live execution environment.

То есть мы попали в эпицентр вроде как очень низкоуровневого онтологического/эпистемологического разговора: есть мир систем, есть виртуальная реальность с моделями этого мира -- и предложен язык для описания систем в этой виртуальной реальности. Судя по всему, в основе этого языка лежат графы знаний, как-то привязанные к событиям (слово events там повторяется чуть не в каждой строчке) в физическом и виртуальных мирах.

Так что вроде всё сходится, научить нашего директора стадиона нужно говорить на этом языке. И он сможет обсуждать закупку системы digital twins, которая объединит и его системы IoT, и его системы IoB (новая фишка: интернет поведений -- камеры везде отслеживают ваше поведение, не скроетесь и не смоетесь), и системы AI (какие бы они ни были -- чистая аналитика или творчество с синтезом решений и выдачей управляющих предписаний).

Если берём не PLM, а SoTA digital twins для этого разбирательства, то сразу попадаем и в семантические системы (knowledge graphs), и многомасштабное моделирование (simulations). Ибо там нет legacy со стороны старинных PLM, где ничего такого нет и до сих пор пережёвываются идеи более чем двадцатилетней давности консорциума по разработке стандарта интеграции данных Epistle (1997 год, оттуда пошёл проект ISO 15926, так и закончившийся ничем. Но вот, в digital twins сразу knowledge graph -- то же самое, только в майкрософтовский профиль). ОК, с этой постановкой задачи всё устраивает.

А что с нижними уровнями? Квантовыми вычислениями?
А как же квантовый компьютинг? Он же получается где-то в самом низу стека? Да, и его не забываем. Он взорвёт всю организацию этого стека, всю организацию вычислений проекта -- ибо при смене физики нижних уровней приходится обычно перетряхивать весь стек до самого верха. Набор понятий, при помощи которого мы будем обсуждать вот этот взрыв, эту перекомпоновку стека -- это и будет язык вычислительного мышления, язык computer science, экспериментальной/естественной науки о доказательствах/выводе/вычислении/рассуждении.

Сколько у нас времени до этого волшебного момента очевидной победы квантового компьютинга? Года три ещё есть. Вот поглядите, broad quantum advantage (термин для момента превосходства квантовых компьютеров перед суперкомпьютерами и облаками в бизнесе), будет достигнут по плану в 2024-2025 годах. Помним, что через неделю уже будет 2021, то есть речь идёт о трёх годах: “Most people agree at about 72 qubits or so is the place where broad quantum advantage starts,” Chapman said. “That’s where quantum computers start to take on supercomputers. We’re probably looking into a roughly 2024-2025 timeframe for that. “What we’re talking about here is a line of application developer sitting at some corporation and making a decision as to whether or not to run it on a quantum computer, on the cloud, or on supercomputers. It’s not an academic exercise. It’s really at that point where average developers are saying, ‘Oh, I think this would be better on a quantum computer.'” -- https://venturebeat.com/2020/12/09/ionq-roadmap-quantum-machine-learning-2023-broad-quantum-advantage-2025/.

Вычислительное мышление как раз даст понятийный минимум для разговора о корпоративных вычислениях на самых разных системных уровнях -- включая уровень выбора физики вычислений, когда этот вопрос станет важен для принятия финансовых решений. И тогда директор стадиона сможет осознанно принимать решения и по аппаратуре (квантовой, суперкомпьютерной или не очень), и по софту (софт для digital twins немаленьких денег стоит), и по конечному корпоративному вычислителю, включающему в себя и сеть digital twins.

UPDATE: обсуждение в https://www.facebook.com/groups/771940449578453/permalink/3281825581923248/
  • id77

Вооруженные силы СССР середины 80-х годов. Часть 22

Здравствуйте уважаемые.
В прошлый раз остановились вот тут:https://id77.livejournal.com/3467923.html
Ну а сегодня я предлагаю начать говорить о Тыле.
Тыл Вооружённых сил СССР — это силы и средства, предназначенные для тылового обеспечения и по службам тыла технического обеспечения войск (сил) ВС Союза ССР.
Кроме тыловых, финансовых и медицинских служб в состав Тыла входили такие специальные войска как:
Железнодорожные войска
Автомобильные войска
Трубопроводные войска
и Дорожные войска


Возглавлял ведомство начальник в генеральском звании в ранге Заместителя Министра обороны Союза ССР. В период с 1972—1988 годов эту должность занимал Маршал Советского Союза С. К. Куркоткин

Collapse )

Русская кухня

Второй пост из диптиха: "чем накормить иностранца в современной России". Первый был про блюда -- наследие СССР, про нашу советскую кухню. Сегодня -- про кухню исконно русскую.

[Лирическое отступление и дисклеймер]
В русском языке есть поговорка "проще пареной репы". Из этой поговорки следует, что "пареная репа" -- это что-то очень-очень простое и обыденое. Какое-то совсем привычное блюдо, проще яичницы, скажем ))) Ну, и как бы, наверное, когда-то давно "пареная репа" была русским блюдом. Но с тех пор, как Петр завез в Россию картошку, репа существенно сдала свои позиции. И среди моих знакомых найдется очень мало тех, кто хотя бы раз пробовал эту самую пареную репу, а уж тем более тех, для кого это обыденное и постоянное блюдо.

короче -- рекомендовать вот такие исконно русские, но уже вымершие из употребления блюда я не буду.

Ну, и кроме того, я совсем вовсе не историк кулинарии. Я не стремлюсь составить полный список. И я могу в чем-то быть не точна. Кому за полным списком или более-менее достоверной исторической справкой -- тому к книгам Похлебкина. У меня, скорее, что-то более-менее личное. Что бы я сама могла предложить иностранцу в России из такого, нашего, и им необычного.

Кстати, мы с папой устраивали эксперимент. Уже в сознательном моем возрасте, где-то в старших классах. Купили репу и парили. Такая ерунда получилась.


Самое русское из всех русских блюд -- это

Пирожки.



Collapse )

Советская кухня

Обсуждали с мужем, куда можно сводить гостей нашего города в Омске. Постепенно тема сместилась на "куда сводить поесть гостей нашего города", и очень закономерно дошла до "а какие блюда обязательно попробовать иностранцу в России?".

В современной России есть, на мой взгляд, две национальные кухни. Они обе очень-очень наши. Обе очень-очень здешние. Но они отличаются по смыслу. Это кухня русская (кухня русских крестьян царской России). И кухня советская (кухня, унаследованная от СССР).
Я уже давно порываюсь написать свои мысли про эти кухни, и наконец, желание окончательно оформилось.
Про русскую кухню будет следующий пост. А сегодняшний -- пост советскую кулинарию. Про ту ее часть, которая пережила СССР, и популярна до сих пор, хотя уже такой страны нет. А кухня такой страны есть!

Итак, советская кухня. Каковы ее отличия от остальных кухонь мира? Во-первых, она является неким фьюжном кухонь народов СССР. Во-вторых, (почти) вся советская кухня готовится "из того, что было". Мясо можно брать жилистое и от старой коровы. Рыбу -- не обязательно премиум-класса, треска офигенно подойдет. И так далее. Иногда в советскую кухню вошли адаптированные и переделанные до неузнаваемости рецепты не кухонь народов СССР, а и других тоже.

Начнем с самого типичного, на мой взгляд, блюда советской кулинарии --

Салат Оливье



Collapse )
  • bmpd

Российский автономный необитаемый подводный аппарат «Витязь» достиг дна Марианской впадины




Российский Фонд перспективных исследований сообщил, что 8 мая 2020 года в 22 часа 34 минуты по московскому времени российский автономный необитаемый подводный аппарат «Витязь» совершил погружение на дно Марианской впадины.  Датчики «Витязя» зафиксировали глубину 10028 метров. В ходе указанного погружения на дно Марианской впадины был доставлен вымпел, посвященный 75-летию победы в Великой отечественной войне.


Витязь

Автономный необитаемый подводный аппарат «Витязь-Д» (с) Фонд перспективных исследований

Collapse )

2G 3G 4G 5G

Что скрывается за этими абривеатурами ?

На самом деле за этими рекламными абритвеатурами скрываются очень разные вещи.

2G после прехода с аналоговых стандартов связи на цифровые с временным разделением канала. Это был прорыв так как позволял узкую полосу частот упаковать больше голосовых разговоров ( в 64 раза если точнее). Передача голоса делится на отдельные слоты и постоянно обрывается но вы за счёт того что делится полоса частот шире той что вы можете услышать ничего не слышите. Плюс в 2G это сжатый цифровой звук.

Однако с данными было плохо - с самого начала была технология GPRS которая позволяла не используемые в данный момент слоты использовать для передачи цифровых данных. Технология позаимствована от некогда популярное UUE которую сейчас используют разве что шпионы - для воровства цифровой информации через микротекст. Ну или в военных системах - кода цифровой сигнал можно считать с не цифрового носителя через графические символы. Такое вы кстати в видели в кино Марсианин.

Но проблема состоит в том что когда голосовые слоты заняты данные передать невозможно. А скорость падает с интенсивностью разговора. И хотя РФ традиционна настройка на приоритет трафика, а не звука - но и это слабо помогает.

Потом появилась технология EDGE это уже бы чисто цифровой поток целиком занимающий частотный слот - скорость стала выше потому что начали использовать ухищрения в модуляции сигнала и не думать о совместимости данных и голоса в одном потоке. Так как весь слот уходил на цифровой поток.

Но быстро стало понятно что это тупиковый путь.

А в это время был в Японии свой стандарт связи основанный на широкополосной модуляции Personal Digital Cellular от NTT DoCoMo он был не чисто широкополосным а комбинированным как все китайские стандарты сейчас включая 5G - особенность го в том что сигнал определённому абоненту выделялся на основе кода этого абонента а его терминал принимал весь поток. По сути стандарт это был переносом на радиоволны 10BASE-5 - стандарта связи в локальных сетях по коаксиальному кабелю. Ещё до витой пары.

Так появился сначала CDMA 2000 а потом и W-CDMA.

Собственно потому что корни всего этого японские он оказался самым проработанных, безошибочным и до сих пор взлом этих систем для простого хакера практически не возможен. ( Возможен но через перехват на канале от станции).

Стандарт развивался - если отбросить маркетинговую мишуру - улучшались методы модуляции сигнала - появился 16-QAM это был прорыв. А вот после этого улучшения были более маркетинговыми - всё дело в том что в стандарте 16 QAM уже заложена масштабируемость до 4096-QAM с появлением достаточных вычислительных мощностей в будущем. Что такое квадратурная модуляция https://ru.wikipedia.org/wiki/%D0%9A%D0%B2%D0%B0%D0%B4%D1%80%D0%B0%D1%82%D1%83%D1%80%D0%BD%D0%B0%D1%8F_%D0%BC%D0%BE%D0%B4%D1%83%D0%BB%D1%8F%D1%86%D0%B8%D1%8F читайте - кто не поймёт тому не надо. Но суть этой технологии состоит в том что вы на одной поднесущей можете разместить кратно больше данных.

В самом стандарте это развивали по заложенной схеме до 64-QAM кроме того появилась возможность объединение 5 Мегагерцовых слотов на которые делится весь спектр - при передаче данных. MC-HSPA стал финалом развития этой технологии - которая была проверенна и по частотам и на устойчивость сигнала и на безопасность для здоровья человека и животных. Даже производили исследования на пчёлах, крысах и тараканах.

Потому что NEС потому что японцы.

А вот потом победил Китай и вместо проработанной и продуманной системы которую просто надо было масштабировать до имеющихся возможностей по увеличению сложности фазовой модуляции пришёл чистоган, маркетинг и зарабатывание денег.

Финальная версия японского стандарта стала MC-HSPA 4 × 4 MIMO 672 Mbit/s т.е. это более чем достаточно и легко можно было увеличить просто сменив 64-QAM на 256-QAM - в стандарте есть такая возможность как и возможности для расширения band 1 (2100) IMT до band 65 (2100) E-IMT что успели до китайского LTE сделать только в Германии T2. И увеличение band 5 (850) CLR на ширину band 18 (800) Japan. Что успели сделать в Японии.

Но вместо этого позаимствовав сам поток передачи данных у MC-HSPA появился LTE - разработанный на столько нагло для слежки за абонентами что сотни хакеров его тут же взломали. Про взлом LTE любой может узнать в журнале Хакер и подобных.

При этом он не даёт никаких преимуществ по сравнению с MC-HSPA просто это основной стандарт оборудования Huawei который "вдруг" начали все покупать - хотя конечно не "вдруг" а продуманная китайская система захвата контроля над информационным пространством и самими странами. Но по скольку ошибок было дохрена китайцы начали думать как их заткнуть так и появился 5G NR.

Но что это в реальности ?

4G LTE это просто взяли 256 QAM и технологии комбинации 5 мгц слотов. Ввели слоты больше 5 Мгц, но тут выяснилось что не хватает частотного спектра. Потому что окна стандартных частот не такие уж и большие. А пользователь не один. Полезли во все доступные частотные окна - призывая все стандарты заменить на LTE. А потом LTE-A добавили возможность соединять потоки данных с разных частотных диапазонов - т.е. в телефоне начало работать сразу несколько передатчиков на разных диапазонах. Естественно по скольку передатчик был не один, (технологию они кстати оттестировали на многосимовых телефонах) батарею начало жрать адово.

В стандартном 4G добавили все частотные окна до 6 Ггц. При этом они не проводили никакого тестирования на безопасность. На эффективность. Окна вообще не стандартного размера 24 19 мегагерц. Иногда плохо разнесены по окнам.

В итоге прижилось оно не во всех частотных окнах.

Самое очевидное окно было band 3 DCS (1800) всё дело в том что оно мало используется сейчас. Когда то использовалось для GSM но в Европе. В Европе это отмерло с приходом W-CDMA но в частотном плане окно осталось. Оно 75 мегагерц

Потом band 7 (2600) IMT‑E но тут есть косяк - это окно не тестировалось и существует только как близкое к Wi-Fi. 70 Мегагерц

А потом выяснилось что частотных окон больше нет. только вот эти 145 мегагерц. А не все хотят отказывать от надёжной W-CDMA и не надёжной но рапространённой GSM900 и начали собирать ошмётки.

У нас это band 20 (800) Digital Dividend (EU) Но это совершенно не стандартное окно - во первых обратный разнос частот -41 во вторых ширина его всего 30 Мгц и он вообще непонятный мутант. Связь в нём очень плоха в итоге передатчик увеливает мощность - в итоге у вас в телефоне три передатчика один из которых выкручен на максимум - весело.

Специфический диапазони band 31 (450) NMT - специфичность его в том что он всего 10 мегагерц и пригоден лишь для загородной связи. На него требуются большие антены. И поэтому в мире всего три провайдера этого диапазона - один из которых Skylink а остальные в Скандинавии и Финляндии.

В итоге и дыры и частот не хватает и вообще непонятно что. В итоге максимальная средняя скорость у наших провайдеров 77 мегабит. Но это же может и куда менее энергозатратный HSPA. В итоге за пределами идеальных тестовых зон смысла в 4G почти нет.

И вот тут китайцы выкатывают 5G который " случайно" оказывается по строен по принципу китайского TD-SCDMA использует по сути этот китайский стандарт связи и его частоты.

5G это стандарт NR а так же два диапазона FR1 и FR2 . FR1 набор окон до 6 Ггц однако занятно вот что - когда он использует окно n41 (2500) TD-SCDMA он и ведёт себя абсолютно также. Т.е. видно что это обычный китайский TD-SCDMA но просто на новых частотах.

Сейчас используются

n78 (3500) 3300 – 3800 который обрезок от n77 и что интересно он же есть и в стандарте окон 4G TDD LTE-A и поведение обоих стандартов при использовании этого окна ничем не отличаются как и скорость передачи данных. Естественно ведь это все базируется на одном источнике. Просто в 5G закрыли многие дыры найденные в 4G пытливыми хакерами. Которые не дыры а бэкдоры. И создали новые. Не сумев их взломать ЦРУ и начало быть тревогу и начался конфликт с Huawei неожиданно выяснилось что китайцы наебали пиндосов. И не собираются работать на них.

Этот диапазон сомнителен так как безопасность его не тестировалась. В тоже время у него всё таки довольно неплохие характеристики по прохождению сигнала, и полоса в 500 мегагерц.

Вероятно он опасен для некоторых животных и насекомых. Но тут только вероятность. И диапазон всё таки не является чем то сосем несуразным.

Так же в 5G тот же принцип - захватить все окна, но вот в 4G окнах он и работает как 4G. Потому что с точки зрения передачи данных это китайский 4G и есть. А по сути это прямой потомок PDC упомянутого в начале. По сути он и есть PDC с точки зрения передачи данных, но не с точки зрения управления.

Но вот FR2 это вообще сомнительная вещь. Мало того что эти частоты не исследованы на безопасность в носимых устройствах. Они к тому же имеют отвратительную проходимость сигнала - их останавливает даже кожа человека, случайная ветка или осадки.

Что бы предотвратить это станции надо ставить очень часто - 500-600 метров. А если их так часто ставить то мы получим микроволновую печь.

Сигнал который гасится человеческой кожей он её нагревает. И не только её а растения, животных. Если установить такие станции через 500-600 метров то мы можем получить постоянный микроволновый нагрев всего - что очевидно вредно. Растения при постоянном радиочастном нагреве начнут мутировать. У людей гарантированно повышение раковых заболеваний при длительном воздействии. Да короткий импульс в этом диапазоне вы даже не почувствуете - термальная система и вас и любого животного стабильна. И вывести её из равновесия не так уж легко. Но FR2 это не только никакая связь - только в прямой видимости на 500-650 метров так как 27-37 Ггц она даже воздухом гасится. И нагревает воздух. Но это ещё и вред экологии. И это не те сказки из начала 00х про сотовую связь. Там даже на плохом телефоне с прожаркой нужно было очень много держать его у головы - не менее 8-10 часов в день что бы прожарить локально мозг. И то с учётом наследственной предрасположенности - т.е. конечно перегреть мозг было можно. Словить тепловой удар. Вызвать омертвление некоторого но очень не большого количества клеток - но никак не рак. Но никотин куда более вреднее для мозга. Даже пассивно вдыхаемый. А на хорошем телефоне с правильной регулировкой излучения в хорошей зоне приёма вообще было не возможно. То это совсем другое. Это постоянное круглосуточное нагревание и не столько вашей дурной башки, но окружающей сред вокруг БС. И дереву рядом с вышкой оно куда опаснее. Чем человеку. Однако и человеку - во первых четыре антены это потребность - иначе вы просто загородите антену своей рукой а этот сигнал не может пройти через ваше тело. Передатчик выкрутится на максимум и хорошо прогреет вашу руку и череп. Но четыре антены не дадут 4*4 MIMO как CDMA так как две из них будут всегда не работать. И хорошо если отключаться при пропаже сигнала а не жарит вашу руку. Пошёл дождь - сигнал пропал. Стоит стекло с металлизированным покрытием - сигнал пропал.

Т.е. это даже хуже чем Wi-Fi. Да там огромные слоты на 2000 и более мегагерц. Только вот что толку от того.


В итоге 5G в том виде что он есть совершенно бесполезен а скорее вреден. Скорости эти он не может выдавать не иначе как в тестовой комнате с идеальным интернетом по оптике.

Правильное решение не идти вот за этим китайским бредом, а вернуться к W-CDMA сетям и развивать их согласно имеющемуся заделу - 4096-QAM. Конечно пока больше 1024-QAM стабильно не работает но даже так это уже куда больший шаг вперёд, чем этот китайский путь по которому пошла IMT после захвата контроля над ней китайцами.

При этом в той же сети смогут существовать слоты с разной чёткостью. И нормальный голос - а не цифровой поток копирующийся на сервер в Китае.

Так же есть диапазоны так ж уже протестированные на безопасность это

Band 28 (700) APT 45 мегагерц. Цифровой Дивиденд.
Band 18 (800) Lower Japan на который можно расширить стандартный band 5 (850) CLR сделав частотные окна 814-849 и 859-894 что даст окно - 35 Мегагерц.
band 65 (2100) E-IMT в котором будет работать и оборудование band 1 (2100) IMT. 90 Мегагерц

Итого 170 Мегагерц

band 8 (900) E-GSM года уж совсем такие устройства отомрут остаток этого диапазона - 20 Мгц тоже можно докинуть в эту копилку.

Таким образом можно развивать безопасную сеть на основе безопасной сети "3G". Повышая число фазовых сдвигов.

Band 20 надо закрыть. Оставив band 7 (2600) IMT‑E и band 3 DCS (1800) для всей китайской истории что там дальше будет G. 145 Мегагерц

Если будет доказана безопасность то к ним можно добавить n77 (3700) 3300 – 4200 это будет более чем достаточно для того что бы говорить о сети 5G-NR тем более что она имеет обратную совместимость с LTE.

Но это не в РФ при выделении этого диапазона в РФ будут проблемы. Всё дело в том что в РФ используют диапазон спутниковой связи который в советское время делали по принципу - "ну не можем мы выше поднять частоты - отстаём в электронике" в итоге Russian С не соответствует спецификации ITU Appendix 30B и тогда когда даже у индусов приём частоты 4500–4800 у нас 3650–4150. И нет причина не в том что эти частоты якобы сложнее заглушить - весь C-диапазон одинаков. Просто что смогли то и сделали. В итоге у нас в FR1 стандартный 77 не может быть 5G из-за военных соображений, а в FR2 он скорее вреден.

Плюс надо учитывать каналы связи для базовых станций, по требованиям 5G это 10 Гигабит оптика минимум. Это дорого и просто нет такого потребителя который готов это оплатить ну разве что кроме мегаполисов.

При этом тот кто сейчас пользуется 4G в РФ он уже пользуется и 5G - тех же частотных окнах разницы нет.

По сути 5G это чисто китайский маркетинг - отель шесть звёзд. По сути этот для пользователя тот же 4G. Никакого " сверхбыстрого пинга" там нет и быть не может в принципе - это как "ускорители пинга" популярные 10 лет назад. Это так не работает. Что бы ускорить Пинг у вас весь канал до сервера должен быть идеален без задержек. И этого замена протокола на БС сделать не может ну никак. Это нужна более качественная оптика от БС нужны более быстрые роутеры и меньше переключений трафика. Меньше хостов а дороге. В идеале прямая фибра к серверу. С максимально быстрым обработчиком данных в сетевой карте. Тут никакие Джи не помогут.
Всё это маркетинговый развод.

Так ж нет в 5G никакой инновационности - когда оно работает на частотах 4G оно работает точно также как 4G вся его 5 это использование диапазона 27-35 Ггц который очень хреновый сам по себе. И все эти широкие полосы частотных окон по 800 мегагерц они не помогают увеичить скорость в реальных, не идеальных условиях - где дождь, снег, ветки, воздух с переменными характеристиками, проходят люди и собаки, пролетают птицы, а ставить станцию каждые 500 метров это дорого и вредно.

И даже диапазон 77 он и 4G в спецификациях есть - но как не могли его отдать потому что там военная связь находится и связь со спутниками. Так и не смогут. Правда есть надежда на 79 4400-5000 но он 600 мегагерц а не 900 как 77 3300-4200 И в мире его использует только NTT DoCoMo и China Mobile в Шанхае и Гуанчжоу. Т.е. устройств на это будет мало. И сейчас это могут только HUAWEI Mate 30 Pro 5G и ряд телефонов от Сони которые они специально делают для NTT. Впрочем если РФ быстро примет n79 то Хуавей выпустит и другие модели - РФ для него один из основных рынков. Так что шанс на 5G в РФ есть. Но не стоит от него ждать чего то ошеломляющего.

Ах да - а как же телевизионный частоты ? Ну на самом деле 6-12 и 21-49 частотные каналы более чем достаточно для всех мультиплексов особенно с учётом того что телевидение медленно уступает место интернету. И в РФ популярность интернета на 20% больше чем у телевидения. Все эти говношоу всё менее интересны. Когда можно взять и посмотреть любой фильм,концерт,новости или тоже говношоу. С гораздо меньшей рекламой и вдавливанием в мозг. Поэтому смело можно отбирать частоты под band 7.

174-230 470-702 DVB-T2 более чем достаточно. Впрочем я ещё 11 лет назад об этом говорил. Что емкости T2 более чем.

То что ниже 48,5-100 это цифровой дивиденд. 76-108 можно полностью отдать под FM вещание. Но вот переходить на всякие DAB стандарты смысла никакого нет. FM вещание популярно именно своей универсальностью. И естественно никто там звука аудиофильского не ищет , и экономить частоты тоже нет никакого смысла.

А вот что можно сделать - это ниже 76 разместить мультиплекс DVB-T2 но не стандартной полосы а 1,7. Для работы в соседних регионах понадобиться четыре таких диапазона. И в эти 1,7 Мгц овые диапазоны запихнуть цифровые потоки 360 линий (640*360) этого вполне достаточно для - для местного радиовещания. Т.е. не FM станции переводить в DAB. А просто дать этим радиостанциям поток на минимально приемлимое видео, которое приемник сможет как игнорировать так и принимать на маленький экран. При этом это видео может быть вообще заставкой кроме особых эфиров. В 1,7 Мгц можно запихнуть 18 потоков. Поскольку на видео плевать то сконцентрироваться только на качестве звука а видео это все равно добавка.

Так как телевизионная инфраструктура под 3 телеканал осталась а УКВ OIRT уже труп. Особенность такого канала в том что он сможет приниматься на обычные ТВ ну при желании. А если зайдёт формат - его можно легко расширить. При этом для генерации сигнала практически тоже самое оборудование что используется для обычного мультиплекса - которое студии смогут использовать просто передавая сигнал через интернет.

В тоже время сохранится полностью и нормально FM вещание с локальных передатчиков.

Кстати ещё один признак умирания ТВ - AV1 оказался лучше чем H.266 который сейчас тестирует BBC. Как выяснилось они жульничали с оценками используя более затратный но при этом делающий больше потерь алгоритм сжатия. Картинка была не идентична сравниваемой а хуже.

Т.е. они звпускали алгоритм требующий в четыре раза больше вычислительных ресурсов и дающий при этом худшую картинку что бы получить 30% выигрыша в ширине потока. Что явно не подходит для эфирного вещания а лишь для экономии трафика при передаче - которая сейчас никому не нужна. Смысл делать 8К или даже 16К если при этом оно будет смазано по цветам ?

Не известно как AV1 соотносится с рекламируемым XVC от Divideon который может оказаться лишь рекламной уловкой вообще.

В тоже время AV1 действительно превосходит всех, кроме MPEG4 part 2 H.263 который на порядок меньше требует вычислительной мощности, но при этом вполне приемлим, DivX все помним.

Да и почему в мире четыре стандарта цифрового ТВ и почему они разные.

ATSC самый старый . хотя и модрнезируемый, но самый старый и самый примитивный - США и Канада ддержатся за него потому что от него зависит система AWARN Advanced Emergency Alerting на случай ядерной войны оповещение. Но основной разработчик самого стандартна не США как следовало бы ожидать. Основно разработчик ATSC 3.0 компания LG. Да да Корея - что меня очередной раз убеждает что пиндостан должен сдохнуть. Ибо держаться за стандарт из соображений безопасности и отдавать его на разработку корейцам - верх имбецилизма.

Мексика хочет быть похожем на фюрера - тут всё понятно.

Вражеский ему это DTMB - такой же убогий и по тем же причинам в Китае он основной - но они по крайне мере разрабатывали его поленостью сами и это понятно - зачем. Пакистан в этом же стандарте. А в Юго-восточной Азии для китайцев работают сети в этом же формате а дя остальных DVB-T2.

DVB-T2 развитие DVB-T который изначально разрабатывался как всемирный стандарт именно для телевидения и ничего более. Поэтому он лучше всего дя ТВ и подходит.

Но выяснилось что кроме Китая vs США есть ещё одни парни.

Япония. И они пошли своим путём - ISDB-T и успешно продвинули его среди латиносов. В чем его отличие от DVB-T2
Он по методу модулирования ограничен 64-QAM а не 256-QAM как у DVB-T2 но пока конкурентом ему был DVB-T с MPEG-2 он был более развит, потому что изначально делался с рассчётом на то что телевидение отомрёт. и каналы мультиплексов будут конвертированы в канала Download ассиметричного интернета. DSL был на пике популярности в Японии во время его разработки. В итоге это не только и не столько телевизионный стандарт - сколько задел на будущее который в 2009 впрочем провалился в спутниковом сегменте.

Задел не стандартный. Но это слишком опередило своё время. Да когда телевидение отомрёт - но оно отмереть ещё дожно а до этого ещё далеко. Ну зато там развито видео по запросу. Но опять таки в Латинской Америке и Филлипинах этой возможностью не пользуются. Там тупо сделали ТВ как на DVB-T2. И получилось тоже самое что у нас - айфон покупается что бы звонить максимум играть. И то если помоложе. А основное использований айфона - обычные звонки и типа понт. Свидетей Секты Джобса которых высмеяли во вторых Железных Небесах не так уж и много.
Doomy

Большие корабли и великие амбиции: каким мог быть космический флот США

И еще один материал для Warhead, написанный в соавторстве с уважаемым коллегой YouROKer'ом (огромное ему спасибо!)

Человечеству далеко до покорения космоса даже сейчас, а в середине двадцатого века делались лишь первые шаги. Но это не мешало американским инженерам уже тогда задуматься, каким может быть настоящий космический флот. Небольшими космическими истребителями и бомбардировщиками дело не ограничилось, и на чертежах появились настоящие космические линкоры и крейсера.



«Беззвучно полыхая огнями манёвровых двигателей, огромный атомно-импульсный дредноут USS „Кёртис Лемэй“ неумолимо надвигался на советскую лунную базу. С оборонительных батарей базы непрерывно стартовали противокосмические ракеты — и почти тут же вспыхивали, взрывались под невидимыми лучами лазеров трёх американских крейсеров, сопровождавших дредноут. Эскадрилье советских космических истребителей 7К-ВИ „Звезда“, проскочивших на низкой орбите удалось выйти в атаку на „Лемэй“, но дредноут встретил их барражем направленных ядерных зарядов, и молоты сфокусированной плазмы превратили хрупкие советские машины в облака осколков».

Фантастика? Да, но она вполне могла стать реальностью...
Collapse )