Итак, каким я вижу развитие вычислительной техники в социалистическом государстве Халявы в ближайшие 5 лет планового развития упоротых технократов.
[ Spoiler (click to open)]Базис.
Прежде всего, конечно, нужно иметь свой базис производства вычислительной техники. Без этого совершенно невозможно думать об автаркиях или Халяве. Какая же это Халява, если всё покупать?
Базисом такого производства послужит электронно-лучевая литография.
Это позволит производить собственные микросхемы. Я бы взял бы десяток таких машин и создал на них один кластер для промышленности на основе завода Ангстрем-Т и одну машину поставил бы в НИИСИ РАН для нужд ВПК и космической программы. Это позволит воякам и космонавтам контроллировать качество используемых материалов. Для военных вообще-то возможность создания собственных дешёвых мелкосерийных(единичных) микросхем означает некислый прогресс в боевой электронике.
Кроме этого, для той же литографии в России построен завод технологии МЭМС (микро-электромеханические системы), который позволит производить акселерометры, гироскопы, компасы, DLP-чипы. Они производятся по другой технологии, в отличии от процессоров.
И обещают освоить производство SST-MRAM.
Для независимой информационной технологической базы осталось только производство RRAM. Думаю, на базе той же электронно-лучевой литографии. Учитывая сроки службы RRAM в сотни раз больше флэшек, думаю, спрос удовлетворится довольно скоро.
Софт.
Конечно в социалистической Халяве главенствует опенсорс. Ведь это логично: софт, разработанный на общественные деньги, должен принадлежать обществу. А как иначе? Исключение разве что для ВПК и АЭС в целях безопасности.
Софт разрабатывается не с целью продать, а с целью пользоваться. И в этом плане Государство Халявы идёт даже на спонсирование иностранных опенсорс-проектов и программистов, признанных важными для государства. Задача государства - не продавать софт. Задача государства - создать свободную инфраструктуру, пользуясь которой, граждане смогут пользоваться софтом, создавать софт и продавать софт.
Для игроиндустрии это будет, например, развитие собственного или стороннего(в качестве основы) опенсорс-движка. Который сразу будет рассчитан на API Vulkan, который хоть и не такой шустрый, как ДиректИкс, зато гибкий и кросс-платформенный. Движок будет с упором на приложения виртуальной и дпополненной реальности.
Для генерации контента лучше всего использовать автоматизированные и дешёвые средства.
Например, для генерации моделей для виртуальной реальности лучше всего использовать фотограмметрию (сканирование с помощью множества фотографий). Этот способ позволит по возможности автоматизировать процесс, задействовав беспилотник с камерой и получить высококачественные текстурированные объекты даже тем, кто совершенно не умеет моделировать. Да никакой моделлер в разумные сроки и за разумные деньги не справится с такой детализацией, которая нужна для виртуальной реальности. Вот, например, небольшая сценка для оценки качества погружения.
Сам процесс фотограмметрии выглядит примерно так
А можно ещё скриншотами "воровать" модели из игр.
Для захвата движений тоже нет нужды в дорогом оборудовании, хватит 4х вэбкамер.
Также нужно создать общий магазин моделей и анимаций в облаке, где по истечении срока или достижения означенной суммы модели будут переходить в паблик-домейн.
Ну а если уж совсем свербит написать Русскую Операционную Систему, та е гроши, час та натхнення, то лучше всего создавать её на архитектуре экзоядра. Время жирных монолитных\модульных ядер, вроде Линукс или Windows проходит. Их крайне трудно поддерживать, в них накапливаются ошибки, их трудно проверить на закладки, не смотря на открытый или закрытый код. В том же Линуксе возникают такие уязвимости, что на голову не налазит. Миллионы строк кода снижают надёжность и переносимость. И будет только хуже. Это непреодолимые проблемы роста.
Альтернативой является микроядро, которое предоставляют лишь небольшой набор низкоуровневых примитивов/механизмов/компонентов/сервис
Микроядерная архитектура имеет неоспоримые преимущества вроде маленького компактного кода, что позволяет вылизать его до идеала, обеспечить безопасность, переносимость и тд.
Но его главным недостатком является низкая производительность из-за постоянного переключения контекста между сервисами(файловая система, tcp-ip и тд). Где-то на 10% медленнее, чем у монолитного.
И есть дальнейшее развитие микроядерной архитектуры - экзоядро. Оно представляет собой наиболее близкий к железу набор функций, таких как безопасное выделение и освобождение ресурсов. Экзоядро не занимается предоставлением абстракций(файловая система, сетевой стек) для физических ресурсов — эти функции выносятся в библиотеку пользовательского уровня (так называемую libOS). Обязанности экзоядра сведены к выполнению минимума функций, связанных с защитой: именования, выделения, высвобождения и разделения ресурсов, контроль прав доступа. Экзоядро обеспечивает большую эффективность за счет отсутствия необходимости в переключении между процессами при каждом обращении к оборудованию. Программистам же оно даёт возможность создавать ориентированные на их продукт абстракции самостоятельно, без привязки к их реализации в ОС, что позволяет использовать более подходящие варианты.
Фактически такой же подход (меньше абстракций, больше прямого доступа к вычислительным ресурсам) предоставляет для 3д-графики API Vulkan, что снижает зависимость от качества драйверов.
Этот подход имеет свои недостатки - приложения становятся больше, ибо, кроме самого приложения в них ещё находятся описание и реализация необходимых абстракций, являвшихся раньше частью операционной системы. Кроме того, реализация безопасности в экзоядре намного сложнее, ибо код абстракций вынесен в приложения и не поддаётся проверке на уровне исходного кода.
Концепция эта вовсе не нова, экзоядра существуют с 1995 года, но пока это скорее академическая игрушка.
Так как много софта сразу не появится, экзоядро должно уметь запускать ядро линукс, как процесс. А ещё лучше выделить из Линукс абстракции и использовать только их. Со временем экзоядро обрастёт родным оптимизированным софтом.
Так как у нас есть передовое производство электроники можно будет в будущем оптимизировать железо под экзоядро(ибо экзоядро очень близко к железу), реализовав некоторые функции аппаратно.
Кроме того маленькое экзоядро с минимальной библиотекой абстракций отлично годится не только для десктопа, но и для интернета вещей или мобильной аппаратуры.
Связь и инфраструктура.
Прошли те времена, когда барышня соединяла абонентов вручную. Проходят времена, когда монтёр тянул кабель от АТС до самого дома. Прошли времена телеграфной связи и любителей проводного радио. Да, такие люди всё ещё есть, но это редкость.
Теперь сотовая связь. Барышня не нужна, монтёр не нужен. Более того, эта связь даёт вполне быстрый доступ в интернет, а одна вышка покрывает значительное пространство, не занимает крупного здания и не требует обслуживания месяцами. Одна бригада спокойно обслуживает целую область. Благодаря виртуализации и программно-определяемому(SDR, SDN, NFV) подходу оборудование часто даже не требует замены с вводом новых стандартов. Хватает программной переконфигурации.
Затраты на поддержку сетей небольшие и настало время, как мне кажется, перевести связь в раздел халявы, повесив эти мизерные издержки на бюджет и дав населению бесплатный и неограниченный доступ к интернету. Ибо затраты на учёт, биллинг и бухгалтерию, имхо, куда выше затрат на собственно обслуживание и модернизацию. Нужно давать только доступ в интернет. Голосовая связь не нужна, интернет с этим справится. Это сделает инфраструктуру и оборудование проще и дешевле.
Некоторые утверждают, что сотовая связь приносит 240 миллиардов рублей налогов на 2012 год. В то, что столько налогов собирается как-то не верится. Скорее всего это доля в ВВП(общий заработок). Попробуем подсчитать, в России 146 млн платят в месяц по 100 рублей за мобильник. 175 200 000 000 рублей по курсу 40 в то время = 4 380 млн$ в год минимум.
Стоимость Базовой Станции с вышкой - около 100 000$
Вышек в РФ около 100 000, имхо. В 2005 было 30 000.
Это 100 000 на 100 000$ = 10 000 000 000$ = 10 млрд$.
То есть, абонплаты за пару лет хватит даже на то, чтобы построить всё с нуля. Но ведь можно и национализировать))
В общем, обеспечение связью нужно каждому, это общественная потребность 100% населения и это должно быть общественной, то есть государственной заботой. Это понятно.
Но нормальный доступ в интернет может обеспечить только связь стандарта 5G.
К сожалению, далеко не всё оборудование можно использовать. Так что большинство базовых станций придёться производить самим, используя архитектуры SDR, SDN, NFV. И в этом плане не всё так плохо, отечественные разработки есть. Реализация - на базисе, описанном выше. Лицензирование всяческих ARM-ядер или использование своих MIPS - не суть важно. Но желательно отечественного производства.
Судя по описанию 5G, стандарт рассчитан спокойно тянуть миллионы абонентов в пределах базовой станции и обеспечить время доступа порядка микросекунды. Это и является самым ценным. Заявленные же террабитные скорости же достигаются при частотах выше 5ГГц, что весьма плохо влияет на распространение сигнала. Настолько плохо, что в телефоны планируют встраивать патч-антенны, вроде ФАР истребителей. Да-да, Фазированная Активная Решётка из истребителя в Вашем смартфоне... Впрочем, возможно, это будет не так уж и дорого с помощью зд-печати. Для нормального покрытия следует использовать частоты от 0.8 ГГц до 3. Выше имеет смысл только в плотных городах. Впрочем, с архитектурой SDR есть возможность подключать несколько радиомодулей к одному процессорному блоку, что не сильно удорожает расширение спектра. А агрегация(объединение пропускной способности частот) позволяет выжать вполне приличные скорости. После повсеместного распространения 5G-связи и пользовательских 5G-устройств следует потихонечку наводить порядок в радиоэфире, перенося радиостанции и телевещание в интернет, расчищая радиоэфир и расширяя диапазоны и доступную скорость. Связь следует обеспечивать программами интернет-телефонии, вроде скайпа или вибера. Согласование с проводной телефонией не нужно вообще. Предыдущие стандарты придёться поддерживать с помощью виртуализации до распространения новых абонентских устройств.
Введение бесплатной сотовой 5G связи убьёт устаревшую телефонию и их адслы, так что ждём майдана связистов. Однако 5G-связь даст необходимую инфраструктуру для ОГАС, облачной робототехники, интернета вещей, умных городов и прочих плюшек. А также значительно повысит безопасность и подорвёт бизнес частной охраны. Каждый житель имеет право на защиту жизни и имущества со стороны правоохранительных органов. Покрытие 5G позволит поставить каждый дом на сигнализацию в милиции. При срабатывании сигнализации девайс отправляет сигнал на пульт диспетчера и включает трансляцию с домашних видеокамер (видеокамеры также могут использоваться для умного дома и мокапа для виртуальной реальности). Кроме того, сами смартфоны могут реагировать на крик о помощи и послать сигнал диспетчеру о своём местоположении, включить трансляцию видео и звука с девайса. Причём это не обязательно будет смартфон жертвы, а любой смартфон, услышавший зов. Гопники уйдут в прошлое. Станет слишком опасно заниматься преступлениями, если милиция реагирует мгновенно.
ЗЫ. Ожидаю комментариев о наступлении электронного концлагеря на свободу гопников.
Смартфон будущего.
Конечно, кроме сети 5G нам понадобится отечественные смартфоны.
Какими они будут, с точки зрения Пути Халявы? С точки зрения адепта-халявщика, такой смартфон должен служить десятки лет (без морального устаревания) и удовлетворять максимальное число нужд халявщика. Итак, попробуем прикинуть, каким он должен быть. Он должен давать доступ к виртуальной и дополненной реальности, заменять монитор, навигатор, телефон, быть удобным, носимым и не мешать. Чтож, попробуем прикинуть, каков он в железе.
1. Изображение.
Пока что очки виртуальной реальности представляют собой большую коробку на морде. И это вовсе не круто. Виртуальная реальность в формате очков не прижилась вообще, а дополненная реальность представляет собой довольно жалкое зрелище. Гуглгласс - это проектор перед глазом, закрывающий обзор и дающий слишком маленький угол зрения дополненной реальности. Всякие экраны на стёклах ушли тоже не сильно далеко. О проекторах или лазерах, формирующих изображение напрямую на сетчатке глаза пока остаётся только мечтать, ибо это рекламная замануха.
Но есть один любопытный эффект. Наверняка вы все его наблюдали. Иногда отражение на стекле кажется более реальным, чем реальность за стеклом, особенно, если за стеклом чуть темнее.
Именно на этом эффекте и основаны очки дополненной реальности META 2.
Кстати, волшебным образом похожим на шлем пилота от МИГ.
Экран находится в козырьке и отражается в глаза пользователя от специальной прозрачной маски. Маска имеет некое покрытие с серебром для отражения.
Если сделать её ещё и поляризованной, то мы получим обычный козырёк с поляризационными очками. Что само по себе неплохо, я пользуюсь поляризованными накладками на очки и очень доволен. Конечно, эта "маска" должна подниматься\складываться и уходить под козырёк, чтобы можно было смотреть на мир невооружённым взглядом.
Кроме того, маска может быть из специального "умного зеркала", прозрачного для лучей определённых направлений. То есть, для падающего под углом света от смартфона оно будет служить отражающим зеркалом, а для прямого света реального мира будет прозрачным.
В общем, на данный момент всё в реальности выглядит примерно так:
Основатель компании божится, что в его конторе не останется мониторов, а работать все будут в таких очках. Что же, остаётся только поверить, ибо считываемость текста на данных видео не ясна. Оптические же показатели обещают 20 пикселей на градус обзора. Обзор 90 градусов, так что, имхо, хватило бы и одного Full HD дисплея.
Экран - однозначно amoled. Причин несколько.
1. Самое главное, что на оледах чёрный - это настоящий чёрный. Так как пиксель не включается, а подсветки нет. А в нашем случае чёрный - это прозрачный. Тот цвет, который не будет отражаться нам в глаза, так что это крайне важно.
2. Олед экономичнее. Хотя бы потому, что чёрный - это выключенный. А в режиме дополненной реальности выключена\прозрачна большая часть экрана.
3. Олед уже дешевле, чем lcd. 1920Х1080 стоит 14,30$.
4. Олед лёгок и гибок, прекрасно и тупо клеится на козырёк. И легко сменится при необходимости.
В режим виртуальной реальности данный шлем можно переключить, надев на него шапочку из
2. Звук.
Так как устройство рассчитано на постоянное ношение, то использовать обычные наушники и забивать аудиоканал человека нельзя. Так что остаётся использовать либо наушники с костной проводимостью, либо технологию, известную, как нейрофон. Если таковая вообще существует.
Вкратце суть такова:
Где же он расположен? Это – небольшой участок мозга, который называют лабиринтом, и он отвечает за равновесие человека. Как оказалось после исследований научных деятелей, этот орган может воспринимать и обрабатывать ультразвуковые сигналы.
Почему нейрофон – это новый аппарат, который передает звук именно через кожу, если его могут проводить любые биологические ткани и жидкости? Кожа имеет пьезоэлектрические свойства, она передает электрические сигналы, которые поступают извне, в мозг. Такие сигналы очень разнообразны, но правильно закодированные сигналы могут передавать звуки.
Нейрофон – это медицинский, или, скорее, научный аппарат, вряд ли вам предложит его обычный музыкальный магазин. Но с его помощью можно, приложив аппарат к коже, передать человеческому мозгу звуковые сигналы. Это важно для глухих людей – даже инвалиды с полностью атрофированной ушной улиткой могут слышать с помощью нейрофона! А для меломанов такой аппарат открывает новые границы.
В общем, теоретически звучит всё так: звук модулируется в частоту где-то 40 килогерц и выше, электроды с сигналом прикладываются к коже (в нашем случае их удобно встроить туда, где козырёк соприкасается с лбом, но можно цеплять электроды хоть к жопе) и человек слышит чистейший звук внутри своего котелка. Некоторые утверждают, что таким образом можно симулировать тактильные ощущения и прочее.
Однако, есть очень большие сомнения в этой технологии.
1. Ультразвук вреден для организма и вообще влияет на мозги.
2. Обсуждения нейрофона я на серьёзных ресурсах не видел. Вообще. Одни какие-то эзотерические ресурсы по расширению сознания, впаривающие нейрофоны для медитаций и достижения просветления.
3. Утверждается, что эта "технология" способна дать слух даже тем, у кого проблемы с внутренним ухом, ибо воздействует на другие органы(лабиринт в мозгу). Однако, я не слышал о таких аппаратах для глухих.
Не смотря на все сомнения эта хрень реально продаётся разными фирмами.
http://www.neoneurophone.com/
http://www.flanagan-neurophone.com/english_information/Neurophone_NF3/neurophone_nf3.html
Хотя, мы живём в такое время, когда пачками впаривают лохам "таблетки для топлива, после которых машина будет жрать три литра на сотню". Что характерно, эти люди становятся постоянными покупателями и счета за бензин их не убеждают)) Сила самовнушения.
В общем, крайне сомнительный способ, который, надо бы, однако, пощупать.
Но пока единственным рабочим вариантом остаются наушники костной проводимости.
Для виртуальной реальности можно дополнительно использовать наушники, влияющие на вестибюлярный аппарат.
3. Юзеринтерфейс.
Взаимодействие с юзером должно быть тремя способами.
3.1. Голосовой интерфейс, особенно удобный для пользователей старшего поколения.
С поиском фильмов и сериалов, конечно))
3.2. Рукамимахательный интерфейс.
А-ля Leap Motion.
Работает он примерно так: свет инфракрасных диодов отражается от рук и попадает в две инфракрасные камеры.
После чего картинку уже пережёвывают алгоритмы.
Однако есть нюанс. При прямом солнечном свете ЛипМойша дохнет. Не ломается, слава Богу, но не способна увидеть руки из-за засветки. Такие дела.
Возможно, эти камеры можно заменить обычными с нейросетью, которая будет выделять руки из изображения и работать только с ними.
Я бы предпочёл иметь две Full HD 60 кадров в секунду(сейчас стоят по 25 баксов) камеры на козырьке на расстоянии, соответствующем стреднестатистическому межзрачковому расстоянию, которые могли бы заодно захватывать движения рук. Кроме того, это позволило бы снимать стереовидео. А также использовать данные камеры в зд-сканировании.
С другой стороны, боюсь, углов обзора на этих камерах не хватит, чтобы захватить движения рук или их придётся поднимать, чего юзер долго не вынесет.
В таком случае придётся всё же ставить leap motion. Правда, это дополнительные 70 баксов, чего не хотелось бы. Впрочем, как по мне, цена явно завышена. Две вэбки + 3 ИК-диода...
3.3. Отслеживание зрачков.
Камера, направленная на лицо, может отслеживать зрачки, мимику и показывать лицо абонента во время связи.
Отслеживание направления взгляда позволит уменьшить вычислительные затраты на рендеринг периферийного поля зрения и обеспечить интерфейс для инвалидов, где можно будет управлять курсором взглядом, а кликать левым или правым глазом.
Отслеживание мимики будет полезно для обратного отклика от пользователя(нравится\не нравится\скучно)
или наложения на игрового персонажа в онлайн-играх.
Ну а видеозвонки(возможно, с аватаром, на который будет наложена мимика) - это и так ясно.
Правда, есть одно но. Камера должна быть с широчайшим обзором, чтобы вместить всё табло с расстояния максимум 5 см. Ведь она расположена на краю козырька. Это потребует хитрую линзу.
К тому же камере придётся снимать нижнюю часть лица сквозь полупрозрачную маску, что потребует постобработки изображения. Убрать искажения и отражения.
3.4 Клава с мышкой.
В отличии от мониторов, которые заменят данные девайсы, клавиатура и мышка никуда не денутся. Никакой рукамимахательный или голосовой интерфейс, не смотря на всю естественность, не заменит скорость и эргономичность мышки и клавы. Руками махать устанешь. Говорить не всегда удобно.
4. Аутентификация пользователя
Для аутентификации воспользуемся фашисткими методами.
Технология SkullConduct работает так: специальный динамик генерирует ультразвуковой сигнал, который уникальным образом распространяется вдоль костной ткани. На другой стороне установлен чувствительный микрофон, фиксирующий полученный звук. Измеренные искажения звука и будут тем самым «секретным паролем».
Добавим к этому распознавание лица и голоса, даже радужной оболочки глаза... Вуаля. Ненапряжная аутентификация для домохозяек. Привяжем к ней какой-нибудь OpenId-аккаунт для многочисленных регистраций...
5. Вычислительная платформа.
Надо понимать, что носимый компьютер никогда не сможет быть достаточно быстрым и современным. Они устаревают буквально за пару лет. И мобильный 1-ваттный комп никогда не сможет сравниваться с производительностью домашнего числодробительного монстра, жрущего 500 ватт. А сложность приложений растёт с каждым днём. Тем более мобильных приложений, где многое закручено на нейросетях, машинном зрении и обработке видео. Например, сканирование, дополненная реальность, перевод языков и тд и тп.
Надо помнить, что мы халявщики и за длительный цикл жизни подобного девайса. Он не должен устаревать в принципе.
И выход тут только один. В удалённых вычислениях и стримминге изображения с стационарного компа или сервера. Именно тут нам и пригодится 5G-интернет с его обещанными скоростями хотя бы в 50 мбит и временем отклика в 1 мс. Причём основной трафик будет в пределах базовой станции, а она способна обслуживать миллионы устройств.
Если мы сможем подключиться к компу, то производительность нашего девайса не будет иметь значения.
Мы должны стриммить данные с нашего девайса на комп, обрабатывать их там, и принимать изображение. Фактически, удалённо работать с компом. Сейчас есть такие программы, для игры в компьютерные игры на телефоне. И они вполне показывают неплохой результат, играть можно. Но для шутеров или виртуальной реальности такие задержки неприемлемы. Порогом заметности считается 20 мс. Хотя на самом деле мозг способен обрабатывать картинки меньше 13 миллисекунд. В общем, нельзя отставать более, чем на кадр при 60 гц. 60 Гц и возьмём за точку отсчёта.
Итак, посмотрим, что можно сделать.
Первым делом нам нужны датчики гироскоп\акселератор\компасс, способные отдавать данные с частотой 60гц.
Я не буду столь оптимистичен, чтобы считать, что leap-motion способна за 12 мс превратить два кадра в данные о каждом пальце и других частях рук. Тут уж ничего не поделаешь. Возможно, данные с лимойши придётся отправлять в сыром виде(стереовидео) на комп.
Надо понимать, что данные с датчиков передаются уже для следующего кадра и стараться отставать не более чем на кадр.
За время рендеринга следующего кадра мы должны:
1. отправить данные с датчиков для рендеринга. Это можно делать параллельно, главное успеть до начала рендеринга следующего кадра, так что 13 мс - это почти вечность.
2. Пережать видео. Самый трудный и долгий этап.
3. Отправить его клиенту\девайсу. 2-3 мс в сетях 5G.
4. Распаковать и показать.
Молодая российская компания Фаствидео умудрилась с помощью Cuda на видюхах нвидии жать картинку в jpg быстрее, чем картинка закидывается в видеопамять.
Это прекрасно, но есть пара нюансов.
1. CUDA - это только видюшки нвидиа. Надо OpenCl.
2. Это всё-таки требует возможно, слишком мощную видюху. Было бы интереснее, если бы они показали такой результат на встройке, а не на флагмане. А нам надо, кроме всего прочего, жать данные с камер(для мимики и глаз, например) нашего девайса.
3. Jpg безнадёжно устарел. Он не даст ни низкого битрейта для сетей ни приемлемой картинки для души.
Сравним, например, с невыстрелившим пока форматом BPG, основанном на кодеке H265.
Формат h265, конечно, хорош. Но является сильно лицензионно-сомнительным. Более предпочтительным является свободный гугло-кодек VP9, дающий незначительно худшие результаты. Впрочем, все они являются развитием одних и тех же идей jpeg, mp2 и тд.
Однако в тёмных подвалах тайных лабораторий который год уже вот-вот смонстрячут свободный кодек некст-некст поколения daala с новым стандартом NETVC, основанная на новых алгоритмах, менее требовательных к вычилительной моще. Пока же она жмёт примерно как VP9, отставая совсем немного. Что само по себе уже неплохо. Впрочем, кодек ещё не окончен, ему требуется ещё годик.
В общем, как мне кажется, задача выполнить аппаратный кодек последнего поколения с производительностью в 5 мс на кадр в принципе решаема.
А также, конечно, нужно разработать новое ПО для этого дела. С гибким битрейтом и уменьшением цветности и разрешения вплоть до 640Х480 8 бит при плохом приёме. Чего хватит для интерфейса дополненной реальности, например, для навигации в дороге.
Только таким способом можно решить проблему недостаточной производительности мобильных устройств, сделав их практически вечно актуальными. Даже если найдут способы другой передачи изображения, и они морально устареют, этими девайсами всё равно можно будет пользоваться и они предоставят полный доступ к информации и игрушкам. Без ограничений.
А сам девайс может быть сколь угодно слабый. Хоть таблично-софтверный. Его дело получить доступ к компу и гонять видео туда-сюда и данные с датчиков.
5. Окончательная сборка.
Итак, для такого мобильного девайса нам потребуется набор датчиков.
Гироскоп и акселератор - само собой. GPS - однозначно. Компасс по моему скромному мнению тоже необходим для определения направления взгляда в большом мире. Совместно с высокоточным (сантиметровая точность) GPS это позволит определять место человека в реальном мире и выдавать ему картинку дополненной реальности в городе. В общем, GPS + MPU9350 необходимы. Насчёт барометра не уверен, высоту можно определить и по GPS.
Впрочем, GPS легко интегрируется с другими модулями. Как с 5G-модемом, например. И аппаратным кодеком видео. И прочими аппаратными примочками для периферии, вроде датчиков, камер и тд. Блютуз для всяких джойстиков. А вот вместо вайфая для дома я бы перешёл на li-Fi, ибо радиоспектр нужно разгружать, да и скорости сравнимы с оптоволокном. Две Full HD камеры для стереовидео, одна 720p для мимики и глаз, микрофон, конечно, интегрированные к вискам наушники костной проводимости и тд. Пригодится и опыт производства тонких телефонов толщиной около 5 мм, ибо всё железо будет практически в тонком козырьке. Поверхность козырька будет представлять собой гибкую печатную солнечную батарею. К тому же напряжение на этой батареи сможет служить датчиком освещения и регулировать яркость. Конечно, на девайсе будет доступно гребёнка GPIO, для использования в многочисленных diy-проектах, например, систем видеонаблюдения или беспилотниках.
Формфактор примерно такой
В итоге девайс позволит удалённо работать за виртуальным компьютером (в том числе и удалённо подключаться к рабочему месту), сделает ненужными мониторы и экраны, сможет заменить мобильный телефон, набор датчиков позволит точно спозиционироваться на местности (включая направление взгляда) и задействовать дополненную реальность, например, в экскурсионных целях. Для водителя он сможет заменить как навигатор, так и регистратор с помощью камер. Что позволит оценить что же видел водитель и степень его вины. А дома с помощью какого-нибудь не пропускающего свет футляра он позволит насладиться виртуальной реальностью. При этом он не потеряет актуальности пока не придумают другой способ формирования картинки, как минимум.