Probabilistic computer, концепция компьютера, оперирующего не двоичной системой, где принимают значения 0 и 1, а вероятностями принятия таких значений. Цель — создать энергоэффективный компьютер для сфер, где не требуется абсолютная точность вычислений.
"Тирании нулей и единиц приходит конец",— говорит Даг Бургер, исследователь компании Microsoft. Проблема с нулями и единицами заключается в том, что ведомая законом Мура об удвоении мощности процессоров каждые полтора года индустрия зашла в тупик. Производители чипов рапортуют об освоении 14-нанометровой технологии. Еще немного — и повышать плотность размещения элементов окажется физически невозможно: на масштабах атомарного уровня становятся ощутимы квантовые эффекты. Кроме того, попытки нарастить мощность ведут ко все большему энергопотреблению и теплоотдаче.
Бургер называет это "цифровым налогом" (digital tax). По его мнению, такой налог в ближайшем десятилетии станет слишком велик для отрасли: "Вы не сможете построить стабильно работающий чип, транзисторы которого будут иметь размер атома". Решить проблему, по его мнению, сможет отказ от самой парадигмы бинарного вычисления — фундамента современной компьютерной отрасли. Альтернатива — знакомая, но затертая на обочину цифровым прогрессом концепция аналоговых вычислений. Вместе с коллегами Бургер разрабатывает проект нейронных вычислительных модулей — Neural Processing Units (NPU). Одна из ключевых идей проекта заключается в том, чтобы позволить машинам ошибаться.
"Много типов вычислений не нуждаются в абсолютной точности",— пишет Бургер в работе Towards Neural Acceleration for General-Purpose Approximate Computing. Например, рендеринг изображений, распознавание речи, дата-майнинг. Снижение требований к точности уменьшит нагрузку и на вычислительные мощности. Но сегодняшняя архитектура процессоров не умеет давать поблажки. Поэтому под вычисления, где точность не требуется, задействуются огромные ресурсы.
В концепции Бургера нейронная сеть не занимается "вскрытием кода", она относится к нему как к черному ящику, не стремясь разложить на "нули и единицы". Она переводит его из исходного кода в код-подражатель. Система производит операции с ним как с черным ящиком — объектом. Отсюда и метафора про "аналоговый" тип вычисления. Ученый уверен, что переход от точных бинарных систем к аппроксимирующим аналоговым даст колоссальное повышение эффективности.
В подобной эффективности особенно заинтересованы военные. Развивающиеся технологии беспилотников предъявляют все новые требования к энергоэффективности. Объем видеоданных, который тем требуется обрабатывать, растет. При этом особого прогресса в сфере источников питания, например для видеооборудования на борту БПЛА, не наблюдается. Если не получается изобрести легкие и мощные аккумуляторы, приходится искать способы снизить энергопотребление. В прошлом году Агентство перспективных оборонных исследований DARPA по заказу Министерства обороны США запустило проект UPSIDE (Unconventional Processing of Signals for Intelligent Data Exploitation) — нетрадиционная обработка сигналов для интеллектуального использования данных. Суть проекта — в создании микросхем, которые будут работать на принципах аналоговых вычислений. Такой компьютер станет оперировать не значениями бит, а вероятностями принятия этих значений.
Работу над созданием "вероятностного процессора" еще в 2010 году анонсировала компания Lyric Semiconductor. По словам руководителя Lyric Бена Вигоды, специалисты, которые сейчас выходят на пенсию, еще помнят, как программировали аналоговые компьютеры в колледже. История повторяется. Выпуск решений на базе вероятностных процессоров возможен уже через несколько лет.