К мозговому ИИ с гиперпространственными вычислениями

  • Home
  • blog
  • К мозговому ИИ с гиперпространственными вычислениями
blog image

Человеческий мозг всегда был предметом исследований для создания вычислительных систем. Хотя предстоит пройти очень долгий путь, прежде чем мы сможем создать вычислительную систему, которая соответствует эффективности человеческого мозга для когнитивных задач, в настоящее время исследуются несколько парадигм вычислений, вдохновленных мозгом. 

Сверточные нейронные сети — это широко используемый подход машинного обучения для приложений, связанных с ИИ, из-за их значительной производительности по сравнению с основанными на правилах или символическими подходами. Тем не менее, для многих задач машинное обучение требует огромных объемов данных и обучения для достижения приемлемого уровня производительности.

Доктор философии из Университета Халифа Эман Хасан изучает другую методологию вычислений ИИ, называемую «гиперпространственные вычисления», которая, возможно, может приблизить системы ИИ к познанию, подобному человеческому. Работой руководит доктор Бейкер Мохаммад, доцент и директор Центр системы чипов (SOCC) и доктор Ясмин Халавани, научный сотрудник.

Работа Хасана, недавно опубликованная в журнале IEEE Access , анализирует различные модели гиперпространственных вычислений и подчеркивает преимущества этой вычислительной парадигмы. Гиперпространственные вычисления или HDC — это относительно новая парадигма вычислений с использованием больших векторов (например, 10000 бит каждый), вдохновленная паттернами нейронной активности в человеческом мозге. Средства, позволяющие вычислительным системам на основе искусственного интеллекта сохранять память, могут снизить их потребности в вычислениях и мощности.

Векторы HDC по своей природе также чрезвычайно устойчивы к шуму, как и центральная нервная система человека. Интеллект требует обнаружения, хранения, привязки и отмены привязки шумовых шаблонов, а HDC хорошо подходит для обработки шумных шаблонов. Вдохновленная абстрактным представлением нейронных цепей человеческого мозга, разработка архитектуры HDC включает этапы кодирования, обучения и сравнения.

Человеческий мозг отлично распознают образцы и использовать эти шаблоны для вывода информации о других вещах. Например, люди обычно понимают, что то, что у стула отсутствует ножка, не означает, что это больше не стул. Система искусственного интеллекта может взглянуть на этот трехногий стул и решить, что это совершенно новый объект, требующий новой классификации. Однако векторы HDC допускают некоторую погрешность. С помощью HDC распознавание определенных функций сгенерирует вектор, достаточно похожий на стул, чтобы компьютер мог сделать вывод, что объект является стулом, исходя из своей памяти о том, как выглядит стул. Следовательно, трехногий стул останется креслом в гиперпространственных вычислениях, в то время как при традиционном распознавании объектов это будет сложной задачей.

«В векторе HD мы можем представлять данные в целом, что означает, что значение объекта распределяется между множеством точек данных», — пояснил Хасан. «Следовательно, мы можем восстановить значение вектора, пока у нас есть 60% его содержания».

Структура векторов приводит к одному из самых сильных преимуществ подхода HDC, заключающемуся в том, что он может допускать ошибки и, следовательно, является отличным вариантом для приближенных вычислительных приложений. Это происходит из представления гипер-векторов, где битовое значение не зависит от его местоположения в битовой последовательности.

HDC также мощен тем, что ориентирован на память, что позволяет выполнять сложные вычисления при меньших вычислительных мощностях. Этот тип вычислений особенно полезен для «периферийных» вычислений, которые относятся к вычислениям, которые выполняются в источнике данных или рядом с ним. На все большем числе устройств, в том числе в автономных транспортных средствах, вычисления должны выполняться немедленно и в точке сбора данных, вместо того, чтобы полагаться на вычисления, выполняемые в облаке в центре обработки данных.

«Гиперпространственные вычисления — многообещающая модель для периферийных устройств, поскольку они не включают этап обучения, требующий больших вычислительных затрат, как в широко используемой сверточной нейронной сети», — пояснил Хасан. «Однако гиперпространственные вычисления сопряжены со своими проблемами, поскольку одно только кодирование занимает около 80 процентов времени выполнения его обучения, а некоторые алгоритмы кодирования приводят к тому, что закодированные данные увеличиваются в двадцать раз по сравнению с исходным размером».

Хасан изучил парадигму HDC и ее основные алгоритмы в одномерных и двумерных приложениях. Исследования показали, что HDC превосходит цифровые нейронные сети в приложениях с одномерным набором данных, таких как распознавание речи, но сложность возрастает при расширении до 2D-приложений.

«HDC показала многообещающие результаты для одномерных приложений, потребляя меньше энергии и с меньшей задержкой, чем современные простые глубокие нейронные сети», — пояснил Хасан. «Но в 2D-приложениях сверточные нейронные сети по- прежнему обеспечивают более высокую точность классификации, но за счет большего количества вычислений».