19 февраля 2016
Максим Патрушев: Мегапроект: WEB 4.0

Сначала появилась идея объединить несколько компьютеров в одну сеть. Сеть росла, постепенно к ней смогли подключаться всё больше пользователей — так родился Интернет, или WEB 1.0. Большинство пользователей играли пассивную роль, т.е. не могли создавать и размещать контент. Но вскоре ситуация изменилась: теперь каждый человек может создавать сайты, имеют аккаунты в социальных сетях и т.д. Это WEB 2.0. 

Сейчас к Интернету подключены не только компьютеры или телефоны, но и бытовая техника, например. Сеть становится действительно глобальной и нуждается в универсальном метаязыке. Переход на этот уровень ознаменует собой WEB 3.0. 

Но в БФУ им.И.Канта решили сделать ещё один шаг и предположили, что в единую сеть можно будет соединить не только технику, но и... людей! О нейро-коммуникационной системе рассказывает директор Химико-биологического института БФУ им.И.Канта Максим Патрушев.

О ЧЁМ РЕЧЬ?
Если рисовать картину крупными мазками, то речь идёт об Интернете следующего поколения. Сейчас глобальная сеть связывает серверы, компьютеры, девайсы. А мы говорим о сети, которая бы объединила и людей. Мы называем её нейро-коммуникационной системой (НКС, или NCS). Это абсолютно новый уровень коммуникаций. 

ДЛЯ ЧЕГО?

Вот сегодня есть много мессенджеров, социальных сетей, сервисов для видеосвязи, но при этом лично у меня количество командировок и поездок не уменьшается, а увеличивается. Всё потому, что существующие  технологии не передают чего-то, что даёт живое человеческое общение. Людям нужны эмоции и что-то, что ощущается только при физическом контакте. Так вот мы хотим создать устройства (электронные посредники), чтобы можно было коммуницировать с кем-то (или даже с группой) и при этом чувствовать эмоции собеседника. Есть два пути: эти устройства будут информировать нас об эмоциях или мы их будем чувствовать. Если остановиться на информировании, то эта задача почти решена уже сегодня, если говорить о чувственном восприятии — это перспектива, но подчеркну:  принципиально не решаемых препятствий и на этом пути нет. Это вопрос времени!

Кроме передачи эмоций, этот электронный агент будет отслеживать, люди понимают друг друга или нет. Представьте, например, занятие в школе или вузе: лектор оперативно получает информацию, школьники/студенты его понимают или нужно ещё раз объяснить. Или другой пример: вы общаетесь с иностранцем на языке, который для него (или для вас обоих) не является родным, НКС поможет сделать коммуникацию более эффективной.

И наконец, нейро-коммуникационная система будет и системой принятия решений.  Допустим, для решения какой-то задачи собралась группа людей. Во-первых, агент будет отслеживать, люди понимают друг друга или нет. А во-вторых, система распознаёт, что вы говорите, какие эмоции испытываете и способна предлагать какие-то решения. Да, это вариант искусственного интеллекта! И это не фантастика: вспомните, например, Siri в IOS или Assistant в Android. Пока они скорее базы данных, но разработчики уже начали применять  механизмы deep leаrning, т.е. самообучения (чем больше вы пользуетесь системой, тем больше она подстраивается под ваши вкусы и предлагает что-то исходя из вашего опыта работы с ней).  

КАК ЭТО БУДЕТ РАБОТАТЬ?

Может быть, это самый сложный вопрос. Давайте вспомним фильм «Терминатор», там была система SkyNet: искусственный интеллект, к которому было подключено буквально всё. Эта система понимала человеческую речь, умела общаться с людьми на равных и самостоятельно принимала решения (собственно, так и началась война машин и людей).  В определённой степени подобная система — это конечный результат нашего проекта. Очень отдалённый, но идеологически мы работаем в этой парадигме.

Как вы понимаете, необходимо решить целый ряд задач. Во-первых, нужно разработать персональное устройство, которое будет считывать информацию с мозга отдельного человека. 

Прототип такого девайса уже есть, он основан на принципе простой электроэнцефаллографии: устройство (шлем) снимает энцефаллограмму, электромиаграмму, электроокулографию, движения глаз, изменение пульсовой волны, тонкие движения мышц — комплекс показателей, который будет обрабатываться и выявлять некие паттерны мозговой активности  (разные эмоции возбуждают разные паттерны электрической активности в мозге, сенсоры считывают эти данные и выдают информацию об эмоции). Пока мы можем просчитывать довольно грубые эмоции, более тонкие вещи скрываются глубже, нужно провести больше вычислительных операций. Это чисто математическая задача. Понятно, что не завтра всё будет готово, но это путь, по которому нужно идти. Более того, этот шлем будет способен выявлять акты понимания: когда человек что-то слушает, что-то обдумывает, происходит мозговая активность,  а потом происходит некий акт понимания, инсайт (момент «Эврика!»). Вот этот момент понимания мы тоже уже можем считывать. Также мы можем считать акт непонимания, точнее — процесс осознания, который не привёл к инсайту.  К лету мы приступим к испытаниям этого шлема. Планируем работать с обычными студентами и с аутистами (любая аномалия — это кладезь ценнейшей информации, в данном случае — когнитивной). Но есть пока нерешённая проблема: чтобы электрод хорошо считывал информацию о мозговой активности, нужно, чтобы он плотно прилегал к коже головы. Для этого его нужно смазать гелем (как в УЗИ). Вопрос в том, много ли человек согласятся ходить с такими устройствами на голове?! Есть игольчатое решение или специальные татуировки, но эти решения тоже не массовые, как и чип, который имплантируется в черепную коробку (причём такие чипы уже есть!).

Во-вторых, нужно ПО, алгоритмы работы этих девайсов. Уже есть какие-то предварительные решения, например, самообучающиеся алгоритмы. Весь вопрос в необходимой вычислительной мощности. Это системный барьер, который предстоит преодолеть. Понятно, что процессоры будут ещё мощнее, но это не решит проблему: придётся пересматривать архитектуру вычислений. Сейчас есть наработки в сфере так называемых межсетей, когда любое устройство, которое может выходить в сеть, условно является сервером провайдера. А если возможна система межсетей, то почему невозможна система межвычислений, когда каждый девайс является частью вычислительного механизма и решает часть глобального вычисления?!

В-третьих, масса когнитивно-коммуникативных вопросов. Например, даже простой BBI (brain to brain interfaces) — коммуникация между двумя людьми — как учитывать разные картины мира, уровень образования  и синтезировать общее решение?!  Вероятно, НКС должна будет  либо корректировать информацию, чтобы добиться взаимопонимания, чтобы люди одинаково понимали слова  (мы пока не знаем, как это делать), либо выдаёт промежуточное знание или  решение.  

КТО ЭТО БУДЕТ ДЕЛАТЬ?
 

Понятно, что это очень амбициозный проект. Причём это проект не про биологию, это проект цивилизационный, не побоюсь этого громкого слова. Он на стыке биологии, математики, физики, лингвистики,  философии... А главное — это скачок на новый уровень в развитии не только технологий, но и нашей жизни в целом.

Конечно, самостоятельно такой проект не реализует ни один научный центр мира. Нужна коллаборация. И нашими партнёрами будут  МГУ им.М.В.Ломоносова, Высшая школа экономики, Институт русского языка РАН, Институт проблем передачи информации, Стэнфорд, Лондонский королевский колледж и Университет Торонто. С ними уже достигнуты принципиальные договорённости, идёт проработка целей, задач и т.д. Будут и технологические партнёры. 

Важно найти и человека, который стал бы лицом проекта, его вдохновителем и популяризатором. И такую поддержку  готов оказать вице-президент  Google Винтон Серф. 

КАКОВА РОЛЬ БФУ им.И.КАНТА?
 

В этом проекте мы некий интегратор, центральная точка. Работы будут выполняться в целой массе вузов и организаций, но нужен  проектный офис, менеджмент. И эту сложнейшую организационную задачу будем решать мы. И для начала нам предстоит разработать тезаурус, чтобы все партнёры понимали друг друга. Здесь можно вспомнить 1968 год, когда Дуглас Энгельбарт презентовал свою ЭВМ с первым вариантом мышки... Многие просто не понимали, что это и зачем.  И сейчас примерно так же: с одной стороны, нет терминологии, а с другой — нет понимания этого будущего. Понятно, что Google или Apple ведут массу своих исследований, но пока неясно, что с ними делать. И мы этим проектом предлагаем эту некую рамку, вариант сценария, и если компании и лаборатории его принимают, то их работа становится более целенаправленной и осознанной. 

И конечно, мы предлагаем некий старт — тот самый шлем, о котором шла речь. Как только он будет готов, его сразу можно и нужно будет модернизировать. Аналогичные продукты есть и в других вузах. Нам нужно будет разработать протоколы, как соединить эти устройства друг с другом в одну сеть. Так, постепенно, появится инфраструктура, станут понятны направления научных исследований и инженерных задач.

КОГДА?

Я думаю, более-менее работающая система появится к 2035 году. 

Источник информации: БФУ им. И.Канта