Калифорнийские исследователи демонстрируют последнюю версию своего искусственного интеллекта (AI). В статье «Цифровые тенденции» ИИ с глубоким обучением может читать мыслительные образы человека, чтобы идентифицировать песню, воспроизводимую с вашего устройства, и в вашей голове.
Такие приложения, как Shazam, используют аналогичное машинное обучение, которое позволяет ему идентифицировать песню, слушая ее. Новое же разработка на совершенно ином уровне интеллекта.
Исследователи из Калифорнийского университета, Беркли (UC Berkeley) начали работать над своим ИИ в 2014 году. Брайан Пэсли и его товарищи по команде прикладывали электроды к головам добровольцев и измерили активность мозга, пока участники говорили.
Узнав связь между активностью мозга и речью, они объединили накопленные данные мозга с помощью алгоритма глубокого обучения. Затем ИИ перевел мысли человека в цифровую синтезированную речь с определенной точностью.
В 2018 году команда UC Berkeley представила свой ИИ показывающий следующий уровень считывания мысли. Улучшенный ИИ с глубоким обучением показал на 50% большую точность, чем их предшественники. Новый ИИ мог лучше читать мозговую деятельность пианиста и предсказывать, о чем думает музыкант.
Сходства и различия между реальными и мнимыми звуками в вашей голове.
Автор исследования Пасли объяснил, что слуховое восприятие - это акт прослушивания музыки, речи и других звуков. Более ранние исследования показали, что некоторые части слуховой коры головного мозга ответственны за деление звуков на акустические частоты, такие как высокие или низкие тона.
Он и его команда наблюдали за этими областями мозга, чтобы увидеть, отвечают ли они за разрушение воображаемых звуков так же, как они обрабатывали фактические звуки. Примерами воображаемых звуков были бы внутренняя вербализация звука своего голоса или представление, что хорошая музыка заполняет тихую комнату.
Они сообщили об обнаружении большого перекрытия между частями мозга, которые обрабатывали настоящие звуки и части, которые обрабатывали воображаемые звуки. В то же время они также обнаружили значительные контрасты.
«Построив модель машинного обучения нейронного представления воображаемого звука, мы использовали модель, чтобы с достаточной точностью догадаться, какой звук представлялся в каждый момент времени», - сказал Пасли.
На первой фазе своего эксперимента исследователи УМ прикрепляли диоды к голове пианиста и записывали активность своего мозга, когда он выполнял несколько музыкальных произведений на электрической клавиатуре. Затем они могли сопоставить образцы мозга добровольца с музыкальными нотами.
На первой фазе своего эксперимента исследователи УМ прикрепляли диоды к голове пианиста и записывали активность мозга, когда он играл музыкальные произведений на электрической клавиатуре. Затем они смогли сопоставить образцы мозга добровольца с музыкальными нотами.
Во второй половине они повторили этот процесс с поправкой, что клавиатура отключена. Вместо этого они попросили музыканта представить мелодию, которые он играл в данный момент.
Таким образом, они смогли подготовить алгоритм AI для прогнозирования музыки, чтобы угадать воображаемую ноту, играющую в голове участника.
Пасли сказал, что конечной целью их исследований было создание глубоких алгоритмов ИИ для речевого устройства. Протез будет использоваться в качестве средства общения для пациентов, страдающих параличом, который лишил их речи.