Информация

Преимущества использования более сложных моделей нейронов в моделях NEF

Преимущества использования более сложных моделей нейронов в моделях NEF

NEF позволяет использовать практически любую модель нейрона, если у нее есть уравнение для ее активности и ее пиков. Обычно используется простая модель нейрона утечки-интеграция-огонь (LIF), но даже в программном обеспечении Nengo для моделирования доступны различные нейроны, такие как адаптивные нейроны LIF и нейроны Пуассона. Каковы преимущества использования этих более сложных нейронов и как эти преимущества использовались в прошлом?


Как видно в статье «Нейронная инженерия» Элиасмита и др. В главе 4 сложные модели нейронов обладают большими вычислительными возможностями и более реалистично соответствуют нейронным данным.

Вычислительные возможности

Как видно из следующей таблицы (взятой из Neural Engineering), нейроны адаптивного LIF, в силу изменяющихся во времени паттернов возбуждения (то есть постоянный ввод со временем вызовет различные паттерны спайков), кодируют больше информации за спайк:

Как видно из этой таблицы, существует компромисс между сложностью информации, представленной нейроном, и его вычислительными затратами. Однако эта стоимость рассчитана для традиционных ЦП Фон-Неймана. Можно создать нейроморфное оборудование, чтобы минимизировать эту стоимость при максимизации вычислительных возможностей. Для получения дополнительной информации см. «Нелинейное синаптическое взаимодействие как вычислительный ресурс в Neural Engineering Framework», где показано, как нелинейные дендриты могут обеспечивать мощные формы вычислений с минимальными дополнительными затратами на нейроморфное оборудование.

Сопоставление биологических данных

Вышеупомянутая временная дисперсия адаптивного LIF также используется для сопоставления нейронных данных, как видно в этой модели рабочей памяти, что было бы невозможно с обычными нейронами LIF. Использование еще более сложных моделей может позволить сопоставить эффекты лекарств, как показано в разделе «Влияние гуанфацина и фенилэфрина на модель рабочей памяти с импульсными нейронами».


Ключевые слова

Примечание автора: Авторство указано в алфавитном порядке за счет равных вкладов. Тобиас Шредер выполнял часть этой работы в качестве постдокторанта в Университете Ватерлоо при поддержке DFG Германии (SCHR1282 / 1-1). Ивана Кайич была аспирантом Центра вычислительной нейробиологии им. Бернштейна в Берлине на ранних этапах работы. Она признает текущую поддержку AFOSR (FA9550-17-1-0026). Пол Тагард получил финансирование от Совета по естественным наукам и инженерным исследованиям Канады (NSERC).


Пиковая нейросетевая модель пространственных и визуальных мысленных образов.

Ментальные образы уже давно интересуют когнитивных и нейробиологов, но то, как они проявляются в уме и мозге, все еще остается нерешенным. Преследуя это, мы построили нейронную модель с пиками, которая может выполнять мысленное вращение и сканирование мысленных карт, используя стратегии, основанные на литературе по психологии и нейробиологии. Результаты: при сканировании ментальной карты время реакции (RT) для нашей модели близко соответствует поведенческим исследованиям (примерно 50 мс / см) и воспроизводит когнитивную проницаемость задачи. При выполнении мысленного вращения RT нашей модели еще раз близко соответствуют поведенческим исследованиям (модель: 55–65 ° / с, исследования: 60 ° / с) и выполняли задачу, используя ту же стратегию задачи (целое единичное вращение простых и знакомых объектов через промежуточные точки). В целом наша модель предполагает: (1) векторные подходы к нейрокогнитивному моделированию хорошо оснащены для воспроизведения поведенческих результатов, и (2) когнитивная (не) проницаемость задач с изображениями может зависеть от того, выполняет ли задача задачу использование (не) символьной обработки.

Это предварительный просмотр содержимого подписки, доступ через ваше учреждение.


Исследования на животных в психологии

Студенты иногда спрашивают, в чем ценность исследований на животных в психологии. Изучение нечеловеческих животных на самом деле сыграло огромную роль в психологии и продолжает играть ее сегодня. Если вы посещали вводный курс психологии, то, вероятно, читали об основополагающих психологических исследованиях, проведенных на животных: крысах Скиннера, собаках Павлова, обезьянах Харлоу. К сожалению, многие вводные учебники не дают полного представления об исследованиях на животных. Часто исследования описываются без указания того, что они были исследованиями на животных. Когда представлены исследования на людях, редко обсуждаются фундаментальные исследования на животных, которые позволили провести эти исследования. Наконец, информация об этической и нормативной среде, в которой проводятся исследования на животных, покрывается поверхностно или вообще опускается. Это важные вопросы, которые заслуживают лучшего понимания и более широкого обсуждения.


Психология 240 Зачет 1

противоположность бихевиоризма.
вера в то, что большую часть человеческого поведения можно понять с точки зрения того, как люди думают
исследовать роль психических процессов в поведении
* верил в создание и проверку теории посредством экспериментов, решал методологические вопросы, вычислительный взгляд на разум как на устройство обработки информации

реакция на присутствие или отсутствие одного стимула (в отличие от необходимости выбирать между несколькими стимулами перед тем, как ответить)

3 гипотеза
кодирование, хранение и извлечение

фальсификация объяснения хранения

фальсифицированное хранилище показывает, как гипотезы могут быть проверены и доказаны как ложные, но не подтвержденные.

изменение точки зрения не меняет восприятие определенных вещей ^^

теория прямого восприятия. анализ, который начинается с сенсорных рецепторов и продолжается до интеграции сенсорной информации в мозг

-не могут наблюдать ум, сосредотачиваться на наблюдаемом поведении (DSM-IV)

бихевиоризм, сосредоточенность на наблюдаемом поведении, объективность, восходящий подход к когнитивной обработке

б) Продолжительность всех стадий умножается, чтобы получить время реакции.

в. Время, необходимое для выполнения задачи, - это сумма времени, необходимого для каждой стадии обработки.

глаз - & gtretina - & gt фоторецепторы (палочки и колбочки) - & gt биполярные клетки / горизонтальные клетки - & gt ганглиозные клетки (m и p-клетки) - & gt выходной слой сетчатки - & gtmagnocellular / parvocellular слои - & gtthalamus - & gtLGN-- & gtdorsal stream (где) / брюшной поток (what) - & gt теменная доля / височная доля

стержни: м-клетки: магноцеллюлярный слой ЛГН: дорсальный поток: теменная доля: где

обнаруживать мелкие детали и вызывать цветовые ощущения.

Потенциал действия: электрический сигнал, идущий вниз по аксону

нейрон может получать информацию от многих других нейронов, и чистое возбуждение в конкретном коде определяет срабатывание

Каждая ганглиозная клетка реагирует на определенную часть поля зрения. Эта область называется их рецептивным полем. Когда зрительные стимулы предъявляются за пределами этой области (или стимулы не предъявляются вообще), клетка имеет базовую скорость активации (частота потенциалов действия во времени). Для клетки в центре и вне окружения зрительные стимулы, представленные в центре этой области, возбуждают клетку (заставляют ее активироваться чаще), в то время как визуальные стимулы представлены в области в форме пончика вокруг этого центра (но все еще в центре). рецептивное поле) подавляют клетку (заставляют ее срабатывать реже, чем базовый уровень). И наоборот, нецентральные, окружающие клетки подавляются стимулами в центре их рецептивного поля и возбуждаются стимулами, окружающими их рецептивное поле.

кратковременный отклик (отклик - & gt; кратковременное отключение), большое восприимчивое поле, движение / местоположение (где есть вещи)

простой: полоса света, ориентация, положение сетчатки, края

сложный: более сложное рецептивное поле, края углов

пространственный: спинной: затылочный: теменный: где

объект: вентральный: затылочный: височный: что:

проблемы: трансформации, затрудненный обзор, разложение функций зрительной системы * клетки височной доли не настроены на определенные стимулы (нет бабушкиной клетки)

Доказательства: физиология (записи нейронов), стабилизированные изображения сетчатки (глаза постоянно трясутся из-за усталых фоторецепторов), визуальный поиск (зрительная система, разлагающая то, что мы смотрим @, на визуальные особенности низкого уровня и использование для распознавания) модель пандемониума, карикатуры

проблемы: пространственные отношения между элементами, неорганизованные элементы, разные объекты с одинаковыми характеристиками

Простые ячейки реагируют на края в определенных местах с определенной ориентацией. Края - это особенность, которую теория признаков считает критически важной для распознавания образов.

Свидетельства: частичные или деградированные объекты (отношения между геонами видят объекты с препятствиями), сложность объекта (различное количество геонов), необычная ориентация, удаление неслучайных свойств, трансформации, отношения, объяснение смысла бессмысленных объектов

внизу: нижний уровень, сенсорный ввод, видение, прослушивание

сверху вниз: обработка начинается высоко переходит к ощущению

часто встречающаяся задача: как мы принимаем решения по обнаружению: демонстрирует влияние сверху вниз на восприятие


Получение наших подшипников

Но сначала давайте сориентируемся. Что именно пытается сделать нейронная сеть? Как и любая другая модель, она пытается сделать хороший прогноз. У нас есть набор входных данных и набор целевых значений - и мы пытаемся получить прогнозы, которые максимально соответствуют этим целевым значениям.

Забудьте на секунду о более сложном изображении нейронной сети, которое я нарисовал выше, и сосредоточьтесь на более простом изображении ниже.

Это единственная функция логистической регрессии (мы даем модели только одну переменную X), выраженную через нейронную сеть (если вам нужно напомнить о логистической регрессии, я писал об этом здесь). Чтобы увидеть, как они связаны, мы можем переписать уравнение логистической регрессии, используя цветовые коды нашей нейронной сети.

Давайте исследуем каждый элемент:

  1. X (оранжевый) - это наши входные данные, единственная особенность, которую мы даем нашей модели для расчета прогноза.
  2. B1 (бирюзовый, он же сине-зеленый) - это предполагаемый параметр наклона нашей логистической регрессии - B1 сообщает нам, насколько сильно изменяются Log_Odds при изменении X. Обратите внимание, что B1 живет на бирюзовой линии, которая соединяет вход X с синим нейроном в скрытом слое 1..
  3. B0 (синим цветом) - это смещение, очень похожее на член перехвата из регрессии. Ключевое отличие состоит в том, что в нейронных сетях каждый нейрон имеет свой собственный член смещения (в то время как в регрессии модель имеет единственный член перехвата).
  4. Синий нейрон также включает функцию активации сигмовидной кишки (обозначенную изогнутой линией внутри синего круга). Помните, что сигмовидная функция - это то, что мы используем, чтобы перейти от логарифмических шансов к вероятности (выполните поиск «сигмоида» с помощью control-f в моем предыдущем посте).
  5. И, наконец, мы получаем нашу предсказанную вероятность, применяя сигмовидную функцию к величине (B1 * X + B0).

Не так уж и плохо, правда? Итак, подведем итоги. Сверхпростая нейронная сеть состоит всего из следующих компонентов:

  • Соединение (хотя на практике, как правило, будет несколько соединений, каждое со своим собственным весом, идущих в конкретный нейрон), с весом, «живущим внутри него», которое преобразует ваш ввод (используя B1) и передает его нейрону. .
  • Нейрон, который включает член смещения (B0) и функцию активации (в нашем случае сигмоид).

И эти два объекта являются фундаментальными строительными блоками нейронной сети.. Более сложные нейронные сети - это просто модели с большим количеством скрытых слоев, а это означает больше нейронов и больше связей между нейронами. И эта более сложная сеть связей (а также весов и смещений) позволяет нейронной сети «изучать» сложные взаимосвязи, скрытые в наших данных.


Вступление

ИНС вдохновлена ​​биологической нейронной сетью. Для простоты в информатике он представлен в виде набора слоев. Эти слои делятся на три класса: входные, скрытые и выходные.

Знать количество входных и выходных слоев и количество их нейронов - самая простая часть. Каждая сеть имеет один входной слой и единственный выходной слой. Количество нейронов во входном слое равно количеству входных переменных в обрабатываемых данных. Количество нейронов в выходном слое равно количеству выходов, связанных с каждым входом. Но проблема состоит в том, чтобы узнать количество скрытых слоев и их нейронов.

Вот несколько рекомендаций, чтобы узнать количество скрытых слоев и нейронов на каждый скрытый слой в задаче классификации:

  1. На основе данных нарисуйте ожидаемую границу решения для разделения классов.
  2. Выразите границу решения в виде набора линий. Обратите внимание, что комбинация таких линий должна соответствовать границе решения.
  3. Количество выбранных линий представляет количество скрытых нейронов в первом скрытом слое.
  4. Чтобы соединить линии, созданные предыдущим слоем, добавляется новый скрытый слой. Обратите внимание, что новый скрытый слой добавляется каждый раз, когда вам нужно создать соединения между линиями в предыдущем скрытом слое.
  5. Количество скрытых нейронов в каждом новом скрытом слое равно количеству соединений, которые необходимо установить.

Чтобы было понятнее, давайте применим предыдущие рекомендации к ряду примеров.


Библиография

  • (1)
  • Би и Пу (1998) Bi, G.-q. и Пу, М.-м. (1998), «Синаптические модификации в культивируемых нейронах гиппокампа: зависимость от времени спайков, синаптической силы и типа постсинаптических клеток», Journal of Neuroscience 18 (24), 10464–10472.
  • Даян и Эбботт (2001) Даян, П. и Эбботт, Л. Ф. (2001), «Теоретическая нейробиология: вычислительное и математическое моделирование нейронных систем».
  • Диксон (2002) Диксон, Б. Дж. (2002), «Молекулярные механизмы наведения аксонов», Science 298 (5600), 1959–1964.
  • Фельдман (2009) Фельдман Д. Э. (2009), «Синаптические механизмы пластичности неокортекса», Ежегодный обзор нейробиологии 32, 33–55.
  • Фельдман и Брехт (2005) Фельдман Д. Э. и Брехт М. (2005), «Карта пластичности в соматосенсорной коре», Science 310 (5749), 810–815.
  • Фербер и Вайс (1999) Фербер Дж. И Вайс Г. (1999), Многоагентные системы: введение в распределенный искусственный интеллект, Vol. 1, Аддисон-Уэсли Ридинг.
  • Froemke и Dan (2002) Froemke, R.C. и Dan, Y. (2002), «Синаптическая модификация, зависящая от времени спайков, индуцированная естественными цепочками спайков», Nature 416 (6879), 433.
  • Furber et al. (2014) Фурбер, С. Б., Галлуппи, Ф., Темпл, С. и Плана, Л. А. (2014), «Проект спинакера», Протоколы IEEE 102 (5), 652–665.
  • Герстнер и др. (2014) Герстнер В., Кистлер В. М., Науд Р. и Панински Л. (2014), Нейронная динамика: от отдельных нейронов к сетям и моделям познания, Cambridge University Press.
  • Гош-Дастидар и Адели (2009) Гош-Дастидар, С. и Адели, Х. (2009), «Новый контролируемый алгоритм обучения для множественных всплесков нейронных сетей с применением в обнаружении эпилепсии и припадков», Нейронные сети 22 (10), 1419–1431.
  • Graves et al. (2008) Graves, A., Liwicki, M., Fernández, S., Bertolami, R., Bunke, H. и Schmidhuber, J. (2008), «Новая коннекционистская система для неограниченного распознавания почерка», IEEE-транзакции на анализ паттернов и машинный интеллект 31 (5), 855–868.
  • Graves et al. (2013) Грейвс, А., Мохамед, А.-р. и Хинтон, Г. (2013), Распознавание речи с помощью глубоких рекуррентных нейронных сетей, в «Международной конференции IEEE 2013 по акустике, речи и обработке сигналов», IEEE, стр. 6645–6649.
  • Хольтмаат и Свобода (2009) Хольтмаат, А. и Свобода, К. (2009), «Зависящая от опыта структурная синаптическая пластичность в мозге млекопитающих», Nature Reviews Neuroscience 10 (9), 647.
  • Индивери и Хориучи (2011) Индивери, Дж. И Хориучи, Т. К. (2011), «Границы нейроморфной инженерии», Границы нейробиологии 5, 118.
  • Ижикевич (2003) Ижикевич, Е. М. (2003), «Простая модель импульсных нейронов», IEEE Transactions по нейронным сетям 14 (6), 1569–1572.
  • Джеффресс (1948) Джеффресс Л. А. (1948), «Теория места локализации звука». Журнал сравнительной и физиологической психологии 41 (1), 35.
  • Jørgensen et al. (2015) Йоргенсен, С.В., Демазо, Ю. и Халлам, Дж. (2015), Рана, симулятор мультиагентной системы в реальном времени, в Международной конференции IEEE / WIC / ACM 2015 года по веб-аналитике и технологиям интеллектуальных агентов ( WI-IAT) ', Т. 2, IEEE, стр. 92–95.
  • Кемптер и др. (1999) Кемптер Р., Герстнер В. и Ван Хеммен Дж. Л. (1999), «Хеббийские обучающиеся и пиковые нейроны», Physical Review E 59 (4), 4498.
  • Кохонен (1990) Кохонен Т. (1990), «Самоорганизующаяся карта», Протоколы IEEE 78 (9), 1464–1480.
  • Кониши (1993) Кониси, М. (1993), «Слушание двумя ушами», Scientific American 268 (4), 66–73.
  • Крижевский и др. (2012)

Крижевский А., Суцкевер И. и Хинтон Г. Э. (2012), Классификация Imagenet с глубокими сверточными нейронными сетями.

Thurau, C., Bauckhage, C. и Sagerer, G. (2003), Объединение самоорганизующихся карт и многослойных перцептронов для изучения поведения ботов для коммерческой игры.,


Категоризация

Вторым многообещающим кандидатом на прямую интеграцию репрезентаций CNN является исследование категоризации - возможно, наиболее фундаментального когнитивного феномена, вытекающего из сходства. Проблему категоризации можно сформулировать как решение, как отнести новый стимул к новой или существующей категории, и интуитивно понятно, что это, в свою очередь, связано с его сходством с ранее встреченными членами категории. Хотя кажется, что что-то было потеряно - теперь для любого данного сравнения рассматривается только подмножество стимулов - категории добавляют структуру, которая позволяет нам моделировать внутри- и межкатегорийные взаимодействия, и, следовательно, более богатый и точный диапазон обобщений. Категории составляют основу большинства когнитивных структур для понимания мозга и разума, и практически все вычислительные парадигмы начинаются с их определения или объяснения. 83

Теории категоризации начались с Платона и Аристотеля, которые утверждали, что категории лучше всего представлены одной идеальной формой или всеми ранее встречавшимися членами, соответственно. 84, 85 Совсем недавно изучение категоризации отслеживало развитие когнитивных наук в целом, начиная с идеи о том, что люди используют правила или определения для категоризации стимулов. 86, 87 Какой бы интуитивной ни казалась эта идея, она была оспорена в 1970-х годах работой Элеоноры Рош и ее коллег, которые показали, что естественные категории часто не имеют центральных определяющих характеристик и демонстрируют дифференцированную категориальную структуру, лучше характеризуемую отношениями семейного сходства. 88-90 Убедительные доказательства в поддержку этой точки зрения были получены из ряда эмпирических данных, в которых стимул мог быть более или менее «типичным», 59, 79 невидимый прототипные стимулы были предпочтительнее других невидимых стимулов из категории во время задач распознавания, 91 и что некоторые уровни ярлыков (например, «подчиненный» уровень) работали лучше, чем другие, при объяснении суждений категории. 78

До недавнего времени роль когнитивного моделирования заключалась в том, чтобы предложить способ вычисления сходства между стимулом и категорией, чтобы уловить эти поведенческие эффекты, как с точки зрения представления существующих членов категории, так и с точки зрения формулировки самого сравнения. В этом контексте были разработаны две влиятельные стратегии моделирования. Первый, известный как прототип Модель предполагает, что категории представлены их средней или центральной тенденцией. 92 Второй, известный как пример для подражания Модель предполагает, что категории представлены всеми известными им членами. 93, 94 Эти стратегии можно объединить, определив вычислительную задачу категоризации как оценку плотности вероятности 48 и, в частности, как определение вероятности того, что участник выберет конкретную метку категории для данного изображения. Это более точное построение фреймов привело к детальному исследованию предсказаний моделей в лабораторных условиях с использованием наборов искусственных стимулов, которые были разработаны для дифференциации характеристик модели, причем образцы-модели часто побеждают. 92-105 С тех пор экстраполяция полного вероятностного переосмысления категоризации привела к ряду других статистических стратегий, которые могут учитывать поведение человека в более широком диапазоне условий, таких как изучение оценок плотности смеси, состоящих из ряда (под) прототипов. , 106, 107 делятся образцами по категориям, 49 и позволяют стратегии категоризации гибко адаптироваться к количеству наблюдаемых стимулов. 24, 49

куда C это категория, у это стимул, у является многомерным представлением этого стимула, и наша функция подобия. Это представление сравнивается со средним значением категории для моделей-прототипов или со всеми известными членами категории для моделей-образцов. Функция подобия, S, является добавка: если категория представлена ​​вектором стимулов (как в модели-образце), S вычисляет сумму сходства между у и представительство, Икс, для каждого стимула в C. Наконец, модель-образец содержит параметр «специфичность», β, который масштабирует все вычисления расстояния на одинаковую величину до возведения в степень. Это усиливает или уменьшает влияние образцов на последующие категориальные суждения и, следовательно, позволяет модели контролировать общую различимость стимулов в соответствующем психологическом пространстве. 94

День битвы и другие. 50 обнаружили, что CNN обеспечивают лучшую репрезентативную основу для моделирования человеческих суждений о категоризации, превосходя по эффективности традиционные методы компьютерного зрения без учителя. Действительно, выбор представления стимула повлиял на общую производительность в гораздо большей степени, чем выбор модели категоризации. Это особенно интересно, учитывая, что основное внимание в моделировании категоризации уделяется стратегии категоризации, тогда как однозначная природа простых искусственных стимулов позволяет их репрезентации оставаться неизменной. Утрата такой аккуратной факторизации при анализе натуралистических стимулов устанавливает необходимость - по крайней мере на начальном этапе - сосредоточиться на менее интегрированном вопросе перцептивного представления. При ограничении анализа представлениями CNN модели категоризации с большим количеством свободных параметров - и, следовательно, большей гибкостью для преобразования представлений CNN - работали лучше и лучше, чем базовые показатели конкурентов. Это указывает на то, что представления CNN также, естественно, содержат скрытую информацию, относящуюся к видам функций, которые люди используют для вынесения категориальных суждений, которые могут быть дополнительно уточнены с помощью простых линейных и квадратичных преобразований. Еще одно неожиданное открытие заключалось в том, что модели-прототипы и образцы-образцы работали примерно одинаково в разнообразном диапазоне представлений изображений, что контрастировало с тем, что можно было ожидать на основе предыдущих лабораторных работ, в которых модели-образцы необходимы для захвата искусственных категорий с более сложной структурой.

Там находятся Известны случаи, когда модели-прототип и образец делают аналогичные прогнозы, например, если представления категорий хорошо улавливаются простыми гауссианами, но остается неясным, как эти ситуации соотносятся с многомерными представлениями сложных стимулов. День битвы и другие. 50 провели имитационное исследование, в ходе которого изучалось, как количество измерений и обучающих выборок влияет на различные стратегии моделирования. Они обнаружили, что в то время как модели-образцы в низкоразмерных пространствах действительно превосходят модели-прототипы, такой разницы не существует в многомерных репрезентативных пространствах после обучения с очень большим количеством стимулов. Это режим, в котором нам позволяют работать представления натуралистических изображений на основе CNN. Дальнейшие теоретические исследования необходимы, чтобы определить важность этих зависимостей, а также уточнить взаимосвязь между размером и природой репрезентативного пространства.

В ряде исследований, посвященных CNN в контексте описанного выше сходства, категоризация использовалась в качестве последующего приложения для проверки полезности репрезентативных пространств, полученных их методами. Например, Петерсон и другие. отметил, что людям также было намного проще изучать новые категории естественных изображений, когда они были построены на основе сходства между представлениями CNN, а не сходства между функциями инженерного зрения HOG / SIFT. 64 Когда эти представления CNN были преобразованы, чтобы лучше согласовываться с данными о человеческом сходстве, категории стало еще легче изучать. Во-вторых, Сандерс и Нософски изучили классификации для удерживаемого набора данных, взятых из более чем 120 новых изображений геологических образцов, взятых из тех же 30 категорий, которые они использовали для обучения CNN приближенным координатам MDS (см. Выше). 73 Когда модель-образец с низкими параметрами была снабжена представлениями CNN-MDS, она смогла очень хорошо смоделировать эти человеческие категоризации. В дальнейшем исследовании Сандерс и Нософски также протестировали модель-образец на этих данных категоризации, но на этот раз сравнили ее производительность с использованием ряда репрезентаций CNN, включая набор, модифицированный для лучшего отражения человеческих суждений о (несходстве). 75 Они обнаружили, что полученные из CNN приближения MDS обеспечивают гораздо лучшую производительность, чем простые, стандартные представления изображений CNN, и могут быть дополнительно улучшены путем обучения CNN также предсказывать «недостающие» измерения, добавленные к обычным MDS-представлениям. -координаты. 76

Конвергентный набор результатов был получен из тесно связанной области распознавания объектов. Аннис и другие. 109 показали, что CNN, предварительно обученные в ImageNet, генерируют интуитивно понятные, правильно сгруппированные и надежные представления совершенно новых экспериментальных объектов, включая Greebles, 110 Зиггерины, 111 и Sheinbugs. 112 Эти более сложные искусственные стимулы демонстрируют натуралистические качества и их трудно представить с помощью нескольких очевидных измерений или MDS, но при этом гарантируют, что участники не имеют предыдущего опыта работы с категорией объектов. Аннис и другие. затем использовали эти представления CNN для моделирования набора данных 113, в котором участники должны были решить, является ли второй объект, возможно, повернутый или масштабируемый, таким же, как первый, разделенный задержкой. 109 Сходство между первым и вторым объектами было использовано в качестве входных данных для иерархической байесовской модели накопления доказательств для моделирования суждений участников и времени реакции. Как и в случае с исследованиями по категоризации выше, Аннис и другие. обнаружили, что использование представлений CNN вместе с когнитивной моделью превосходит ряд базовых показателей, что выбор представления CNN является основным фактором, определяющим производительность, и что наиболее эффективная модель может быть улучшена путем изменения представлений CNN, чтобы они также были устойчивы к поворотам . Они также исследовали ряд методов поиска трансформации, дополнив анализ, проведенный в работах [10,11]. 64 и 68 за сходство. См. Также Ref. 114, для еще одного успешного применения CNN и моделей накопления доказательств, на этот раз при моделировании решений и времени реакции новичков и экспертов в области медицинской классификации изображений.

Существует ряд других исследований, изучающих аспекты взаимосвязи между категоризацией изображений, когнитивными моделями и CNN. Как и в случае суждений о типичности категорий, 56 было обнаружено, что прогностическая выгода представлений CNN для моделирования категоризации возрастает с увеличением глубины. 115 С другой стороны, представления из более мелких слоев CNN обеспечили лучшую основу для фиксации визуальных предубеждений, наблюдаемых, в частности, у голубей, классифицирующих кардиограммы, 116 предполагая роль CNN в сравнительных исследованиях визуальной категоризации среди других типов зрительных систем.

Наряду с типичностью и сходством, CNN являются нашим лучшим доступным источником представлений для моделирования поведения по сравнению с натуралистическими стимулами в другой фундаментальной когнитивной области - категоризации. В целом, исследования выявили два подхода, успешно улучшающих эти представления: их адаптация для лучшего соответствия суждениям о сходстве. до применение моделей категоризации или разработка гибких моделей категоризации, которые дополнительно преобразуют представления CNN в течение подгонка параметров. В более общем плане выясняется, что роль изучения особенностей стимула больше не может быть исключена из формального описания категоризации над более сложными типами стимулов, и рассмотрение обоих вместе будет необходимо для характеристики категориальных суждений человека. Это перекликается с давно принятой точкой зрения в литературе по машинному обучению и ранее требовалось в когнитивных науках. 117

Улучшение глубоких нейронных сетей с использованием концепций когнитивного моделирования

В приведенных выше исследованиях CNN в основном использовались для представления стимулов, к которым затем могут быть применены традиционные модели высшего познания. Мы также видели, что всегда можно было улучшить эти представления, преобразовав их в соответствии с имеющимися поведенческими данными. При применении и изменении представлений CNN для этого нового набора проблем был разработан ряд идей и моделей, которые также применимы к контекстам машинного обучения и компьютерного зрения, в которых изначально разрабатывались CNN. В этом разделе мы обсудим, как эти знания могут быть снова интегрированы в обычные парадигмы обучения CNN, чтобы улучшить их когнитивные модели с простой целью повышения их производительности.

Основная цель описанных выше преобразований заключалась в том, чтобы лучше имитировать структуру сходства и членство в градуированной категории, предполагаемые когнитивными моделями и отображаемые в данных категоризации человека. Этот тип структуры был центральной и организующей особенностью теории категоризации в целом и, как было обнаружено, широко применим к естественным категориям в целом, включая типы стимулов, к которым обычно применяются CNN. 59, 79, 88, 89 Однако в области классификации естественных изображений эмуляция такой структуры обычно не рассматривается как приоритетная. Скорее, приоритетность классификатора «наивысшая» точность достигается за счет привязки «наземной истины» или «жесткой» метки к каждому изображению, которое относит его к одной категории, без права неопределенности, что CNN должна изучить особенность. пространство, поддерживающее такие п-арная дискриминация. Этот выбор моделирования до сих пор был понятен - до недавнего времени перед классификаторами стояла задача просто правильно выбрать наиболее вероятную метку изображения. Только сейчас, когда точность CNN начинает асимптотически приближаться к производительности человека, второстепенные характеристики производительности CNN начинают подвергаться тщательному анализу - например, их плохое обобщение на изображения, не предназначенные для обучения и распространения, и их хрупкость. перед лицом враждебных атак. 118-122 Было широко признано, что для решения этих проблем модели классификации изображений должны иметь лучшую способность справляться с шумом, и одним из средств достижения этого является наделение их более совершенными моделями восприятия мира. Действительно, есть некоторые свидетельства того, что, когда участники обучаются маркировать стимулы отдельными категориями на основе характеристик стимула, а не делать прогнозные выводы об особенностях или строить генеративную модель данных, они с меньшей вероятностью узнают типы категорий. абстракции, которые, как считается, лежат в основе оцениваемых суждений о типичности. 56, 123, 124

A prime motive for trying to integrate cognitively motivated category structure back into CNN learning paradigms is, then, that it may help provide a solution to this new frontier of problems. Петерсон и другие. 125 attempted to do so indirectly by training a range of CNNs to predict the human categorization judgments (“human” or “soft” labels) from the CIFAR-10H dataset. They found that these CNNs performed significantly better on a number of out-of-sample natural image sets than CNNs trained on CIFAR-10, while scoring the same on the hard-label validation set (Fig. 8, left and center). As test images were drawn from increasingly out-of-sample datasets (i.e., decreasingly similar), the benefit from using human labels increased, indicating these networks were learning more perceptually relevant category distributions. This was also reflected in their higher second-best accuracy scores: whether their second-best guess for an image corresponded to humans (Fig. 8, right). The authors also subjected these networks to various forms of adversarial attack and found that CNNs trained with human labels were much more resilient. It appeared as though training with human labels endowed networks with more tolerance to noise and more graceful degradation: exactly the current aims of the computer vision community, and those properties originally sought by early artificial intelligence researchers. Finally, Peterson и другие. 125 showed that CNNs trained with human labels invariably performed better than alternative strategies, which either incorporate random label noise or train on convex combinations of image-label pairs. 126 This shows that the structure contained in human labels is helpful for classification beyond the regularization effects of adding training noise.

A second area where cognitive models have inspired successful computer vision models is in the context of few-shot, zero-shot, and semisupervised learning—all variants of image classification tasks in which CNNs are trained with a much smaller subset of the data than normal. These reductions in the size and coverage of the training set means stronger or more suitable inductive biases must be built into CNNs in order to prevent overfitting and make successful generalizations from fewer data. Here, the strategies that have been successful напрямую incorporate graded category structure into their training paradigm by using probabilistic constraints on a CNN's classification function, many of which come directly from the range of categorization models reviewed above.

In each episode of a few-shot learning task, a classifier must identify the label of a query image given a support set of image-label pairs. Within the support set, there are a fixed number of examples from a subset of possible categories, and the classification algorithm must construct categorical knowledge from this small number of examples in order to identify which category the query image belongs to. The number of “shots” refers to the number of training examples per category, and the “way” refers to the number of categories: for example, “one-shot five-way” means identifying which of five possible category labels best applies to the query image based on one labeled example from each category. 127, 128 By training over many of these episodes, a successful classification algorithm learns how to use the examples in the support sets to generalize categorical knowledge to the query example over many different combinations of images and categories.

In the prototypical networks (PNs) of Snell и другие., isotropic Gaussian category distributions with identity covariance matrices are used over final layer representations of CNNs in order to classify novel stimuli. 129 By representing categories in this manner, PNs reduce classification to the calculation of (Euclidean) distances between category prototypes, drawing on an equivalence between prototype models and Gaussian classifiers first described in Ref. 48 . PNs use a standard CNN to transform images into deep representations in the regular manner, such that the CNN weights are shared across support set members and episodes. The category prototype for each episode is the empirical average of labeled category in the support set, and the role of the CNN during training is to learn the best transformation to support prototype construction. Simply adapting the final-layer comparison in this way led to state-of-the-art performance on few-shot classification over the Omniglot character recognition task, 127 mini-ImageNet, 128 and even for zero-shot learning—in which only a vector of metadata is given about categories, with no examples—on the Caltech UCSD bird dataset. 130

Following the development of cognitive categorization models as increasingly complex strategies for probability density estimation, Scott и другие. were able to improve on PNs by using a wider range of distributions to model category structure, an approach they call stochastic prototype embeddings (SPE). 131 Each image was still used to generate a deep CNN representation that would be combined to model a prototype over each of the categories in the support set. However, Scott и другие. also learned an additional output representation for each image to model category variance, allowing for more flexible categories that followed axis-aligned ellipsoidal Gaussian distributions. They also altered the prototype embedding function to be stochastic, using a probabilistic model that incorporates a global noise distribution over latent prototypes. These two modifications allowed the CNN to learn embeddings that supported more accurate and robust distributions more likely to handle uncertainty arising from, for example, out-of-distribution inputs due to measurement noise and label uncertainty due to overlapping classes. For one-shot classification tasks in low-dimensional embedding spaces on Omniglot, the SPE model outperformed the deterministic PN and achieved state-of-the-art results. On the other hand, when five training examples were used in each episode instead, or in higher dimensions, the uncertainty over prototypes proved less important, and the models performed similarly. Their most impressive finding was in the context of data corruption. On an N -digit version of MNIST, 132 the SPE consistently performed better than a number of baselines, including PNs, when input images were randomly corrupted, validating the idea that SPEs learn categorical structures that are more robust to perceptual noise.

Аллен и другие. allowed for even more complex category structure with infinite mixture prototypes (IMP), which model each category as a (possibly infinite) mixture of Gaussian distributions. 133 The authors built this model based on two key insights from cognitive models of categorization: first, the idea that complex categories might be best represented by more than one cluster—an interpolation toward exemplar models had been previously explored in cognitive science 106, 107 and second, the idea that the number of category clusters should be free to grow as needed and the nonparametric Bayesian machinery to support it. 24, 49 Combining these insights led to a differentiable model for generating an arbitrary number of subprototypes for a given category, which could then be used for subsequent learning and classification tasks. For few-shot персонаж classification tasks in Omniglot, the IMP performed similarly to PNs and nearest neighbors.

The equivalence between these methods is unsurprising, as distributions over characters are likely to take some unimodal form well captured by a single prototype. However, as the classes being modeled became more complex, the IMP performed much better. On five-shot five-way tasks from mini-ImageNet, which is based on natural image categories that are likely to have more complex and multimodal structure, the IMP achieved state-of-the-art results. The IMP also performed extremely well on ten-way ten-shot alphabet recognition on Omniglot, around 25% better than PNs. This is again because alphabets of individual characters likely constitute complex distributions, with multiple modes corresponding to clusters of character types and styles. Аллен и другие. demonstrated that learning these more complex distributions was also beneficial for transfer learning. 133 They showed that when the IMP is trained on alphabet recognition tasks and tested on character recognition tasks from Omniglot, it outperforms a PN trained just on character recognition tasks. This is a significant result, because it implies something extra about individual characters has been learned by modeling their distribution within a specific alphabet, and that the вывод model can be responsible for capturing this—in this case by maintaining flexibility over clusters that can vary with the task instance at hand. Even more impressively, when particular characters are held out from training at the alphabet level, the IMP successfully generalized its knowledge to recognize them as part of the alphabet at test time, to a much greater extent than PNs. These positive transfer learning results were also found to hold for a tiered version of ImageNet, 134 where fine-grained and multimodal structure captured by the IMP from image distributions at the level of complex classes (i.e., when using supercategory labels) transferred well to image distributions under from lower-level category labels. In both cases, the PN trained on superclasses and tested on subclasses performs much worse. Because it uses a soft-clustering scheme that allows unlabeled examples to act as supports, Allen и другие. were able to apply the IMP to semisupervised versions of Omniglot and mini-ImageNet, in which only a subset of support images come with training labels, and in learning the unsupervised regime inferred clusters of Omniglot. In the semisupervised tasks, the IMP achieved state-of-the-art performance, and in the unsupervised task, it provided meaningful clusters of characters.

The above studies are an encouraging sign that integrating extra information from learners with pressures to learn generative and predictive visual categories into CNNs through training objectives and datasets is a promising route to strengthening their generalizability and robustness. When data are plentiful, in the context of normal image classification, adding this information indirectly—for example, in the form of augmented image labels—is likely to be the most valuable strategy, in order to best exploit the extremely flexible learning capacity of CNNs. When data are scarce, however, stronger inductive biases that can be directly incorporated into the classification function used by CNNs have led to better performance. Indeed, learning and making robust inferences from limited information is a hallmark of human cognition, 135 and so these are natural settings to consider integrating human-like constraints.


Limitation and Future Perspectives of Neuro-Glia Research on Psychology and Psychiatry

To explore the above-mentioned hypothesis, further translational research is needed. Several limitations should be made note of at the present stage. At first, rodent studies focusing on the unconscious are limiting. Even if the unconscious exists in rodents, it seems to be impossible to measure the unconscious in rodents devoid of human language capabilities. Therefore, to uncover the unconscious mechanisms, we have no alternative method except examining actual human subjects. We have no specific drugs to modulate glial cells utilized in human, and minocycline is reported to have other brain functions in addition to microglial inhibition (78, 79). On the other hand, some brain imaging techniques enable us to explore the unknown roles of glial cells such as DTI technique and PET imaging using the peripheral benzodiazepine receptor bindings, while the specificities of these imaging methods are not at satisfactory levels (80). On the other hand, we can reconsider previous findings of brain imaging experiments. Functional MRI (fMRI) is a brain imaging procedure measuring brain activity by detecting associated changes in blood flow (81, 82). Outcomes of fMRI have long been believed to monitor solely neuronal activities, because cerebral blood flow and neuronal activation have been thought to be almost equivalent. However, not only neuronal activities but also glial activities, especially astrocyte activities, rely on cerebral blood flow. Therefore, at least to some extent, brain activities expressed by fMRI may be showing a part of glial activation. In addition, MR spectroscopy (MRS) is one of the novel imaging approaches to measure dynamic brain functions focusing on metabolomics including glia-related molecules. For example, myo-inositol, which can be measured by MRS, is regarded as a marker of astrocyte activity (83). These imaging methods and combination of these imaging techniques may shed new light on clarifying unknown roles of glia in psychiatric disorders (84, 85). For example, activated microglia-derived myelin damage has been indicated in the pathophysiology of schizophrenia by rodent experimental models (28, 29, 86, 87), while it is not confirmed in human subjects. Combination of human DTI and PET may clarify the mutual interaction between microglial activation and myelin damage in schizophrenia patients. On the other hand, connectivity of each brain region has been important in the understanding of the roles of brain functions from the era of Hughlings Jackson. fMRI studies have revealed the importance of these aspects (88, 89), and the recent development of DTI is showing us the significance of more complicated brain networks focusing on not only neurons but also glial cells such as oligodendrocytes (90, 91).

Finally, we propose the multi-dimensional approach to clarify the underlying brain mechanisms of mental functions including the unconscious (Figure 2). Based on our discussion, we believe that not only neurons but also glial cells have a vital role in the process of mental activities, a novel approach focusing on neuron-glia interactions should be applied. Combination of brain imaging techniques focusing on both neurons and glial cells should be applied (24, 26, 27, 43�, 92�). The most significant limitation in human brain research is that we cannot obtain living brain cells, including glial cells, from living human subjects from an ethical perspective. Presently, we can apply an alternative method human brain cells such as neuronal cells can be established from somatic cells (not from the brain) such as skin fibroblasts by utilizing the gene-modification technique of induced pluripotent stem (iPS) cells. In addition, recently, neuronal cells are more easily established from directly conversion of human skin fibroblasts, called induced neuronal (iN) cells (95�). Novel methods of establishing glial cells are strongly warranted based on iPS or direct conversion techniques in the near future. Multi-dimensional aspects of same human subjects, from genes, blood, brain imaging, psychometrics, social function, unconscious functions, psychodynamic assessments to molecular functions of somatic tissue-derived neuronal and glial cells, should be investigated and analyzed together (Figure 2). This approach may explore the novel roles of glial cells in various human mental activities including the unconscious. The application of this method for psychiatric patients should also be encouraged in the establishment of novel diagnostic methods and novel therapies.

Figure 2. A novel multi-dimensional approach toward psychology & psychiatry.


Смотреть видео: Типы нейронных сетей и модель искусственного нейрона (January 2022).