Информация

Является ли отображение звуковых частот на вертикальной оси универсальным?

Является ли отображение звуковых частот на вертикальной оси универсальным?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Пронзительные ноты называются «высокими», а грохот - «низкими». Люди, кажется, метафорически отображают частоту на вертикальной оси, и в культурах, которые я знаю, высокая частота считается «вверх».

  • Это универсальное явление? Существуют ли культуры, которые отображают это в перевернутом виде или совершенно по-другому? (Например, более мелкие предметы имеют тенденцию воспроизводить более высокие высоты тона. Существуют ли какие-либо культуры, которые говорят, что высота тона «маленькая», а не «высокая»?)
  • Предшествует ли эта конвенция научному пониманию звуковых волн?
  • Если это универсально (или почти так), есть ли какие-то неврологические проводные соединения, которые могли бы вызвать такое отображение?

Люди технически не воспринимают частоты, они воспринимают высоту звука. Согласно Википедии:

идиома, связывающая вертикальную высоту с высотой звука, используется в большинстве языков.

цитируя статью Пратта 1930 года, в которой, в свою очередь, говорится, что:

Штумпф обнаружил, что прилагательные, означающие высокий и низкий (или слова, тесно связанные по значению), применялись к тонам почти во всех известных языках. [2] Но почему тона следует характеризовать как высокие или низкие? Относятся ли эти характеристики к различиям в пространственной высоте и глубине? Ответ на этот второй вопрос почти без исключения был отрицательным. Высокий тон не означает высокий космический тон. Фраза носит чисто образный характер и должна учитываться с точки зрения вторичных критериев, таких как, например, очевидная локализация высоких голосовых тонов в голове и низких - в груди. Композитор Берлиоз забавляется такими объяснениями и напоминает своим читателям, что высокие и низкие тона для пианиста лежат в горизонтальных направлениях вправо и влево и что скрипач должен тянуться вниз, чтобы воспроизводить высокие тона, и предлагает тем композиторам оперы, которые используют нисходящие проходы для человека, падающего с лестницы, тупо передали в тоны произвольный нисходящий характер напечатанных на нотном стане нот. И все же Штумпф, убежденный в том, что в тонах не может быть внутренней высоты и глубины, чувствовал себя обязанным доказать, что здесь снова сработал некий ассоциативный механизм, странно неясный и неуловимый. Даже Вундт был вынужден согласиться со Стампфом в том, что эти термины называются метафорическими применительно к тонам [3], и большинство психологов, которые задумывались над этим вопросом, выражали аналогичные взгляды [4].

[2]: C. Stumpf, Tonpsychologie, 1883, I, 192 и сл.

[3]: W. Wundt, Grundzüge der Physiologischen Psychologie, 1910, 11, 78.

[4]: Дж. Редфилд, Музыка: наука и искусство, 1928, 42 сл.

Все эти источники, увы, довольно устарели.

Однако есть несколько более новых статей по этому поводу; например Фернандес-Прието и др. (2017), которые квалифицируют такие утверждения, например:

Более высокие частоты и более громкие звуки связаны с более высокими позициями, тогда как более низкие частоты и более тихие звуки связаны с более низкими позициями. В английском языке «высокий» и «низкий» используются для обозначения высоты тона, громкости и пространственной вертикальности. Напротив, в каталонском и испанском языках предпочтительно используются разные слова для высоты звука (высокий: «agut / agudo»; низкий: «greu / grave») и для громкости / вертикальности (высокий: «alt / alto»; низкий: » baix / bajo "). Таким образом, английский и каталонский / испанский языки различаются пространственными значениями высоты звука. Чтобы проанализировать влияние языка на эти кроссмодальные ассоциации, было проведено задание, в котором говорящие на английском и испанском / каталонском языках должны были определить, был ли тон выше или ниже (по высоте или громкости), чем эталонный тон. Кнопки ответа были расположены в кросс-модальных конгруэнтных или неконгруэнтных позициях по отношению к зондирующему тону. Межмодальные соответствия наблюдались в обеих языковых группах. Однако англоговорящие показали большее влияние на высоту звука, что свидетельствует о влиянии лингвистического фона.

Они также цитируют более старую обзорную статью (Cassanto, 2013), в которой освещаются аналогичные исследования (в соавторстве с Кассанто) о голландском и фарси:

Как и в английском, голландский описывает высоту звука как «высокий» (hoog) или «низкий» (laag), но это не единственная возможная пространственная метафора для высоты звука. На фарси высокие частоты означают «тонкие» (назок), а низкие - «толстые» (колофт). Эти языковые различия отражают результаты говорящих на голландском и фарси при выполнении нелингвистических задач по воспроизведению звука (Dolscheid, Shayan, Majid, and Casasanto, 2013). Участников попросили воспроизвести высоту тона, которую они слышали в присутствии несущественной пространственной информации: линий, которые различались по своей высоте (задача интерференции высоты) или их толщине (задача интерференции толщины). Оценка звука говорящих на голландском языке показала более сильную межпространственную интерференцию от пространственной высоты, а говорящих на фарси - от толщины визуально представленных стимулов. Этот эффект не объяснялся различиями в точности или музыкальной подготовке. При обучении говорить о высотах с использованием метафор, подобных фарси (например, туба звучит толще, чем флейта) в течение 20-30 минут, выступление носителей голландского языка над задачей нелингвистической интерференции толщины стало неотличимо от выступлений носителей фарси. Опыт использования той или иной пространственной метафоры в языке может иметь причинное влияние на неязыковые представления высоты тона. […]

младенцы в возрасте четырех месяцев чувствительны к отображению высоты и шага у взрослых, говорящих по-голландски (но не у взрослых, говорящих на фарси), а также к отображению высоты и шага у взрослых, говорящих на фарси (но не у взрослых, говорящих на фарси). -говорящие взрослые; Dolscheid, Hunnius, Casasanto, and Majid 2012). Следовательно, нет необходимости утверждать, что использование лингвистических метафор заставляет людей строить эти отображения de novo.

В чем-то похожая статья о младенцах, возможно, с более сильными утверждениями, взята из Walker et al., 2010:

Стимуляция одной сенсорной модальности может вызвать перцептивные переживания в другой модальности, которые отражают синестетические соответствия между различными измерениями сенсорного опыта. В синестезии зрительно-слухового восприятия, например, более высокие звуки вызывают визуальные образы, которые ярче, меньше, выше в пространстве и резче, чем те, которые вызываются более низкими звуками. Утверждения, что неонатальное восприятие является синестетическим, подразумевают, что такие соответствия являются неизученным аспектом восприятия. На сегодняшний день самыми маленькими детьми, у которых такие соответствия были достоверно подтверждены, были от 2 до 3 лет. Мы исследовали предпочтительный поиск, чтобы оценить чувствительность довербальных младенцев в возрасте 3-4 месяцев к соответствиям, связывающим слуховой тон с зрительно-пространственной высотой и зрительной резкостью. Младенцы дольше смотрели на меняющееся зрительное изображение, когда это сопровождалось звуком, изменяющийся тон которого соответствовал, а не несовместим с этими соответствиями. На сегодняшний день это наиболее убедительное свидетельство того, что синестетические кросс-модальные соответствия являются неизученным аспектом восприятия.

Кассанто и его коллеги также разрабатывают теорию иерархических ментальных метафор (HMMT), согласно которой

корреляционные ментальные метафоры развиваются в два этапа, второй из которых может длиться на протяжении всей жизни. Ментальные метафоры, которые обычно используют взрослые, являются конкретными примерами более общих семейств отображений. Эти семьи могут проявляться в поведении с младенчества и отражать закономерности в опыте людей в физическом и социальном мире, многие из которых могут быть универсальными. По мере того как дети знакомятся со специфическими аспектами своего языка, культуры или даже собственного тела, определенные сопоставления из данной исходно-целевой семьи усиливаются за счет многократного использования, что, как следствие, ослабляет сопоставления «братьев и сестер». В результате люди склонны мыслить ментальными метафорами, специфичными для языка, культуры или тела: относительность возникает из универсалий. […]

Одно из предсказаний HMMT состоит в том, что определенные сопоставления источник-цель должны быть легко активированы с помощью лингвистического обучения, если они являются членами одного из семейств сопоставлений источник-цель, закодированных в нашем сознании (в филогенетическом или онтогенетическом времени) на основе наблюдаемые соответствия источника и цели в мире. Сопоставления, которые не являются членами до-лингвистически установленной семьи (и которые не отражают корреляции в нашем опыте), должно быть относительно сложно активировать с помощью обучения, потому что эти сопоставления необходимо создавать, а не просто укреплять.

В ходе проверки этого предсказания носители голландского языка были обучены использовать отображение толщины и шага, которое является обратным отображению на фарси и в естественном мире: тонкий = низкий, а толстый = высокий. Эти обученные «обратному фарси» участники прошли такую ​​же подготовку, как и участники, обученные использованию картографирования на фарси. В то время как обучение на фарси оказало значительное влияние на нелингвистические представления участников, обучение на обратном фарси не имело никакого эффекта (Dolscheid et al. 2013). Таким образом, краткий лингвистический опыт побудил участников использовать отображение толщины и шага, которое отражает корреляции между толщиной и шагом в мире (и очевидно у младенцев с доъязыком). Тем не менее, такое же количество лингвистического опыта не было эффективным при внедрении противоположного картирования толщины и шага, которое не имеет очевидных экспериментальных коррелятов и, следовательно, не прогнозируется, чтобы быть среди до лингвистически установленных сопоставлений пространства-шага.

Это относится к той же статье, что и первая цитата в предыдущей цитате. Как ни странно, этот эксперимент не резюмируется в аннотации к статье, но присутствует в ней (как Эксперимент 4). У Кассанто есть бесплатный PDF-файл с этой статьей.

В документе PNAS 2014 г., опубликованном Parise et al. предполагает, что метафора низкого-высокого тона имеет естественную основу в возвышении источников таких звуков в природе.


Что такое звуковой спектр?

Звуковой спектр отображает различные частоты, присутствующие в звуке.

Большинство звуков состоит из сложной смеси вибраций. (В документе «Как работают деревянные духовые инструменты» есть введение в звук и вибрации.) Если вы читаете это в Интернете, вы, вероятно, слышите звук вентилятора в своем компьютере, возможно, шум ветра снаружи, грохот транспорта - или, возможно, у вас играет какая-то музыка в фоновом режиме, и в этом случае есть смесь высоких и низких нот, а также некоторые звуки (например, удары барабанов и удары тарелок), которые не имеют четкой высоты тона.

А звуковой спектр представляет собой представление звука - обычно короткий фрагмент звука - с точки зрения количества вибрации на каждой отдельной частоте. Обычно он представлен в виде графика зависимости мощности или давления от частоты. Мощность или давление обычно измеряется в децибелах, а частота измеряется в колебаниях в секунду (или герцах, сокращенно Гц) или тысячах колебаний в секунду (килогерцы, сокращение кГц). Вы можете думать о звуковом спектре как о звуковом рецепте: возьмите это количество этой частоты, добавьте это количество этой частоты и т. Д., Пока вы не соберете весь сложный звук.

  • микрофон, измеряющий звуковое давление за определенный промежуток времени,
  • аналого-цифровой преобразователь, который преобразует это в серию чисел (представляющих напряжение микрофона) как функцию времени, и
  • компьютер, который вычисляет эти числа.

На этом рисунке два верхних рисунка представляют собой спектры, полученные за первые и последние 0,3 секунды звукового файла. Спектрограмма (нижний рисунок) показывает время по оси x, частоту по вертикальной оси и уровень звука (по шкале децибел) в ложном цвете (синий - слабый, красный - сильный). В спектрах наблюдайте гармоники, которые проявляются как компоненты, расположенные на одинаковом расстоянии (вертикальные линии). На спектрограмме гармоники отображаются в виде горизонтальных линий. В этом примере высота тона не меняется, поэтому частоты спектральных линий постоянны. Однако мощность каждой гармоники со временем увеличивается, поэтому звук становится громче. Высшие гармоники усиливаются сильнее, чем нижние, что делает тембр «медленнее» или ярче, а также делает его громче.

Спектры и гармоники

Если вы пробовали смотреть на спектр музыкальной ноты или если вы смотрели какой-либо из звуковых спектров на наших веб-страницах, то вы заметили, что они имеют лишь небольшое количество заметных компонентов на определенном наборе частот. Вот спектр звука для ноты G4, сыгранной на флейте (с нашего сайта по акустике флейты), что удобно, потому что высота этой ноты примерно соответствует частоте 400 Гц, которая является круглым числом для приблизительных расчетов.

Звуковой спектр флейты, играющей эту ноту, имеет серию пиков на частотах

400 Гц 800 Гц 1200 Гц 1600 Гц 2000 Гц 2400 Гц и т. Д., Что мы можем записать как:

где f = 400 Гц - фундаментальный частота колебаний воздуха в канавке, где n - целое число.

Этот ряд частот называется гармоническим рядом, музыкальное значение которого подробно обсуждается в «Науке музыки». Отдельные компоненты с частотами nf называются гармоники примечания.

Основная частота G4 - 400 Гц. Это означает, что воздух в канавке колеблется по схеме, повторяющейся 400 раз в секунду или каждые 1/400 секунды. Этот временной интервал - время, которое проходит до повторения вибрации, - называется период и обозначен символом T. Здесь частота f = 400 циклов в секунду (приблизительно) и период T = 1/400 секунды. Другими словами

где T - период в секундах, а f - частота в герцах. В акустике полезно отметить, что это уравнение также работает для частоты в кГц и периода в мс.

Если бы мы посмотрели на звук камертона G4, мы бы обнаружили, что он вибрирует (приблизительно) 400 раз в секунду. Его вибрация особенно проста - она ​​создает в воздухе гладкую синусоидальную волну, а ее спектр имеет только один существенный пик, примерно на 400 Гц. Вы знаете, что флейта и камертон звучат по-разному: они отличаются друг от друга в том, что у них другой характер вибрации и другой спектр. Итак, вернемся к спектру ноты флейты и гармоническому ряду. Это гармонический спектр, обладающий особым свойством, которое мы сейчас рассмотрим.

Рассмотрим гармоники ноты флейты на

Периоды, которые соответствуют этим спектральным компонентам, согласно приведенному выше уравнению:

Рассмотрим вторую гармонику с частотой 2f. В одном цикле основного колебания (который занимает время T) вторая гармоника имеет точно хватит времени на две вибрации. Третья гармоника имеет ровно время для трех колебаний, а n-я гармоника ровно для n колебаний. Таким образом, по истечении времени T все эти колебания «готовы» начаться снова, точно в такт. Отсюда следует, что любая комбинация колебаний, чьи частоты составлены из гармонических рядов (т.е. с f, 2f, 3f, 4f, .nf), будет повторяться точно через время T = 1 / f. Гармонический ряд особенный, потому что любая комбинация его колебаний вызывает периодические или повторяющиеся колебания на основной частоте f. Это показано в примере ниже.

Но пока мы оставим этот пример, давайте посмотрим между гармоники. В обоих приведенных выше примерах спектр представляет собой непрерывную ненулевую линию, поэтому акустическая мощность присутствует практически на всех частотах. В случае с флейтой это хриплый звук или звук ветра, который является важной частью характерного звука инструмента. В этих примерах эта широкополосная составляющая в спектре намного слабее гармонических составляющих. Ниже мы сконцентрируемся на гармонических составляющих, но также важны широкополосные составляющие.

Пример гармонического спектра: пилообразная волна

Первые шесть гармоник пилообразной волны звучали по одной.

Когда вы слышите сложный спектр, построенный по одной гармонике за раз, вы можете четко слышать отдельные «ноты» в «аккорде». Вы также можете услышать гармоники в длительной ноте. Однако, если вы слышите серию нот, каждая из которых содержит несколько гармоник, вы слышите каждую последующую ноту как единое целое, и гораздо труднее различать отдельные гармоники. Это продемонстрировано в примере ниже. Первая нота мелодии синтезируется последовательно с использованием гармоник из приведенного выше примера.

Последовательный синтез с использованием первых шести гармоник, затем мелодия с использованием этого спектра.

Спектр можно рассматривать как рецепт для создания всей формы волны: возьмите столько (1) частоты f, это много (a2) частоты 2f. плюс столько (Аап) частоты nf. и сложите их вместе. (Для звуковой волны вертикальная ось на всех этих графиках может быть звуковым давлением p.) (Если вы органист, вы знакомы с этим принципом. Добавление этих гармоник звучит очень похоже на соединение рядов органных труб. чтобы соединить 16 ', 8', 5,33 ', 4', 3,2 'и 2,67' флейт, а затем сыграть мелодию, вы получите почти такой же эффект.) В этом примере мы добавили все компоненты по фазе (начиная с ноль одновременно). Это особый случай, и, как правило, фазовая постоянная на каждой частоте также составляет часть спектра.

Только что показанный результат является (грубо говоря) одной стороной теоремы, доказанной французским математиком Фурье. Он показал, что это верно и в другом направлении: повторяющиеся колебания с основной частотой f всегда могут быть составлены из комбинации колебаний с частотами гармоник f, 2f, 3f, 4f,. нф).

  • Во-первых, мы показываем только спектры до 4 кГц для низких нот и 8 кГц для высоких. Следовательно, как только ноты доходят до верхней половины октавы флейты (C7 и выше), четвертая и более высокие гармоники уже зашкаливают.
  • Во-вторых, вы увидите некоторые «субгармоники» в нескольких нотах. Взгляните, например, на звуковой спектр ноты E6, сыгранной без механизма «split E». Сильный пик на частоте приблизительно 1320 Гц является фундаментальным для E6, и вы можете видеть сильные пики в 2, 3, 4 и 5 раз больше этой частоты. Все, как и ожидалось, но вы также заметите некоторые более слабые пики на 440 Гц и 880 Гц, соответствующие нотам A4 и A5.

Так почему бы нам не услышать эту ноту как A4 с особенно сильной 3-й гармоникой? Что ж, помните, что вертикальная шкала в децибелах. Две субгармоники на 41 и 45 дБ ниже составляющей на частоте 1320 Гц, поэтому субгармоники имеют менее 0,01% мощности основной гармоники. (Кроме того, когда частота падает ниже 1000 Гц, чувствительность человеческого уха существенно снижается с увеличением частоты в диапазоне ниже 1000 Гц, что также снижает вклад, который мы можем слышать от низкочастотных компонентов.)

Если вы посмотрите на спектр импеданса флейты для этой аппликатуры (особенно для флейты без механизма разделения E), вы поймете, почему: флейта имеет минимум импеданса на 440, 880, 1320 и нескольких других частотах, и поэтому это сложно. чтобы вложить акустическую энергию в флейту, не вызывая, по крайней мере, немного других этих вибраций. (Это создает и другие проблемы для флейтистов. См. Почему важен акустический импеданс?)

То же самое верно для нижнего регистра кларнета (регистр chalumeau), но не для более высоких регистров по причинам, связанным с тональными отверстиями. Это обсуждается в «акустике кларнета».

Наконец-то, важное предостережение. В вводных учебниках по физике иногда создается впечатление, что спектр является доминирующим вкладом в тембр инструмента и что определенные спектры характерны для определенных инструментов. За исключением упомянутых выше закрытых труб, это вводит в заблуждение. Можно сделать некоторые очень общие или расплывчатые комментарии о спектрах различных инструментов, но невозможно посмотреть на гармонический спектр и сказать, от какого инструмента он исходит. Кроме того, вполне возможно, что аналогичные спектры будут получены инструментами, которые не очень похожи по звучанию. Например, если взять ноту, сыгранную скрипкой, и отфильтровать ее так, чтобы ее спектр был идентичен заданному спектру трубы, играющей ту же ноту, то отфильтрованная нота скрипки все равно будет звучать как скрипка, а не как труба. .


Настоящая статья направлена ​​на выяснение концептуальной структуры эстетики литературы. Следуя «эстетике снизу» Фехнера (1876 г.) и применяя метод, предложенный Якобсеном, Бухтой, Колером и Шрегером (2004 г.), мы запросили 1544 немецкоязычных исследования участники должны перечислить прилагательные, которые они используют для обозначения эстетических аспектов литературы в целом и отдельных литературных форм и жанров в частности (романы, рассказы, стихи, пьесы, комедии). Согласно нашему анализу частоты, среднего ранга в списке и индекса когнитивной значимости, красивая а также тревожный самый высокий рейтинг по всем целевым категориям. Для пьес / комедий, смешной а также грустный оказались наиболее актуальными терминами для романов и рассказовтревожный, интересно а также романтичный и для поэзии романтичный, а также термины, связанные с музыкой гармоничный, ритмичный, а также мелодичный. Сравнение наших результатов с аналогичными исследованиями визуальной эстетики и музыки дало исчерпывающую карту распределения аспектов эстетической привлекательности по сенсорным модальностям и эстетическим областям, причем поэзия и музыка демонстрируют наибольшее совпадение.

Кристин А. Кноп является старшим научным сотрудником Института эмпирической эстетики Макса Планка (MPIAE) во Франкфурте. Она имеет докторскую степень. получил степень бакалавра сравнительной литературы в Университетском колледже Лондона, а также преподавал и проводил исследования в UCL и Freie Universität Berlin до присоединения к MPIAE. Ее основные исследовательские интересы включают экспериментальные подходы к литературной эстетике, эстетической эмоции и авторским теориям.

Валентин Вагнер является старшим научным сотрудником Института эмпирической эстетики Макса Планка во Франкфурте. Он имеет докторскую степень. Кандидат психологических наук (Лейпцигский университет, Германия) работал в области языковой психологии, эмоциональной психологии и эмпирической эстетики.

Томас Якобсен является профессором экспериментальной и биологической психологии в Университете Гельмута-Шмидта / UniBw в Гамбурге. Он получил степень в области психологии (диплом-психология) в Свободном университете Берлина в 1994 году. Он был приглашенным исследователем когнитивной нейробиологии в Калифорнийском университете в США и докторантским исследователем в MPI когнитивной нейробиологии. Он получил докторскую степень по психологии в 2000 году в Лейпцигском университете. Там он стал доцентом, а после получения докторской степени в 2004 году - доцентом. Он был приглашенным профессором Венского университета и Свободного университета Берлина. В 2009 году он занял свою нынешнюю должность профессора психологии в Гамбурге.


Обсуждение

В повседневном восприятии мы сталкиваемся с проблемой объединения нескольких и часто несовместимых сигналов. Одним из ярких примеров является интеграция неконгруэнтных звуковых сигналов высоты звука с размером и пространственным расположением, при этом высокий тон отображается на «больше» для пространственного возвышения, но на «меньше» для массы и размера (Eitan & amp Timmers, 2010). Здесь мы исследовали, как высота голоса (пониженная или повышенная), пространственное расположение источника звука (высокое или низкое, левое и правое) и пространственное расположение слушателя (высота головы) взаимодействуют, чтобы повлиять на оценку размера. Вместо того, чтобы использовать тональную высоту, мы манипулировали высотой голоса мужчин и женщин и использовали экологически значимую задачу по оценке размеров тела.

Резюме результатов

Эксперимент 1 показал, что независимо от пола голоса слушатели ассоциировали вертикально низкие пространственные положения с физическим размером, когда оценивали голоса, которые были понижены по высоте, но не оценивали те же самые голоса, которые были повышены по высоте. Напротив, слушатели ассоциировали горизонтальное правое пространственное положение с большой величиной для всех голосов, как пониженных, так и повышенных (рис. 2). Эти результаты показывают, что более низкие голоса, звучащие низко и близко к Земле, воспринимались как принадлежащие более крупным людям. Это соответствие между низким и большим возникло, несмотря на априорную вероятность для людей (в отличие от нечеловеческих объектов, см. Parise et al., 2014), что голос более крупного человека будет всегда проекция из относительно более высокого места, чем у меньшего человека, когда два человека стоят. Сноска 2

Этот ключевой результат был воспроизведен в эксперименте 2, в котором другая группа участников выполняла аналогичную задачу сидя (как в опыте 1) или стоя. Здесь, независимо от пола голоса и независимо от высоты головы слушателя по отношению к источнику звука, слушатели снова ассоциировали вертикально низкие пространственные реплики с крупностью больше для низких, чем для голосов с повышенным тоном (рис. 3). Таким образом, частотно-высотное отображение, в частности, для человеческих голосов, по-видимому, не следует из наблюдения статистических закономерностей, связывающих низкочастотные звуки с объектами, расположенными близко к Земле, как это часто бывает с неголосыми звуками (Parise et al., 2014) .

Результаты эксперимента 2 также показали, что слушатели ассоциировали горизонтально правое пространственное положение с большой шириной больше для низких, чем для высоких голосов. Этот эффект был обнаружен как для мужских, так и для женских голосов, и когда слушатели сидели и стояли. Однако эксперимент 2 показал, что подъем головы может повлиять на некоторые аспекты оценки размера. Только стоя слушатели оценивали мужские голоса как более сильные, чем женские, когда голоса проецировались из низкого пространственного положения. Маловероятно, что это было связано с тем фактом, что голоса мужчин обычно ниже, чем голоса женщин, поскольку мы тогда ожидали увидеть этот эффект в эксперименте 1 и когда участники сидели. Мы предполагаем, что, возможно, здесь играют роль социальные конструкции более высокого уровня (например, описанные Carney et al., 2010 Fessler & amp Holbrook, 2013). Эксперимент 2 также выявил более сильную связь между правыми пространственными сигналами и громкостью для голоса с пониженным тоном, чем для голоса с повышенным тоном, когда слушатели стояли, а не сидели (рис. 3).

Интерпретация и последствия

Наши результаты основаны на классическом эффекте Пратта (Pratt, 1930), демонстрируя, что высота тона влияет на восприятие высоты по вертикали не только в задаче прямой локализации звука (например, Bregman & Steiger, 1980 Morimoto & amp Aokata, 1984 Roffler & amp Butler, 1968 Trimble, 1934). ), но также и в косвенной пространственной задаче, включающей оценку размера. Наши результаты показывают, что кросс-модальное соответствие между низкий шаг а также размах относительно сильнее, чем несовместимое соответствие между низкое пространственное расположение а также малость. Хотя связь низкого тона с низким пространством может привести к ошибкам в оценке размера тела (люди с низким голосом, как правило, выше, чем люди с высоким голосом, и не говорят, склонив голову к земле), наше исследование не показало. обязательно опровергнуть гипотезу о том, что отображение частоты и высоты является функционально адаптивным в более широком контексте (Parise, Knorre, & amp Ernst, 2014 Stumpf, 1883 Walker et al., 2010). Действительно, отображение высоких звуков в высоких пространственных точках может быть настроено на статистику естественных слуховых сцен (см. Parise et al., 2014). Таким образом, отображение частот-возвышений в целом является адаптивным, хотя оно и бесполезно при оценке размеров человеческого тела.

Наше исследование было первым исследованием, в котором проверялось смещение влево-вправо в восприятии размера и потенциальное взаимодействие между горизонтальными пространственными сигналами и высотой звука при оценке размера. Слушатели постоянно ассоциировали правое с большим размером, и в эксперименте 2 эта ассоциация была наиболее сильной для голосов с низким тоном. Горизонтальные оценки размера могут отражать семантическое или числовое кодирование. Например, большое количество людей связано с ответами вправо при выполнении различных когнитивных задач (Campbell & amp Scheepers, 2015 Dehaene et al., 1993 Dehaene et al., 2015 Shaki et al., 2009 Wood et al., 2008). Однако взаимодействие между подъемом головы (стоя или сидя) и манипулированием высотой голоса, наблюдаемое в эксперименте 2, предполагает, что наши результаты не являются результатом простого числового отображения. В самом деле, нет никакого априорного предсказания того, что числовой порядок по-разному повлияет на суждения о размерах, когда люди сидят или стоят, или для оценок пониженного или повышенного голоса. Более того, участники использовали цифровую клавиатуру, чтобы указать размер тела, на котором цифры не были ни возрастающими, ни убывающими по величине, а были расположены в порядке 7–8–9 (верхний ряд), 4–5–6 (центральный ряд), и 1–2–3 (нижний ряд). Если бы наши экспериментальные результаты были связаны только с числовым отображением, мы также ожидали бы, что звуки из нижнего динамика будут оцениваться ниже, чем звуки из верхнего динамика, поскольку наименьшие числа были наименьшими на клавиатуре, а наибольшие числа были наибольшими на клавиатуре. клавиатура. Этого не произошло. Следовательно, еще одна интересная возможность состоит в том, что соответствие между правом и большим полушарием отражает специализацию полушария, которая развивается с опытом. Это подтверждается свидетельствами обратных горизонтальных предубеждений у людей из культур, которые читают справа налево (Maass & amp Russo, 2003), и у пианистов (Stewart et al., 2004).

В эксперименте 2 участники выполняли задание по оценке размера сидя или стоя. Это внесло асимметрию в пространственную парадигму, которая позволила нам протестировать взаимодействие между горизонтальными и вертикальными смещениями слушателей (когда мы стоим, голоса, проецируемые из места расположения громкоговорителя с высоким звуком, теперь были ближе к голове слушателя, чем голоса, проецируемые из низкого звука. оратор). Мы также смогли изучить вклад самореференциальных сигналов возвышения в оценки слушателями размеров тела. Мы обнаружили, что эта асимметрия не влияла на оценку размеров слушателей в вертикальной плоскости. Таким образом, результаты эксперимента 2 демонстрируют, что взаимодействие между низким тоном и малым возвышением в восприятии размера является устойчивым и не зависит от подъема головы слушателя или относительной степени пространственного уменьшения. Карневейл и Харрис (2016) аналогичным образом не обнаружили влияния слуховых пространственных сигналов, основанных на высоте звука, на восприятие людьми вертикальной ориентации, когда они лежат, а не сидят. Мы утверждаем, что нечувствительность кросс-модальных соответствий высоты тона к изменениям положения головы свидетельствует о том, что вертикальное соответствие включает некоторую степень когнитивной обработки более высокого уровня, и поддерживает общую повсеместность соответствий шаг – размер и частота – высота (Parise, 2016). Напротив, взаимодействие низкого тона и правого пространственного положения при оценке размера было сильнее в положении стоя, чем в положении сидя. Когда участники стояли, а не сидели, голоса, проецируемые справа, исходили из низкого пространственного положения относительно головы участника (то есть справа и низко, а не только справа). Thus, when standing, the perceptual biases linking low pitch to both low and rightward spatial locations may have additively combined to exaggerate listeners’ size estimates along the horizontal plane. The independent “low is large” and “right is large” biases observed in our study may therefore have an addictive effect on size perception that is similar to the orthogonal (stimulus–response compatibility Cho & Proctor, 2003) effects in spatial location tasks.

The results of Experiment 2 also showed stronger associations between low elevation and large size for assessments of men’s than of women’s voices however, this only occurred when raters were standing. Although listeners may associate vertically low spatial cues with physical largeness more for men’s than for women’s voices because men’s voices are almost twice as low in pitch (Titze, 1989)—and may be more readily associated with dominance and masculinity, which often map onto perceptions of body size (Pisanski, Mishra, & Rendall, 2012)—this cannot explain why this association was only present when participants were standing. One possibility is that standing introduces an added social dimension to body size estimation—for instance, related to dominance. Indeed, Fessler and Holbrook (2013) showed that visual estimates of men’s body size are also sensitive to the body position of the rater (i.e., men are visually assessed as taller by raters who are strapped to a chair).

In both Experiments 1 and 2, experimentally lowering voice pitch affected size estimates more than did raising pitch, indicating an asymmetry in pitch–size correspondences. Past studies had also reported strong perceptual associations between low pitch and low elevation, but weak or no associations between high pitch and high elevation (Eitan & Granot, 2006 Eitan & Timmers, 2010). This provides additional support in refutation of the directional symmetry hypothesis (Eitan & Granot, 2006), and suggests that low frequencies may elicit stronger crossmodal correspondences than do high frequencies. This pitch asymmetry also suggests that our findings cannot be explained by low-level interactions (e.g., that low-pitched sounds transmit better from lower than from higher space Morton, 1977).

Limitations and future directions

When using manipulated vocal stimuli, most studies, including the present study, have asked participants to assess the body size of speakers on “largeness,” without biasing listeners to focus on either height or weight (e.g., Charlton et al., 2013 Rendall et al., 2007). This is of course also the case for studies examining pitch–size mapping more broadly—for instance, between tones and inanimate objects (Parise, 2016, for a review), for which a height/weight distinction is less sensible. Measuring assessments of largeness rather than of height or weight allows for comparisons between these two literatures however, it also poses the possibility that the different participants in our study relied on different markers of size (e.g., height, weight, or a combination of the two) to gauge the largeness of speakers. Although this possibility cannot explain our findings, which were based on within-participant variation in size judgments across conditions, future studies may examine whether the reported effects of voice pitch and spatial location on body size perception are magnified when participants are specifically instructed to estimate a person’s physical height (i.e., a direct verticality judgment).

Among humans and many other mammals, body size is more reliably communicated by vocal-tract resonances (formant frequencies) than by voice pitch (Pisanski, Fraccaro, Tigue, O’Connor, Röder, et al., 2014). Previous work has shown that both low pitch and low formants are independently associated with perceptions of large size, but that they also interact in complex ways that affect size estimation (Feinberg, Jones, DeBruine, O’Connor, Tigue, & Borak, 2011 Pisanski, Fraccaro, Tigue, O’Connor, & Feinberg, 2014 Smith & Patterson, 2005). For instance, although pitch is only weakly related to body size among same-sex adults, low voice pitch increases the spectral density of a vocal signal and the saliency of formant frequencies, making it easier for listeners to estimate body size (Charlton et al., 2013 Pisanski et al., 2014). Future work may examine whether formant frequencies and voice pitch elicit similar frequency–elevation mappings, and whether spatial cues affect formant-based size estimation.

We did not record the musical training of participants. Although it is unclear how musical training might affect the mapping of pitch and spatial cues in the estimation of physical size, musical expertise is known to affect the spatial mapping of pitch along both the vertical and horizontal axes (see Lega, Cattaneo, Merabet, Vecchi, & Cucchi, 2014). Future studies may therefore test whether musical experience affects pitch and/or spatial cues to body size. Studies could also test whether there are differences between musicians who play instruments for which left is low (such as the piano and guitar) versus instruments for which left is high (such as the flute and French horn). Similarly, for the vertical axis, differences may emerge between musicians who play the sitar and contrabass, for whom low frequencies are played by fingering at higher elevations, and musicians who play the clarinet or saxophone, for whom low frequencies are played by fingering at lower elevations. Replication studies may also include additional measures, such as reaction time analyses, handedness analysis, and brain imaging, that could allow for a more comprehensive understanding of the mechanisms driving pitch–size–space correspondences.


ОРИГИНАЛЬНАЯ ИССЛЕДОВАТЕЛЬСКАЯ статья

Lluis L. Trulla 1 , Nicola Di Stefano 2* and Alessandro Giuliani 3
  • 1 Centre de Recerca Puig Rodó, Girona, Spain
  • 2 Institute of Philosophy of Scientific and Technological Practice and Laboratory of Developmental Neuroscience, Università Campus Bio-Medico di Roma, Rome, Italy
  • 3 Environment and Health Department, National Institute of Health, Rome, Italy

In sixth century BC, Pythagoras discovered the mathematical foundation of musical consonance and dissonance. When auditory frequencies in small-integer ratios are combined, the result is a harmonious perception. In contrast, most frequency combinations result in audible, off-centered by-products labeled �ting” or “roughness” these are reported by most listeners to sound dissonant. In this paper, we consider second-order beats, a kind of beating recognized as a product of neural processing, and demonstrate that the data-driven approach of Recurrence Quantification Analysis (RQA) allows for the reconstruction of the order in which interval ratios are ranked in music theory and harmony. We take advantage of computer-generated sounds containing all intervals over the span of an octave. To visualize second-order beats, we use a glissando from the unison to the octave. This procedure produces a profile of recurrence values that correspond to subsequent epochs along the original signal. We find that the higher recurrence peaks exactly match the epochs corresponding to just intonation frequency ratios. This result indicates a link between consonance and the dynamical features of the signal. Our findings integrate a new element into the existing theoretical models of consonance, thus providing a computational account of consonance in terms of dynamical systems theory. Finally, as it considers general features of acoustic signals, the present approach demonstrates a universal aspect of consonance and dissonance perception and provides a simple mathematical tool that could serve as a common framework for further neuro-psychological and music theory research.


Author response

First, rather than using data from the full range of stimulated frequencies for calculating gradients, the lowest two frequencies are subtracted from the highest, and the signed difference is plotted. On visual comparison of the full dataset (Рисунок 1, bottom Рисунок 3) and high–low contrast maps (Figures 1 and 2, top), the latter appear to differ in the position/extent of the higher–frequency AM regions. For instance, the medial 'high' AM rate patch in M1 and M2 in the high minus low map has a more anterior center of gravity than in the 6–frequency map (which includes all of the data). This is particular pronounced in M1, where it considerably more anterior and lateral in the left hemisphere.

We appreciate the specific interest in the “best rate/frequency” maps, and the gradient calculations that are derived from this method of representation. These maps provide additional, and to some degree complementary, information on the local preference to the mapped stimulus features compared to contrast maps. Furthermore, the “best frequency” approach is common in previous literature, and is the best approach to demonstrate tonotopic mapping in neurons with narrow tuning similar to that in the ascending pathway. For these reasons we provided both types of maps in the previously submitted version of the article and we are happy to provide an additional gradient analysis for the best frequency/rate approach in the current manuscript. As we highlighted in the modified text of the manuscript (last paragraph in the Results section), the results of this additional analysis generally agrees with the previous analysis based on contrast maps (see also Supplementary file 1).

However, we feel it is important to counter the impression that the best frequency/rate approach is more precise or more accurate than the contrast approach. In fact, our own experience, supported by increasing evidence from independent studies, suggests the opposite when the response of neuronal mass activity is mapped as in the case of the BOLD effect. Data from tonotopy studies show that at the level of MRI voxels containing 100,000 neurons the tuning curve is relatively broad and the peak response difference for distinct frequencies, particularly in the area of the middle frequencies, is small while the differences in the slopes of the tuning curves in more extreme frequency values is preserved (see also Langers et al., 2014). The reason for this effect is probably the heterogeneity of local frequency tuning of neighbouring neurons, which is particularly pronounced in middle frequencies (see Aschauer et al., 2014 for work in rodent: although a different species the basic phenomenon of tonotopic mapping is remarkably preserved across mammalian species and a similar organisation would explain data such as those of Langers). In the previously submitted iteration of this manuscript to электронная жизнь we have shown that the response to amplitude modulation rate shows similarly broad tuning curves. Thus, the contrast maps for frequency and amplitude modulation rate are more robust and show less inter-individual variability than the best frequency responses.

In the case of the gradient analysis the best frequency/rate approach has a further disadvantage. While the contrast response provides a continuous distribution of preference values, the best frequency/rate maps only contain six discreet values. Hence, a regression analysis is inherently less precise, particularly in areas, such as the belt, where the response is dominated by a single frequency/rate. This leads to lower correlation and less significance of the individual gradients and higher variability across subjects. For these reasons we decided to provide the results for the best frequency/rate gradient analysis in Supplementary file 1 and not in the main section of the manuscript. However, the main gradients for A1 are displayed on the best frequency/rate maps in Figures 1 and 2 similar to the gradients for the contrast maps.

Additionally, we added the following text to the end of the Results part

“Due to their sparse, non-parametric nature, the best rate/frequency maps are less suited for gradient analysis. Furthermore, in some belt fields that feature a single best frequency, no gradient can be specified. However, for comparison, we provided a respective gradient analysis of the best rate/frequency for the fields with a defined gradient in Supplementary file 1 and the gradients for A1 are highlighted on the respective maps in Figure 1 and Figure 2. In most cases, the calculated gradient directions in core areas differ little from the analysis based on the contrast maps. The resulting relative angles are also similar with means closer to 110° in core areas (108.5 ± 42.1° for A1, 112.0 ± 55.1° for R). However, the correlation values (r2), p values and the variance across animals and hemispheres are clearly worse, which can be attributed to the sparse nature of the data. This is particularly true for the posterior belt field CL.”

Second, the single illustrated gradient direction is strongly contingent upon the definition of the auditory field boundaries. The boundaries are based entirely on borders derived from a combination of the high–low tonotopy contrast maps with an a priori model of auditory field subdivisions based on the Hackett summary schematic. In looking at the figures, I suspect even slight changes to the shape and size of the borders would change the direction quite a lot. Also, it is not clear that the mean gradient is necessarily reflective of the local one if the isofrequency lines are highly curved, which they seem to be in several cases.

The main message we convey in this article is the discovery of a systematic, concentric organisation of amplitude modulation rate and its relationship to the previously identified tonotopy gradient. This finding is most obvious from the repeated pattern across two hemispheres and three animals in the maps provided in Figures 1 and 2. However, this finding is difficult to quantify as a whole. Thus we decided to test the general pattern and its relationship to tonotopy in generally accepted auditory fields for which the suggested scheme provides precise, testable hypotheses.

We believe that the applied method to define the borders of these widely accepted auditory fields is the best that is currently available. We apologise for not updating our methods paper describing the technique in macaques that is now published (Joly et al., 2014 Frontiers in Neuroscience): the areal mapping distinguishes core and belt based on T1/T2 ratio. While we do not deny that the definition of the borders has some influence on the precise direction of the gradients in these fields, such a change would have no influence on the gradual representation of decreasing amplitude modulation rate as you move away from A1 (the most striking finding in this study) nor its general relationship to the tonotopy gradient.

In the Introduction section:orthogonal topographical maps.'Orthogonal' is quite strong, 'non–parallel' or non–aligned would be more accurate I think.

We have qualified the description in the manuscript (e.g. “approximately orthogonal”). However, we prefer orthogonal to non-parallel or non-aligned because: 1) it not only refers to a directional relationship but also to the idea that this process maps distinct stimulus dimensions irrespective of the exact relative gradient direction, and 2) non-parallel or non-aligned could mean anything but parallel (e.g. could refer to both a ten degree and a five degree relative angle), and is thus not very helpful in describing the finding. While we admit that the identified gradients in the core areas are not precisely perpendicular, this could neither be expected in a biological sample nor would it be necessary to be functionally relevant.

Incidentally, the expression in the Introduction section that the reviewer highlighted is a direct citation that refers to two previous articles.

In the Introduction it is strange (to say the least) not to cite the two published human fMRI studies that have tested amplitude modulation mapping (e.g., Barton et al., and Herdener et al.), especially when the following statement is made at the end of the second paragraph in the Introduction section:However, as in humans, no clear topographical organisation of modulation rate across different auditory fields has been demonstrated in non–human primates.”

We agree and thank the reviewer for improving the balance of our exposition. We now also include citations to the two mentioned studies in the Introduction, in addition to the subsequent text as previously: “While earlier fMRI studies in humans (Giraud et al., 2000 Schonwiesner and Zatorre, 2009 Overath et al., 2012) reported robust responses to a range of amplitude modulated sounds, but no systematic organisation of rate, two more recent studies suggested an orthogonal relationship of frequency and rate in areas homologue to non-human primate auditory core (Herdener et al., 2013) and beyond (Barton et al., 2012). Electrophysiology studies in non-human primates have shown tuning of individual neurons to different modulation rates and suggest a tendency for neurons in primary fields to prefer faster rates than neurons in field higher up the hierarchy (Bieser and Muller-Preuss, 1996 Liang et al., 2002): see also (Joris et al., 2004). However, no clear topographical organisation of modulation rate across different auditory fields has been demonstrated in non-human primates.”

In the beginning of the Results section: Until later in the paper, it is unclear how auditory field borders are being identified. Even then it is unclear how A1/R/RT are defined given the multiple frequency reversals and bands evident in the more complete frequency maps from the 'phase–encoded' experiment.

At this point, it was intended to refer to a methods paper (Joly et al., 2014) that was about to appear at the time of the resubmission. We failed to update the manuscript when the paper with a detailed description of the applied procedure was published just before the resubmission. A brief description of the adaption of the previous procedure and the respective reference are now included in the revised version in the Results and in the Methods.

Also in the beginning of the Results section:This directional change of the frequency gradient axis across the core fields, which is often overlooked, is of particular relevance for the relationship of temporal and spectral gradients in these fields (see Discussion).I found this section here and above difficult to follow because it heavily relies on co–reading the Baumann et al. review paper in Frontiers.

We agree that the organisational features that are highlighted in this paragraph are difficult to appreciate without referring to recent findings that are summarised in Baumann et al. (2013). A considerable number of recent high resolution imaging studies that describe tonotopic maps in human and non-human primates provide a more complete but also a more complex view of the tonotopic organisation in primates than previous schemes. In the previous version of the manuscript, we provided a summary of these results in a schematic representation in Figure 4 to avoid the necessity to consult the mentioned review and other cited literature but for validation of provided schemata. By slightly rearranging the paragraph and by highlighting the schemata in Figure 4 at the beginning we hope to improve the structure of this paragraph.

General methods: the AM rates span a very wide range, including ones (128 and 512Hz) that might induce pitch percepts (Burns and Viemeister, 1981, and others). The authors might want to discuss this possibility and how their results would or would not square with this interpretation. My feeling—particularly given the lack of apparent selectivity for 512Hz AM and the often smooth progression of isofrequency contours from 128Hz to 32Hz to 8 Hz—is that it is having a minimal effect if any, but other readers may have a different opinion.

It is true that stimuli with periodicities above about 30 Hz onwards are the pitch range of humans as well as of macaques as we recently showed behaviourally (Joly et al., 2014 Frontiers in Perception Science). However, the AM stimuli with noise carrier that we used in this study only elicit a very weak pitch percept. Furthermore, we are currently preparing a manuscript that is describing the response to more salient pitch stimuli with similar rates in the auditory cortex of macaques. Interestingly, the response pattern is considerably different in that case, providing further evidence that the pattern described here is not due to pitch. The response to periodic stimuli with rates above the lower limit of pitch (∼30 HZ) occurs in a region abutting but outside of A1 (see also Griffiths and Hall, J Neurosci, 2012 for case of regular interval noise—we have examined harmonic stimuli since), which is a different pattern to the one here where high rates are represented within A1.

We are not asking you for new experiments to comply, but wish you to see it for your own edification.

In my opinion, the weakest part of the paper is the discussion about the implications of the study. It would have been of great value to test the bold signal with some complex sounds, in particular monkey vocalizations. This is because the main hypothesis here is the existence of a functional map that represents periodic information that might be useful to preserve relevant behavioral cues. Even when mapping requires well controlled unidimensional variables, as in this paper, amplitude modulation rate might not necessarily be a mechanism for vocal communication. A proof of this is the fact that this cortical map was found without using complex sounds.”

We completely agree that the processing of amplitude modulation is highly relevant for animal vocalisations and human speech, as has been highlighted a several behavioural studies. However, at the current stage, the purpose of this study was simply to test whether this temporal dimension is represented in a systematic topographical organisation in the monkey auditory cortex. However, we do not deny that the results presented here could be further used in various ways to look into the interaction of this representation with behavioural results from monkey vocalisations.


Дополнительные ресурсы

  • Medicare Payment for Outpatient Audiology and Speech-Language Pathology Services
  • National Correct Coding Initiative (NCCI) for Audiology and Speech-Language Pathology Services (CCI Edits and Medically Unlikely Edits)
  • Medicare Part B Claims Checklist
  • Medicare FAQs for Audiologists (ABNs, Incident-to billing)
  • CMS: Audiology Services
  • CMS: Medicare Learning Network - Audiology Policies [PDF]

Intuitive visualizations of pitch and loudness in speech

Visualizing acoustic features of speech has proven helpful in speech therapy however, it is as yet unclear how to create intuitive and fitting visualizations. To better understand the mappings from speech sound aspects to visual space, a large web-based experiment (п = 249) was performed to evaluate spatial parameters that may optimally represent pitch and loudness of speech. To this end, five novel animated visualizations were developed and presented in pairwise comparisons, together with a static visualization. Pitch and loudness of speech were each mapped onto either the vertical (у-axis) or the size (z-axis) dimension, or combined (with size indicating loudness and vertical position indicating pitch height) and visualized as an animation along the horizontal dimension (Икс-axis) over time. The results indicated that firstly, there is a general preference towards the use of the у-axis for both pitch and loudness, with pitch ranking higher than loudness in terms of fit. Secondly, the data suggest that representing both pitch and loudness combined in a single visualization is preferred over visualization in only one dimension. Наконец, z-axis, although not preferred, was evaluated as corresponding better to loudness than to pitch. This relation between sound and visual space has not been reported previously for speech sounds, and elaborates earlier findings on musical material. In addition to elucidating more general mappings between auditory and visual modalities, the findings provide us with a method of visualizing speech that may be helpful in clinical applications such as computerized speech therapy, or other feedback-based learning paradigms.


  1. J. Woodhouse, D. Politzer, H. Mansour : Acoustics of the banjo: measurements and sound synthesis. Acta Acustica 5, 15 (2021). https://doi.org/10.1051/aacus/2021009[EDP Sciences][Google Scholar]
  2. Deering Banjo Company . [Online] Available at: https://www.deeringbanjos.com/ [Accessed: Dec 29 2020]. [Google Scholar]
  3. Martin Woodhouse Guitars . [Online] Available at: http://www.woodhouse-guitars.co.uk/ [Accessed: Dec 29 2020]. [Google Scholar]
  4. Euphonics : The science of musical instruments. [Online] Available at: https://euphonics.org/ [Accessed: Dec 29 2020]. [Google Scholar]
  5. E. Durup, E.V. Jansson : The quest of the violin bridge-hill. Acta Acustica United with Acustica 91, 2 (2005) 206–213. [Google Scholar]
  6. E. Jansson, B. Niewczyk : On the acoustics of the violin: Bridge hill or body hill? Journal of the Catgut Acoustical Society 3, 7 (1999) 23–27. [Google Scholar]
  7. J. Woodhouse : On the “bridge hill” of the violin. Acta Acustica United with Acustica 91, 1 (2005) 155–165. [Google Scholar]
  8. G. Weinreich , in: Mechanics of musical instruments. Hirschberg A., Kergomard J., Weinreich G. , Editors. New York: Springer-Verlag, 1995, pp. 79–114. [Google Scholar]
  9. A. Chaigne, J. Kergomard : Acoustics of musical instruments. Springer Verlag, New York, 2013. [Google Scholar]
  10. J.W.S. Rayleigh : The theory of sound . Macmillan and Co., London, 1877. [Google Scholar]
  11. C.H. Hodges, J. Woodhouse : Theories of noise and vibration transmission in complex structures. Reports on Progress in Physics 49, 2 (1986) 107–170. [Google Scholar]
  12. R.H. Lyon, R.G. DeJong : Theory and application of statistical energy analysis, 2nd ed. Butterworth-Heinemann, Boston, 1995. [Google Scholar]
  13. ВЕЧЕРА. Morse, K.U. Ingard : Theoretical acoustics. Princeton University Press, Princeton, NJ, 1986. [Google Scholar]
  14. E. Skudrzyk : The mean-value method of predicting the dynamic-response of complex vibrators. Journal of the Acoustical Society of America 67, 4 (1980) 1105–1135. [Google Scholar]
  15. B. Elie, F. Gautier, B. David : Macro parameters describing the mechanical behavior of classical guitars. Journal of the Acoustical Society of America 132 (2012) 4013–4024. [Google Scholar]
  16. J. Woodhouse, R.S. Langley : Interpreting the input admittance of violins and guitars. Acta Acustica United with Acustica 98, 4 (2012) 611–628. [Google Scholar]
  17. A.P. Dowling, J.E. Ffowcs Williams : Sound and sources of sound. Ellis Horwood, Chichester, 1983. [Google Scholar]
  18. L. Cremer : The physics of the violin. MIT Press, Cambridge, MA, 1984. [Google Scholar]
  19. O. Christensen, B.B. Vistisen : Simple model for low-frequency guitar function. Journal of the Acoustical Society of America 68 (1980) 756–766. [Google Scholar]
  20. W.M. Leach : Introduction to electroacoustics & audio amplifier design. 4-е изд. Kendall Hunt, Dubuque, Iowa, 2009. [Google Scholar]
  21. D. Politzer , The open back of the open-back banjo. [Online] Available at: http://www.its.caltech.edu/

Cite this article as: Woodhouse J, Politzer D & Mansour H. 2021. Acoustics of the banjo: theoretical and numerical modelling. Acta Acustica, 5, 16.


Hints and tips

  • Use the Spacebar to toggle recording on and off.
  • Use the left and right arrow keys to scroll the display left and right (when paused).
  • Keyboard shortcuts: [C] - Configuration, [G] - Grid, [P] - Replay, [R] - Refresh.
  • As well as monitoring an input microphone or line-level signal, you can monitor the computer's own audio output signal using options in the Windows mixer control. Select Record/Mixer and then Options/Properties to find and select the "Wave Out" channel control.
  • The grid marks are 1000Hz and 100ms apart.