Помощь · Поиск · Пользователи · Календарь
Перейти к полной версии: SRS Labs представляет новую концепцию многоканального сведения (Multi-Dimensional Audio (MDA))
Многоканальная Музыка > Объемный звук > Основной раздел
mm
[attachmentid=10291]
SRS Labs анонсировала платформу MDA (Multi-Dimensional Audio - Многомерное Аудио), демонстрацию которой компания проведет на выставке CES 2012. Суть новинки заключается в том, что местоположение каждого звукового элемента микса в трехмерном пространстве описывается метаданными. В традиционных системах, начиная с 2.0 и заканчивая всеми форматами с большим количеством каналов, позиционирование звуков задавалось на стадии сведения и было жестко привязано к количеству каналов. Использование же абсолютной, независимой системы назначения 3D координат позволяет воспроизвести сигнал на любой системе, с любым количеством колонок именно в той точке пространства, где изначально запланировал это звукорежиссер.

"Канало-ориентированное аудио существует без изменений уже более 50 лет; периодически только увеличивается число этих самых каналов", говорит Алан Крэмер, главный технический директор SRS Labs. "MDA - система, незаметно адаптирующаяся к возможностям на воспроизводящей стороне; она кардинально отличается от всех когда-либо созданных аудио платформ и является самой близкой к оригиналу многоканальной системой".
Sergesha
Этакий ПроЛоджик с выбором количества каналов? Или немикшированный много-многоканальный трек и микширование на лету? Что-то принцип не догоняю.
Elephantus
Это не пролоджик. Пространственное представление звука до привязки к конкретной физической (аппаратура) привязке. Тридцать лет назад такое появилось в компьютерной графике, такой же подход у операционок, типа, как на семерке с отделенной языковой прослойкой. Метаязык он и есть метаязык.
mm
Если взять компьютерный пример, то в домашний ресивер встроена нуенда (среда сведения), а на диске подаются исходники (звуки без обработки) и проект (метаданные), в котором описано чего и как сводить. "Как" ресивер корректирует на лету, исходя из имеющихся колонок и помещения.
Sergesha
Ну, я такое тоже предположил.
Цитата(Sergesha @ 12/01/2012, 00:34)
Или немикшированный много-многоканальный трек и микширование на лету?

Что-то как-то сомнительно. Учесть все нюансы сведения в метеданных можно наверное? Но сколько дорожек должно быть в файле данных, что бы учесть все нюансы микширования? Такие, как реверберацию, хоруз и многие другие приёмы. Не только каждый иструмент должен лежать в отдельной дорожке, но и каждая его обработка каким-нить плагином тоже. В результате будет неподьёмный для обработки на лету массив, или интересный, но простовато-плосковатый проект для какой-нить выставки.

А так, апмикс и даунмикс, в зависимости от кол-ва колонок, ресиверы и сейчас делают.

Сомнительно.
Elephantus
Нету нюансов микширования, это уже на выходе. Есть звук, его источник в пространстве (возможно направленный), размазанность источника во времени и пространстве, среда распространения, не обязательно изотропная, с возможным частичным или полным отражением (направленным) и поглощением. Дальше решаемая задача распространения при таких условиях. Вот это все и описавают метаданные как результат (пространственно-временное звуковое поле только в виде некого набора образов-образцов), и он то запоминается. Остается привязка результата под конкретную реализацию оборудования.
Nipper
Чет вы ребята, вроде и по русски говорите, а ни хрена не понял (((
Elephantus
Цитата(Nipper @ 12/01/2012, 22:12)
Чет вы ребята, вроде и по русски говорите, а ни хрена не понял (((
*


Причем здесь с/х продукция, поле то звуковое.
Nipper
Переведи...
© Москва слезам не верит
Sergesha
Elephantus Опишите пожалуйста предполагаемое ссодержимое файла (диска). Звук звуком, но мы говорим об аудиотреке. Каким он будет в сыром виде? Как он будет записываться и обрабатываться? Сколько дорожек в сыром виде достаточно для создания полноценных миксов по метаданным?
Maxx
Цитата(Sergesha @ 13/01/2012, 03:37)
Elephantus Опишите пожалуйста предполагаемое ссодержимое файла (диска). Звук звуком, но мы говорим об аудиотреке. Каким он будет в сыром виде? Как он будет записываться и обрабатываться? Сколько дорожек в сыром виде достаточно для создания полноценных миксов по метаданным?
*

По моему разумению, это должно напоминать трекерную музыку: набор дорожек для каждого источника звука в отдельности и данные о их пространственном расположении. Собственно идея верная и довольно старая, нечто подобное сейчас используется в звуковых движках 3D игр... всякие EAX'ы - это тоже примерно из той оперы. Но тут проблема.. для синтетической музыки такой подход прост и понятен. Но что делать с живой музыкой? Как записать оркестр из кучи инструментов? У каждой скрипки микрофон поставить то не проблема..., но как избавиться от звучания соседних инструментов... писать все по отдельности? - но тогда тут живой музыкой и не будет пахнуть.. опять таки чистая синтетика.
Sergesha
Хм. То есть просто все дорожки из нескольких миксов в одну кучу и выбор их метаданными? В чём принципиальная разница с нынешними отдельными треками с миксами? Тот же размер, практически тот же выбор. Ещё сомнительнее.
Maxx
Разница в том, что нет привязки к вопросизводящей системе, 5.1, 7.1, хоть 128.16 - не важно! Раскидывание по каналам идет только в момент воспроизведения, а не на стадии микширования. Для "конечного слушателя" может быть это не так уж и важно... зато есть (потенциальная) возможность - занятся матерингом уже на свой вкус... хотя боюсь формат будет изначально закрытым....
Это еще похоже на проги для линуха, когда они распростаняюстя в виде исходников - компилируйте сами.. как хотите
Elephantus
Цитата(Sergesha @ 13/01/2012, 00:37)
Elephantus Опишите пожалуйста предполагаемое ссодержимое файла (диска). Звук звуком, но мы говорим об аудиотреке. Каким он будет в сыром виде? Как он будет записываться и обрабатываться? Сколько дорожек в сыром виде достаточно для создания полноценных миксов по метаданным?
*


Какой аудиотрек, только имидж, описание звука. Иначе говоря те же ноты, а не исполненное произведение. Исполняться звук будет потом на конкретном оборудовании.
В примитивной форме такой язычек-с существует - это MIDI. Только пользовать его хорошо для телефонов, не более.
Nipper
Цитата(Elephantus @ 13/01/2012, 18:53)
В примитивной форме такой язычек-с существует - это MIDI. Только пользовать его хорошо для телефонов, не более.
*
Слышал звон, да не знает где он.

*
Elephantus
При всем своем богатстве воспризведения выразительных форм, сэмплов, многоголосности и пр., МИДИ, в использемом сейчас виде, заметно усекает записи, ковертируемые со SmartScore файлов, типа MusicXML или ENF. Это касается не только визуализации нотного представления, для это собственно МИДИ и не был предназначен, но, в первую очередь, артикуляции, динамики, необходимых и применяемых в современных электро роялях и пианино. Для этого требуется значительное расширение языка, что собственно Сони и делает с high-definition MIDI в своем Zenph проекте.
Nipper
Бред. В современных контролерах всё Вами перечисленное уже давно реализовано, и не только, намного больше. Софт позволяет подключать по несколько миди устройств сразу, и назначать на каждый канал любые команды. К тому же, все современные профессиональные электро пиано и синтезаторы имеют миди интерфейс в том числе. А вот как звучит это все, "формирует" софт. Но и здесь возможности ограничены только фантазией исполнителя, и бюджетом.
А Ваше сравнение с примитивными рингтонами телефонов - крайне не корректно.
_UK
Цитата(Elephantus @ 14/01/2012, 21:55)
что собственно Сони и делает с high-definition MIDI в своем Zenph проекте.
*


Никогда не заменит живое исполнение. Игрушка для детей, типа "Фабрики звезд".
_UK
Цитата(Nipper @ 15/01/2012, 00:18)
В современных контролерах всё Вами перечисленное уже давно реализовано, и не только, намного больше.
*


И не только реализовано, но и обстебано неоднократно.
Любому нетупослышащему все заметно вполуха...
Это как раз то, что о чем писал Maxx Вам ранее
Nipper
Еще один знаток. А что Вам интересно так сильно заметно, в пол уха? Синтезированный звук, звучит не так синтезировано, или не слишком аналогово?
Nipper
Цитата(_UK @ 14/01/2012, 22:21)
Это как раз то, что о чем писал Maxx Вам ранее
*
Мне Макс много чего писал, напомните, что именно Вы имеете ввиду.
_UK
Цитата(Nipper @ 15/01/2012, 00:29)
Еще один знаток. А что Вам интересно так сильно заметно, в пол уха? Синтезированный звук, звучит не так синтезировано, или не слишком аналогово?
*


Я себя отношу к ТУПОСЛЫШАЩИМ. Зато грамматику русского языка знаю.
Nipper
Цитата(_UK @ 14/01/2012, 22:32)
Зато грмамматику русского языка знаю.
*
Это заметно )))
_UK
Цитата(Nipper @ 15/01/2012, 00:35)
Это заметно )))
*


Вот уже и не заметно. А у Вас? 03-teeth_smile.gif
Nipper
Что у меня?
_UK
03-teeth_smile.gif 03-teeth_smile.gif 03-teeth_smile.gif
canyon
Сабж - хорошая идея! Интеренсо было бы динамически изменять эти метаданные в зависимости от позиции слушателя относительно колонок, по-идее должен был бы получиться анолог этому, только со звуком.
Mineralist
В Китае "Ютюб" под запретом и, к сожалению, я могу выйти по ссылке. Но вспомнилось, не такой ли аналогичный метод вы имели ввиду: когда-то в продвинутые телеки вставляли "глазок", который ловил состояние освещённости комнаты и автоматически подстраивал изображение на экране.
К теме звука этот фотоэлемент соотносим с микрофоном (или несколькими) на месте расположения слушателя. Вот такой обратной связью можно было бы подгонять энти метаданные под конкретику места.
canyon
Цитата(Mineralist @ 16/01/2012, 13:36)
В Китае "Ютюб" под запретом и, к сожалению, я могу выйти по ссылке. Но вспомнилось, не такой ли аналогичный метод вы имели ввиду: когда-то в продвинутые телеки вставляли "глазок", который ловил состояние освещённости комнаты и автоматически подстраивал изображение на экране.
  К теме звука этот фотоэлемент соотносим с микрофоном (или несколькими) на месте расположения слушателя. Вот такой обратной связью можно было бы подгонять энти метаданные под конкретику места.
*



имел ввиду 3Д-графику и изменяющийся ракурс в зависимости от положения головы к монитору/телеку. Через hidemyass.com ютуб в Китае не работает?
Mineralist
Цитата(canyon @ 17/01/2012, 19:14)
имел ввиду 3Д-графику и изменяющийся ракурс в зависимости от положения головы к монитору/телеку. Через hidemyass.com ютуб в Китае не работает?
*


- А что это? Прокси-сервер? Я не пробовал. Начинаю, бывало, с этим разбираться, туда-сюда, да внимание переключается на другие темы и я забрасываю эти исследования.
А про 3Д-графику... да, точно... это ещё более тонкая настройка, чем микрофоны. Будем слушать МК, сидя в шлемах, аки крутые джедаи holiday.gif
mm
Тем временем SRS подготовила спецификацию MDA 1.0, предоставила ее 3D Аудио Альянсу (3DAA) и начала создание утилит MDA Creator и MDA Player.

[attachmentid=10445]


MDA Creator - программный модуль для самых распространенных звуковых рабочих станций, включая Pro Tools, Digital Performer, Logic, Cubase и Nuendo. Реализован он будет в виде RTAS, AU и VST-плагинов для PC и MAC. MDA Creator позволит с легкостью осуществлять сведение в концепции MDA и экспортировать готовые к распространению результаты. Так же модуль способен выдавать традиционные миксы с заданным числом каналов, сохраняя совместимость с 2.0, 5.1, 7.1 и т.п. системами.

Готовые к коммерческому применению инструменты появятся во втором квартале этого года.
Это текстовая версия — только основной контент. Для просмотра полной версии этой страницы пожалуйста нажмите сюда.
Русская версия Invision Power Board © 2001-2026 Invision Power Services, Inc.
Реклама