SRS Labs анонсировала платформу MDA (Multi-Dimensional Audio - Многомерное Аудио), демонстрацию которой компания проведет на выставке CES 2012. Суть новинки заключается в том, что местоположение каждого звукового элемента микса в трехмерном пространстве описывается метаданными. В традиционных системах, начиная с 2.0 и заканчивая всеми форматами с большим количеством каналов, позиционирование звуков задавалось на стадии сведения и было жестко привязано к количеству каналов. Использование же абсолютной, независимой системы назначения 3D координат позволяет воспроизвести сигнал на любой системе, с любым количеством колонок именно в той точке пространства, где изначально запланировал это звукорежиссер.
"Канало-ориентированное аудио существует без изменений уже более 50 лет; периодически только увеличивается число этих самых каналов", говорит Алан Крэмер, главный технический директор SRS Labs. "MDA - система, незаметно адаптирующаяся к возможностям на воспроизводящей стороне; она кардинально отличается от всех когда-либо созданных аудио платформ и является самой близкой к оригиналу многоканальной системой".
Sergesha
11/01/2012, 23:34
Этакий ПроЛоджик с выбором количества каналов? Или немикшированный много-многоканальный трек и микширование на лету? Что-то принцип не догоняю.
Elephantus
12/01/2012, 09:59
Это не пролоджик. Пространственное представление звука до привязки к конкретной физической (аппаратура) привязке. Тридцать лет назад такое появилось в компьютерной графике, такой же подход у операционок, типа, как на семерке с отделенной языковой прослойкой. Метаязык он и есть метаязык.
mm
12/01/2012, 15:28
Если взять компьютерный пример, то в домашний ресивер встроена нуенда (среда сведения), а на диске подаются исходники (звуки без обработки) и проект (метаданные), в котором описано чего и как сводить. "Как" ресивер корректирует на лету, исходя из имеющихся колонок и помещения.
Sergesha
12/01/2012, 16:31
Ну, я такое тоже предположил.
Цитата(Sergesha @ 12/01/2012, 00:34)
Или немикшированный много-многоканальный трек и микширование на лету?
Что-то как-то сомнительно. Учесть все нюансы сведения в метеданных можно наверное? Но сколько дорожек должно быть в файле данных, что бы учесть все нюансы микширования? Такие, как реверберацию, хоруз и многие другие приёмы. Не только каждый иструмент должен лежать в отдельной дорожке, но и каждая его обработка каким-нить плагином тоже. В результате будет неподьёмный для обработки на лету массив, или интересный, но простовато-плосковатый проект для какой-нить выставки.
А так, апмикс и даунмикс, в зависимости от кол-ва колонок, ресиверы и сейчас делают.
Сомнительно.
Elephantus
12/01/2012, 17:35
Нету нюансов микширования, это уже на выходе. Есть звук, его источник в пространстве (возможно направленный), размазанность источника во времени и пространстве, среда распространения, не обязательно изотропная, с возможным частичным или полным отражением (направленным) и поглощением. Дальше решаемая задача распространения при таких условиях. Вот это все и описавают метаданные как результат (пространственно-временное звуковое поле только в виде некого набора образов-образцов), и он то запоминается. Остается привязка результата под конкретную реализацию оборудования.
Nipper
12/01/2012, 21:12
Чет вы ребята, вроде и по русски говорите, а ни хрена не понял (((
Elephantus
12/01/2012, 22:45
Цитата(Nipper @ 12/01/2012, 22:12)
Чет вы ребята, вроде и по русски говорите, а ни хрена не понял (((
Elephantus Опишите пожалуйста предполагаемое ссодержимое файла (диска). Звук звуком, но мы говорим об аудиотреке. Каким он будет в сыром виде? Как он будет записываться и обрабатываться? Сколько дорожек в сыром виде достаточно для создания полноценных миксов по метаданным?
Maxx
13/01/2012, 11:51
Цитата(Sergesha @ 13/01/2012, 03:37)
Elephantus Опишите пожалуйста предполагаемое ссодержимое файла (диска). Звук звуком, но мы говорим об аудиотреке. Каким он будет в сыром виде? Как он будет записываться и обрабатываться? Сколько дорожек в сыром виде достаточно для создания полноценных миксов по метаданным?
По моему разумению, это должно напоминать трекерную музыку: набор дорожек для каждого источника звука в отдельности и данные о их пространственном расположении. Собственно идея верная и довольно старая, нечто подобное сейчас используется в звуковых движках 3D игр... всякие EAX'ы - это тоже примерно из той оперы. Но тут проблема.. для синтетической музыки такой подход прост и понятен. Но что делать с живой музыкой? Как записать оркестр из кучи инструментов? У каждой скрипки микрофон поставить то не проблема..., но как избавиться от звучания соседних инструментов... писать все по отдельности? - но тогда тут живой музыкой и не будет пахнуть.. опять таки чистая синтетика.
Sergesha
13/01/2012, 12:51
Хм. То есть просто все дорожки из нескольких миксов в одну кучу и выбор их метаданными? В чём принципиальная разница с нынешними отдельными треками с миксами? Тот же размер, практически тот же выбор. Ещё сомнительнее.
Maxx
13/01/2012, 19:37
Разница в том, что нет привязки к вопросизводящей системе, 5.1, 7.1, хоть 128.16 - не важно! Раскидывание по каналам идет только в момент воспроизведения, а не на стадии микширования. Для "конечного слушателя" может быть это не так уж и важно... зато есть (потенциальная) возможность - занятся матерингом уже на свой вкус... хотя боюсь формат будет изначально закрытым.... Это еще похоже на проги для линуха, когда они распростаняюстя в виде исходников - компилируйте сами.. как хотите
Elephantus
13/01/2012, 19:53
Цитата(Sergesha @ 13/01/2012, 00:37)
Elephantus Опишите пожалуйста предполагаемое ссодержимое файла (диска). Звук звуком, но мы говорим об аудиотреке. Каким он будет в сыром виде? Как он будет записываться и обрабатываться? Сколько дорожек в сыром виде достаточно для создания полноценных миксов по метаданным?
Какой аудиотрек, только имидж, описание звука. Иначе говоря те же ноты, а не исполненное произведение. Исполняться звук будет потом на конкретном оборудовании. В примитивной форме такой язычек-с существует - это MIDI. Только пользовать его хорошо для телефонов, не более.
Nipper
14/01/2012, 15:09
Цитата(Elephantus @ 13/01/2012, 18:53)
В примитивной форме такой язычек-с существует - это MIDI. Только пользовать его хорошо для телефонов, не более.
Слышал звон, да не знает где он.
Elephantus
14/01/2012, 20:55
При всем своем богатстве воспризведения выразительных форм, сэмплов, многоголосности и пр., МИДИ, в использемом сейчас виде, заметно усекает записи, ковертируемые со SmartScore файлов, типа MusicXML или ENF. Это касается не только визуализации нотного представления, для это собственно МИДИ и не был предназначен, но, в первую очередь, артикуляции, динамики, необходимых и применяемых в современных электро роялях и пианино. Для этого требуется значительное расширение языка, что собственно Сони и делает с high-definition MIDI в своем Zenph проекте.
Nipper
14/01/2012, 23:18
Бред. В современных контролерах всё Вами перечисленное уже давно реализовано, и не только, намного больше. Софт позволяет подключать по несколько миди устройств сразу, и назначать на каждый канал любые команды. К тому же, все современные профессиональные электро пиано и синтезаторы имеют миди интерфейс в том числе. А вот как звучит это все, "формирует" софт. Но и здесь возможности ограничены только фантазией исполнителя, и бюджетом. А Ваше сравнение с примитивными рингтонами телефонов - крайне не корректно.
_UK
14/01/2012, 23:19
Цитата(Elephantus @ 14/01/2012, 21:55)
что собственно Сони и делает с high-definition MIDI в своем Zenph проекте.
Никогда не заменит живое исполнение. Игрушка для детей, типа "Фабрики звезд".
_UK
14/01/2012, 23:21
Цитата(Nipper @ 15/01/2012, 00:18)
В современных контролерах всё Вами перечисленное уже давно реализовано, и не только, намного больше.
И не только реализовано, но и обстебано неоднократно. Любому нетупослышащему все заметно вполуха... Это как раз то, что о чем писал Maxx Вам ранее
Nipper
14/01/2012, 23:29
Еще один знаток. А что Вам интересно так сильно заметно, в пол уха? Синтезированный звук, звучит не так синтезировано, или не слишком аналогово?
Nipper
14/01/2012, 23:31
Цитата(_UK @ 14/01/2012, 22:21)
Это как раз то, что о чем писал Maxx Вам ранее
Мне Макс много чего писал, напомните, что именно Вы имеете ввиду.
_UK
14/01/2012, 23:32
Цитата(Nipper @ 15/01/2012, 00:29)
Еще один знаток. А что Вам интересно так сильно заметно, в пол уха? Синтезированный звук, звучит не так синтезировано, или не слишком аналогово?
Я себя отношу к ТУПОСЛЫШАЩИМ. Зато грамматику русского языка знаю.
Nipper
14/01/2012, 23:35
Цитата(_UK @ 14/01/2012, 22:32)
Зато грмамматику русского языка знаю.
Это заметно )))
_UK
14/01/2012, 23:38
Цитата(Nipper @ 15/01/2012, 00:35)
Это заметно )))
Вот уже и не заметно. А у Вас?
Nipper
14/01/2012, 23:41
Что у меня?
_UK
14/01/2012, 23:45
canyon
15/01/2012, 19:53
Сабж - хорошая идея! Интеренсо было бы динамически изменять эти метаданные в зависимости от позиции слушателя относительно колонок, по-идее должен был бы получиться анолог этому, только со звуком.
Mineralist
16/01/2012, 14:36
В Китае "Ютюб" под запретом и, к сожалению, я могу выйти по ссылке. Но вспомнилось, не такой ли аналогичный метод вы имели ввиду: когда-то в продвинутые телеки вставляли "глазок", который ловил состояние освещённости комнаты и автоматически подстраивал изображение на экране. К теме звука этот фотоэлемент соотносим с микрофоном (или несколькими) на месте расположения слушателя. Вот такой обратной связью можно было бы подгонять энти метаданные под конкретику места.
canyon
17/01/2012, 19:14
Цитата(Mineralist @ 16/01/2012, 13:36)
В Китае "Ютюб" под запретом и, к сожалению, я могу выйти по ссылке. Но вспомнилось, не такой ли аналогичный метод вы имели ввиду: когда-то в продвинутые телеки вставляли "глазок", который ловил состояние освещённости комнаты и автоматически подстраивал изображение на экране. К теме звука этот фотоэлемент соотносим с микрофоном (или несколькими) на месте расположения слушателя. Вот такой обратной связью можно было бы подгонять энти метаданные под конкретику места.
имел ввиду 3Д-графику и изменяющийся ракурс в зависимости от положения головы к монитору/телеку. Через hidemyass.com ютуб в Китае не работает?
Mineralist
18/01/2012, 09:39
Цитата(canyon @ 17/01/2012, 19:14)
имел ввиду 3Д-графику и изменяющийся ракурс в зависимости от положения головы к монитору/телеку. Через hidemyass.com ютуб в Китае не работает?
- А что это? Прокси-сервер? Я не пробовал. Начинаю, бывало, с этим разбираться, туда-сюда, да внимание переключается на другие темы и я забрасываю эти исследования. А про 3Д-графику... да, точно... это ещё более тонкая настройка, чем микрофоны. Будем слушать МК, сидя в шлемах, аки крутые джедаи
mm
22/03/2012, 20:30
Тем временем SRS подготовила спецификацию MDA 1.0, предоставила ее 3D Аудио Альянсу (3DAA) и начала создание утилит MDA Creator и MDA Player.
[attachmentid=10445]
MDA Creator - программный модуль для самых распространенных звуковых рабочих станций, включая Pro Tools, Digital Performer, Logic, Cubase и Nuendo. Реализован он будет в виде RTAS, AU и VST-плагинов для PC и MAC. MDA Creator позволит с легкостью осуществлять сведение в концепции MDA и экспортировать готовые к распространению результаты. Так же модуль способен выдавать традиционные миксы с заданным числом каналов, сохраняя совместимость с 2.0, 5.1, 7.1 и т.п. системами.
Готовые к коммерческому применению инструменты появятся во втором квартале этого года.
Это текстовая версия только основной контент. Для просмотра полной версии этой страницы пожалуйста нажмите сюда.