JP5333517B2 - データ処理装置およびプログラム - Google Patents
データ処理装置およびプログラム Download PDFInfo
- Publication number
- JP5333517B2 JP5333517B2 JP2011118517A JP2011118517A JP5333517B2 JP 5333517 B2 JP5333517 B2 JP 5333517B2 JP 2011118517 A JP2011118517 A JP 2011118517A JP 2011118517 A JP2011118517 A JP 2011118517A JP 5333517 B2 JP5333517 B2 JP 5333517B2
- Authority
- JP
- Japan
- Prior art keywords
- sound
- data
- sound material
- waveform
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
- G10H2240/081—Genre classification, i.e. descriptive metadata for classification or selection of musical pieces according to style
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
- G10H2240/085—Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
- G10H2240/135—Library retrieval index, i.e. using an indexing scheme to efficiently retrieve a music piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
- G10H2240/141—Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/145—Sound library, i.e. involving the specific use of a musical database as a sound bank or wavetable; indexing, interfacing, protocols or processing therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/155—Library update, i.e. making or modifying a musical database using musical parameters as indices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/541—Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
- G10H2250/641—Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Library & Information Science (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
[概要]
本発明の実施形態における楽音処理装置は、パーソナルコンピュータ、携帯電話、PDA(Personal Digital Assistant)、タブレット端末などの情報処理装置であり、OS(Operating System)上で特定のアプリケーションプログラムを実行することにより、DAW(Digital Audio Workstation)と呼ばれる機能が実現される装置である。この楽音処理装置において実現されるDAWにおいては、楽音波形信号の一部として抽出される音素材を用いて楽音を発生させるための制御を行う機能も実現される。また、楽音波形信号から音素材を抽出する機能、音素材をデータベースから検索する機能など、以下に説明する各機能も実現される。DAWを実現するアプリケーションプログラムの実行中においてサブルーチンのプログラムが実行されることにより、これらの各機能が実現される。
図1は、本発明の実施形態における楽音処理装置10の構成を説明するブロック図である。楽音処理装置10は、制御部11、操作部12、表示部13、インターフェイス14、記憶部15、および音響処理部16を有する。これらの各構成はバスを介して接続されている。また、楽音処理装置10は、音響処理部16に接続されたスピーカ161およびマイクロフォン162を有する。
抽出プログラムは、記憶部15に記憶されている波形DBに登録された波形データが示す楽音波形信号、再生機能により合成される楽音波形信号など、様々な楽音波形信号から音素材を抽出する音素材抽出機能を実現するためのプログラムである。
修正プログラムは、抽出された音素材のデータに修正を加える修正機能を実現するためのプログラムである。
検索プログラムは、記憶部15に記憶されている音素材DBから、検索条件に基づいて音素材を検索するデータ検索機能を実現するためのプログラムである。音素材抽出機能、修正機能、およびデータ検索機能の詳細については、後述する。
これらの各機能構成の一部または全部により、楽音処理装置10において、本発明のデータ処理装置が実現される。
表示部13は、液晶ディスプレイなどの表示デバイスであり、制御部11の制御に応じた内容の表示を表示画面131に行う。表示画面131に表示される内容は、メニュー画面、設定画面などの他、実行されたプログラムによって様々な内容となる(図7〜図9、図11〜図14参照)。
音響処理部16は、DSP(Digital Signal Processor)などの信号処理回路などを有する。この例においては、音響処理部16は、マイクロフォン162から入力される楽音波形信号をA/D変換し、オーディオデータとして制御部11に出力する。また、音響処理部16は、制御部11から出力されたオーディオデータを、制御部11によって設定された音響処理、D/A変換(デジタルアナログ変換)処理、増幅処理などの信号処理などを施して、楽音波形信号としてスピーカ161に出力する。
スピーカ161は、音響処理部16から入力された楽音波形信号が示す音を出力する。
これらの波形データが示す楽音波形信号は、楽曲、特定の楽器音、音素材など様々な内容のいずれかであり、その長さについても1秒未満から数分以上まで様々である。また、ループして用いられるものが存在してもよい。ループして用いられる波形データであっても、その一部の区間を用いてループしない波形データとして用いてもよい。なお、この例における波形データについては、複数チャンネル(例えばLch、Rch)のデータが含まれている。以下の説明においては、楽音波形信号を示す波形データ、オーディオデータなどの各データは、Lch、Rchの2chにより構成されているものとするが、より多くのチャンネル数で構成されていてもよいし、モノラル(1ch)で構成されていてもよい。
なお、特定データのうち時刻指定情報が規定されていないものについては、波形指定情報が示す波形データそのものが音素材の楽音の内容を表している。例えば、音素材sn4が示す楽音ついては、波形データW5が示す楽音波形信号全体で表される。
このカテゴリとは、聴感上の特徴が似た音素材毎に分類されたものであり、例えば、アタックが明瞭でエッジ感が強い音として分類されるカテゴリ(例えば、エッジ音)、ノイズのように聞こえる音として分類されるカテゴリ(例えば、テクスチャ音)などとして分類される。分類されるカテゴリは、その内容に応じてカテゴリC1、カテゴリC2、・・・として示す。
指定値は、上述したようにカテゴリの代表的な特徴量の値である。例えば、カテゴリC2は、指定値として、特徴量p1が「0.5」、特徴量p2が「0.5」ということになる。一方、カテゴリC1における特徴量p2の指定値のように、値が決められていない場合には、代表的な値が無いものとして扱われる。
以上が、楽音処理装置10のハードウエア構成についての説明である。
次に、楽音処理装置10の制御部11が抽出プログラムを実行することによって実現される音素材抽出機能について説明する。また、制御部11が修正プログラムを実行することによって実現される修正機能についても併せて説明する。なお、以下に説明する音素材抽出機能および修正機能を実現する各構成の一部または全部については、ハードウエアによって実現してもよい。
以下、音素材特定部121および特徴量算出部122の機能について説明する。
また、この例においては、登録部130は、波形データを波形DBに登録するときには、入力された波形指定情報が示す波形データに対応するタグデータを、新たに登録した波形データに対応するタグデータとして対応付け、また、音素材DBに登録する音素材に対応するタグデータとする。
なお、修正部200は、既に登録されている音素材のデータ範囲を修正するようにしてもよい。
以上が、音素材抽出機能および修正機能についての説明である。
続いて、上述した抽出プログラムおよび修正プログラムが実行されたときの動作例について、表示画面131の表示例を参照しながら説明する。
まず、ユーザは、DAW上において、波形データから音素材を抽出したい場合などにおいて、抽出プログラムの実行の指示を楽音処理装置10に対して入力する。これにより、表示画面131には、波形DBから波形データをユーザに選択させる表示がなされる。そして、ユーザが音素材を抽出したい波形データを選択すると、表示画面131には、図7に示す内容(解析期間指定表示)の表示がなされる。
表示画面131には、指定された解析期間twの波形データを再生してスピーカ161から出力させる指示をユーザから受け付けるための試聴ボタンb1、指定された解析期間twを確定するための確定ボタンb2が表示される。ユーザは、ポインタptなどを用いて試聴ボタンb1を操作して楽音の試聴をしながら所望の解析期間が決まったら、確定ボタンb2を操作する。なお、ユーザの操作により、全期間を解析期間とすることもできる。
確定ボタンb2が操作されると、表示画面131は、図8に示す抽出完了表示に遷移する。
ユーザがスピーカ161から出力された音を試聴して、音素材の特定区間について修正する必要がない場合など、ユーザによって登録ボタンb4が操作されると、登録部130は、上述したように、音素材に関する各データ(特定データ、特徴量データ、タグデータ)を音素材DBに登録する。
一方、ユーザが音素材の特定区間について修正したいと考えた場合など、ユーザによって修正ボタンb3が操作された場合には、修正プログラムが実行され、表示画面131は、図9に示す期間修正表示に遷移する。
その他、範囲指定矢印によって指定された期間の楽音波形信号が示す音を試聴するための試聴ボタンb5、範囲指定矢印によって指定された期間の楽音波形信号を音素材に対応する楽音波形信号として確定させる確定ボタンb6が表示画面131に表示される。
このようにして音素材に対応する楽音波形信号の開始時刻をずらすことにより、音の立ち上がり感を調整したり、終了時刻をずらすことにより残響感を調整したりすることができる。
以上が、抽出プログラム、修正プログラムが実行されたときの動作例の説明である。
次に、楽音処理装置10の制御部11が検索プログラムを実行することによって実現されるデータ検索機能について説明する。なお、以下に説明する検索機能を実現する各構成の一部または全部については、ハードウエアによって実現してもよい。
特徴特定部330は、まず、音素材DBに登録された各音素材の特徴量データのうち、第2の検索条件に含まれる分類基準を満たし、かつ、指定されたタグデータが対応付けられているものを、第1の検索条件との距離計算の対象、すなわち検索対象となる特徴量データとして絞り込む。特徴特定部330は、絞り込んだ各特徴量データについて、予め決められた類似度計算方法にしたがって、第1の検索条件との類似度の計算を行う。類似度計算方法とは、類似の度合いを計算する方法であって、この例においては、ユークリッド距離計算であるものとする。なお、類似度計算方法については、マハラノビス距離計算、コサイン類似度計算など、n次元ベクトルの距離またはn次元ベクトルの類似度を算出する方法を用いた計算方法であれば、どのようなものであってもよい。このn次元ベクトルは、類似度の計算において比較対象となる特徴量の種類の数に相当する。
また、類似度の計算において、第1の検索条件としてカテゴリにおける指定値が決められていない特徴量の種類(例えば、カテゴリC1の特徴量p2)については、距離計算には用いない。
以上が、データ検索機能についての説明である。
続いて、上述した検索プログラムが実行されたときの動作例について、表示画面131の表示例を参照しながら説明する。
まず、ユーザは、DAW上においてシーケンスデータの作成に用いる音素材を音素材DBから選択したい場合などにおいて、検索プログラムの実行の指示を楽音処理装置10に対して入力する。このようにすると、表示画面131には、図11に示す検索条件設定表示がなされる。
ユーザは、カーソルCs1の移動に伴う発音を確認しながら、所望の音素材が決まった場合には、所望の音素材に対応する音素材データにカーソルCs1を移動させて決定ボタンb7を操作することで、ユーザによって選択された音素材データが楽音特定部340によって特定される。そして、表示画面131は、図14に示す音素材決定表示に遷移する。
以上、本発明の実施形態について説明したが、本発明は以下のように、様々な態様で実施可能である。
[変形例1]
上述した実施形態において、ユーザは、音素材を抽出したい波形データを波形DBから選択していたが、ユーザは、音素材が抽出されていない波形データを全てが選択されるように操作することも可能である。これは、例えば、外部の記憶媒体などを利用して、波形DBに新たな波形データが追加された場合に、追加した波形データからまとめて音素材を抽出する場合に使えばよい。この場合には、音素材抽出機能部100における取得部110が、追加された波形データを順に取得し、抽出された音素材が音素材DBに登録されるようにすればよい。また、波形DBに新たな波形データが追加された場合には、ユーザの操作にかかわらず、自動的に音素材の抽出がなされ、音素材DBに登録されるようにしてもよい。
上述した実施形態においては、音素材を抽出する対象となる波形データは、予め波形DBに登録されていたが、登録されていないデータであってもよい。例えば、外部から入力された楽音波形信号であってもよいし、再生機能によりシーケンスデータを再生した場合に得られる楽音波形信号であってもよい。すなわち、音素材を抽出する対象は、波形データにかかわらず、楽音波形信号を示す楽音データであればよい。この場合には、この楽音データまたは楽音データから抽出された音素材データ(抽出された楽音波形信号が示す波形データ)が波形DBに登録されるようにすればよい。
上述した実施形態において、音素材を抽出したい波形データとしてユーザによって選択された波形データが、予め決められた時間長より短い楽音波形信号を示す場合には、抽出部120は、楽音波形信号の一部を音素材として抽出するのではなく、全体を音素材として扱うようにしてもよい。この場合には、特徴量算出部122において算出される特徴量は、波形データが示す楽音波形信号全体の特徴を示すものとなる。
上述した実施形態においては、第1の検索条件は、分類テンプレートによって示されるカテゴリがユーザによって指定されることで決定されていたが、ユーザによって各種類の特徴量が個別に指定されることで決定されてもよい。また、指定された内容が分類テンプレートに登録されるようにしてもよい。
上述した実施形態において、登録部130は、音素材DBへの音素材の登録に伴い、登録した音素材とその発音タイミングとを規定する音素材トラックに対応するシーケンスデータを記憶部15に記憶するようにしてもよい。すなわち、1つの波形データの抽出元楽音波形信号から抽出された音素材の識別子と、音素材に対応する特定区間の始まりの時刻を示す情報とを対応付けたデータを記憶部15に記憶すればよい。
ここで、特定区間の始まりの時刻は、楽音波形信号の先頭から経過時間に対応する絶対的な時刻である一方、音素材トラックについては、発音タイミングが小節数、拍数、ティック数などの相対的な時刻として表される。そのため、登録部130は、予め決められたテンポ(例えば、テンポ=120(1拍0.5秒))を基準とすることによって、絶対的な時刻から相対的な時刻に変換して、音素材トラックとして記憶する。
このようにして記憶された音素材トラックは、再生機能によって上記テンポで再生されると、抽出元楽音波形信号のうち、抽出された音素材部分が発音され、それ以外の部分がミュートされたような発音内容としてスピーカ161から出力されることになる。
上述した実施形態においては、検索結果領域SAに表示される音素材データの表示順が類似順を表すようになっていたが、順番以外の表示態様で類似順が表されてもよい。例えば、表示の大きさ、濃さであったり、類似度を合わせて表示させたりすればよく、類似度に応じて表示態様が変化していればよい。
上述した実施形態においては、楽音登録領域WA1、WA2、・・・に登録された音素材データについては、音素材トラックの作成などに用いられるものとしたが、他の用途に用いられてもよい。例えば、この音素材データを用いて発音する楽器、音源などにおいて用いられてもよい。楽器に用いられる場合には、音高を変化させて用いてもよいし、予め音高が異なる音素材データを記憶部15に記憶させておいてもよい。音高が異なるだけの音素材データについては、特徴特定部330における検索対象にはならないようにしてもよい。このように、本発明のデータ処理装置を実現する楽音処理装置10は、情報処理装置のほかにも、楽器、音源などにも適用することができる。
上述した実施形態においては、波形DBにおいて各波形データにはタグデータが対応付けられていたが、対応付けられていない波形データがあってもよい。タグデータが対応付けられていない波形データがユーザによって選択された場合には、この波形データから抽出された音素材については、タグデータが対応付けられない状態で音素材DBに登録されてもよいし、ユーザによって入力されたタグデータが対応付けられるようにしてもよい。また、制御部11は、この波形データが示す楽音波形信号を解析して、解析結果に応じて、音素材に対応付けるタグデータを決定するようにしてもよい。
上述した実施形態においては、本発明のデータ処理装置は、再生機能、音素材抽出機能、修正機能、およびデータ検索機能の各機能構成により実現されていたが、音素材抽出機能以外の各機能構成については存在しなくてもよい。
上述した実施形態における各プログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記憶した状態で提供し得る。また、楽音処理装置10は、各プログラムをネットワーク経由でダウンロードしてもよい。
Claims (6)
- 音素材データベースから、音素材に対応するメタデータに記憶された情報に基づいて検索して所望の音素材を利用するデータ処理装置であって、
楽音波形信号を示す楽音データと当該楽音データを分類するために当該楽音データの特徴に応じてそれぞれ割り振られたメタデータとを対応付けた波形データベースから、前記楽音データを取得する取得手段と、
前記取得された楽音データが示す楽音波形信号から、オンセットを検出してオンセットから予め決められた時間の範囲のうち、様々な区間を指示する音素材特定手段と、
該音素材特定手段によって指示されたそれぞれの区間について特徴量を算出する特徴量算出手段と、
音素材の情報を音素材データベースに登録する登録手段と
を具備し、
前記音素材特定手段は、前記特徴量算出手段によって算出された各区間の特徴量から、当該音素材特定手段が指示した区間のうち予め決められた特徴を有する楽音波形信号の期間を、音素材の楽音波形信号として特定し、
前記登録手段は、前記音素材特定手段によって特定されたそれぞれの音素材について、当該音素材の楽音波形信号の区間を示す特定データ、前記算出された特徴量を示す特徴量データ、および前記波形データベースから読み出された前記取得された楽音データに対応するメタデータをそれぞれ対応付けて、音素材データベースに登録する
ことを特徴とするデータ処理装置。 - ユーザによって指定される前記メタデータおよび前記特徴量を検索条件として決定する条件決定手段と、
前記検索条件が示す前記メタデータが対応付けられ、かつ、前記検索条件が示す特徴量に類似する特徴量データを、前記音素材データベースから検索して特定する特徴特定手段と、
前記特徴特定手段によって特定された特徴量データに対応する特定データを示す情報を、検索結果として表示手段に表示させる表示制御手段と
をさらに具備し、
前記検索条件には第1の検索条件としての特徴量の値と第2の検索条件としての前記特徴量の上限値と下限値が含まれ、
前記特徴特定手段は、前記第2の検索条件の前記上限値と前記下限値の範囲に含まれ、前記メタデータが対応付けられている特徴量データを検索の対象として絞り込み、絞り込んだ当該特徴量データについて、予め決められた計算方法にしたがってそれぞれ計算した、前記第1の検索条件との類似度に基づき、前記検索条件が示す特徴量に類似する特徴量データを特定する
ことを特徴とする請求項1に記載のデータ処理装置。 - 前記音素材特定手段は、前記取得された楽音データが示す楽音波形信号のうち、ユーザによって指定された一部の期間における楽音波形信号を解析して、予め決められた特徴を有する楽音波形信号の期間を、音素材の楽音波形信号として特定する
ことを特徴とする請求項1または請求項2に記載のデータ処理装置。 - さらに、前記音素材特定手段によって前記音素材の楽音波形信号として特定された前記期間を、ユーザによって指定された期間である指定期間に修正する修正手段を有し、
前記音素材特定手段は、前記期間が前記修正手段により前記指定期間に修正された場合に、当該指定期間を、前記音素材の楽音信号波形として特定する
ことを特徴とする請求項1乃至請求項3のいずれかに記載のデータ処理装置。 - 前記特徴量データは、修正前に算出された特徴量を示すものとするか、修正後の音素材が示す楽音波形信号について特徴量産出手段が再度算出した特徴量を示すものとするかをユーザが指示するものである
ことを特徴とする請求項4に記載のデータ処理装置。 - 音素材データベースから、音素材に対応するメタデータに記憶された情報に基づいて検索して所望の音素材を利用するコンピュータを、
楽音波形信号を示す楽音データと当該楽音データを分類するために当該楽音データの特徴に応じてそれぞれ割り振られたメタデータとを対応付けた波形データベースから、前記楽音データを取得する取得手段と、
前記取得された楽音データが示す楽音波形信号から、オンセットを検出してオンセットから予め決められた時間の範囲のうち、様々な区間を指示する音素材特定手段と、
該音素材特定手段によって指示されたそれぞれの区間について特徴量を算出する特徴量算出手段と、
音素材の情報を音素材データベースに登録する登録手段
として機能させるとともに、
前記音素材特定手段が、前記特徴量算出手段によって算出された各区間の特徴量から、当該音素材特定手段が、指示した区間のうち予め決められた特徴を有する楽音波形信号の期間を、音素材の楽音波形信号として特定し、
前記登録手段が、前記音素材特定手段によって特定されたそれぞれの音素材について、当該音素材の楽音波形信号の区間を示す特定データ、前記算出された特徴量を示す特徴量データ、および前記波形データベースから読み出された前記取得された楽音データに対応するメタデータをそれぞれ対応付けて、音素材データベースに登録するように
前記コンピュータを機能させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011118517A JP5333517B2 (ja) | 2011-05-26 | 2011-05-26 | データ処理装置およびプログラム |
US13/480,318 US20120300950A1 (en) | 2011-05-26 | 2012-05-24 | Management of a sound material to be stored into a database |
EP12169251.1A EP2528054A3 (en) | 2011-05-26 | 2012-05-24 | Management of a sound material to be stored into a database |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011118517A JP5333517B2 (ja) | 2011-05-26 | 2011-05-26 | データ処理装置およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012247957A JP2012247957A (ja) | 2012-12-13 |
JP5333517B2 true JP5333517B2 (ja) | 2013-11-06 |
Family
ID=46208309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011118517A Expired - Fee Related JP5333517B2 (ja) | 2011-05-26 | 2011-05-26 | データ処理装置およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20120300950A1 (ja) |
EP (1) | EP2528054A3 (ja) |
JP (1) | JP5333517B2 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140086419A1 (en) * | 2012-09-27 | 2014-03-27 | Manjit Rana | Method for capturing and using audio or sound signatures to analyse vehicle accidents and driver behaviours |
US20150066925A1 (en) * | 2013-08-27 | 2015-03-05 | Qualcomm Incorporated | Method and Apparatus for Classifying Data Items Based on Sound Tags |
US9378718B1 (en) * | 2013-12-09 | 2016-06-28 | Sven Trebard | Methods and system for composing |
USD754714S1 (en) * | 2014-06-17 | 2016-04-26 | Tencent Technology (Shenzhen) Company Limited | Portion of a display screen with animated graphical user interface |
USD805540S1 (en) * | 2016-01-22 | 2017-12-19 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with graphical user interface |
JP6677038B2 (ja) | 2016-03-24 | 2020-04-08 | ヤマハ株式会社 | データの位置決定方法、データの位置決定装置及びコンピュータプログラム |
CN108520758B (zh) * | 2018-03-30 | 2021-05-07 | 清华大学 | 一种视听觉跨模态物体材质检索方法及系统 |
US11238839B2 (en) | 2019-09-19 | 2022-02-01 | Spotify Ab | Audio stem identification systems and methods |
US10997986B2 (en) * | 2019-09-19 | 2021-05-04 | Spotify Ab | Audio stem identification systems and methods |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2139405B (en) * | 1983-04-27 | 1986-10-29 | Victor Company Of Japan | Apparatus for displaying musical notes indicative of pitch and time value |
US5342990A (en) * | 1990-01-05 | 1994-08-30 | E-Mu Systems, Inc. | Digital sampling instrument employing cache-memory |
JPH06150216A (ja) * | 1992-11-02 | 1994-05-31 | Sony Corp | ディジタル信号再生方法とその装置 |
JP2897701B2 (ja) * | 1995-11-20 | 1999-05-31 | 日本電気株式会社 | 効果音検索装置 |
US6172948B1 (en) * | 1997-07-09 | 2001-01-09 | Advanced Audio Devices, Llc | Optical storage device |
US7013301B2 (en) * | 2003-09-23 | 2006-03-14 | Predixis Corporation | Audio fingerprinting system and method |
CN1178201C (zh) * | 1999-08-26 | 2004-12-01 | 索尼公司 | 信息检索方法及设备、信息存储方法及设备 |
JP3835386B2 (ja) * | 2002-09-25 | 2006-10-18 | オムロン株式会社 | 波形データ再生装置及び波形データ再生方法並びに波形データ再生プログラム |
JP4466453B2 (ja) * | 2005-04-26 | 2010-05-26 | ソニー株式会社 | 音響装置、時間遅延算出方法および時間遅延算出プログラム |
JP4940588B2 (ja) * | 2005-07-27 | 2012-05-30 | ソニー株式会社 | ビート抽出装置および方法、音楽同期画像表示装置および方法、テンポ値検出装置および方法、リズムトラッキング装置および方法、音楽同期表示装置および方法 |
JP4670591B2 (ja) * | 2005-10-31 | 2011-04-13 | ヤマハ株式会社 | 音楽素材編集方法及び音楽素材編集システム |
JP4465626B2 (ja) * | 2005-11-08 | 2010-05-19 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
US20070282860A1 (en) * | 2006-05-12 | 2007-12-06 | Marios Athineos | Method and system for music information retrieval |
JP4423568B2 (ja) * | 2006-12-08 | 2010-03-03 | ソニー株式会社 | 表示制御処理装置および方法並びにプログラム |
EP2122510A2 (en) * | 2007-02-14 | 2009-11-25 | Museami, Inc. | Music-based search engine |
JP5115966B2 (ja) * | 2007-11-16 | 2013-01-09 | 独立行政法人産業技術総合研究所 | 楽曲検索システム及び方法並びにそのプログラム |
JP4973537B2 (ja) * | 2008-02-19 | 2012-07-11 | ヤマハ株式会社 | 音響処理装置およびプログラム |
US9253560B2 (en) * | 2008-09-16 | 2016-02-02 | Personics Holdings, Llc | Sound library and method |
JP5515317B2 (ja) * | 2009-02-20 | 2014-06-11 | ヤマハ株式会社 | 楽曲処理装置、およびプログラム |
JP5560861B2 (ja) * | 2010-04-07 | 2014-07-30 | ヤマハ株式会社 | 楽曲解析装置 |
US20140207456A1 (en) * | 2010-09-23 | 2014-07-24 | Waveform Communications, Llc | Waveform analysis of speech |
JP5842545B2 (ja) * | 2011-03-02 | 2016-01-13 | ヤマハ株式会社 | 発音制御装置、発音制御システム、プログラム及び発音制御方法 |
-
2011
- 2011-05-26 JP JP2011118517A patent/JP5333517B2/ja not_active Expired - Fee Related
-
2012
- 2012-05-24 EP EP12169251.1A patent/EP2528054A3/en not_active Withdrawn
- 2012-05-24 US US13/480,318 patent/US20120300950A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20120300950A1 (en) | 2012-11-29 |
EP2528054A3 (en) | 2016-07-13 |
JP2012247957A (ja) | 2012-12-13 |
EP2528054A2 (en) | 2012-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5333517B2 (ja) | データ処理装置およびプログラム | |
US8415549B2 (en) | Time compression/expansion of selected audio segments in an audio file | |
US7952012B2 (en) | Adjusting a variable tempo of an audio file independent of a global tempo using a digital audio workstation | |
TWI433027B (zh) | 適應性使用者介面 | |
JP5949544B2 (ja) | リズムパターンの類似度に基づく楽音データの検索 | |
JP4487958B2 (ja) | メタデータ付与方法及び装置 | |
US8198525B2 (en) | Collectively adjusting tracks using a digital audio workstation | |
JP2010521021A (ja) | 楽曲ベースの検索エンジン | |
US8554348B2 (en) | Transient detection using a digital audio workstation | |
US20110015767A1 (en) | Doubling or replacing a recorded sound using a digital audio workstation | |
WO2017028686A1 (zh) | 一种信息处理方法、终端设备及计算机存储介质 | |
JP2006510944A (ja) | オーディオ信号解析方法および装置 | |
US11295715B2 (en) | Techniques for controlling the expressive behavior of virtual instruments and related systems and methods | |
JP5879996B2 (ja) | 音信号生成装置及びプログラム | |
JP6288197B2 (ja) | 評価装置及びプログラム | |
JP6102076B2 (ja) | 評価装置 | |
WO2014142200A1 (ja) | 音声処理装置 | |
JP4491743B2 (ja) | カラオケ装置 | |
JP5742472B2 (ja) | データ検索装置およびプログラム | |
JP5510207B2 (ja) | 楽音編集装置及びプログラム | |
WO2023062865A1 (ja) | 情報処理装置および方法、並びにプログラム | |
JP6114492B2 (ja) | データ処理装置およびプログラム | |
WO2014142201A1 (ja) | 分離用データ処理装置およびプログラム | |
JP4613924B2 (ja) | 曲編集装置およびプログラム | |
WO2021124919A1 (ja) | 情報処理装置および方法、並びにプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130416 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130617 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130702 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130715 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5333517 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |