May 07, 2015
動画投稿サイトの代名詞ともいえるYouTube
日本では個人をはじめ,企業等でもYouTubeを利用した動画投稿がメジャーになっている.
私もT'sLABチャンネルや個人的な動画を投稿する為に利用しているわけだが,バンドや遠方の家族と限定的に内輪で共有したい映像や音声もあったりするものである.
と,言う事で今回はYouTube利用者でも意外と知らない『限定公開』の機能について紹介したいと思う.
まず,ユーザーログイン後にアップロード画面を立ち上げる.
この"公開"のドロップボックスは以下の3択から選べる.
・公開(デフォルト):一般公開され,タイトルやタグ情報等を元に検索可能
・限定公開:URLのみでアクセスできる動画.検索エンジン等では検索できない
・非公開:アップロードした管理者以外は視聴できない
各種,特徴が違うのが判るだろうか?
これらの設定はアップロード後も設定が可能になっている
通常の動画閲覧と同じ手軽さでありながらもセキュリティーはYouTubeの特徴である"ダウンロード"ではなく"ストリーミング"にてサイト内・外で共有できると言う状態になる.検索サイト等からもアクセスできるため"多くの人たちに見てもらう"目的での投稿になる.
『限定公開』は,YouTubeID等を所有していなくても見れる為,団体内やファンクラブ等で限定的に公開するのに優れている.
但し,URLがわかりさえすれば誰でもアクセスできるためセキュリティー上の弱さはある.
SNS等で拡散したり共有したメンバー内で拡散されてしまう恐れがある事が懸念事項として残るが一般公開のように検索で誰でも見れるものではない.
『非公開』は一見不要にも思えるかもしれないが例えば団体でIDを共有している場合等に使うことができる.
YouTubeのIDとパスワードを知っている者しか見れないためセキュリティーは強固である.
但し,YouTubeにログインできない環境では見る事ができないため主に一時的に公開や限定公開を取りやめたい場合等で用いられる事が多いとは思う.
以上のように設定する事で動画の閲覧方法をコントロールする事ができる.
どうしても一般の人には見られたくない動画を手軽に限定公開したりする場合,わざわざファイル転送サービスやFTPサーバーによるやり取り等をしなくて済むのは便利ではないかと思う.
スマフォやタブレット等ではファイルによる受取だと圧縮ファイルが開けなかったり,ファイル形式によっては再生できなかったりと様々な不都合がある.
YouTubeも取決めの元で正しく使用すると色々な使い方ができて便利であるのがわかっていただけただろうか?
ただし,くれぐれも著作権の侵害をしないように気を付けて欲しいと言うのは公開・非公開でも共通の項目である.
ルールに則って便利に上手に活用しよう!
日本では個人をはじめ,企業等でもYouTubeを利用した動画投稿がメジャーになっている.
私もT'sLABチャンネルや個人的な動画を投稿する為に利用しているわけだが,バンドや遠方の家族と限定的に内輪で共有したい映像や音声もあったりするものである.
と,言う事で今回はYouTube利用者でも意外と知らない『限定公開』の機能について紹介したいと思う.
まず,ユーザーログイン後にアップロード画面を立ち上げる.
[画像:001]
次にアップロード画面にてアップロードしたい動画ファイル(mp4,3gp,flv等)をドラックアンドドロップまたはファイルから選択にて選択する事になるわけだが,その前にドロップボックスがある事に気が付くだろうか?[画像:002]
通常は"公開"が選ばれておりそのままアップロードすると処理後は一般公開されてしまう.この"公開"のドロップボックスは以下の3択から選べる.
・公開(デフォルト):一般公開され,タイトルやタグ情報等を元に検索可能
・限定公開:URLのみでアクセスできる動画.検索エンジン等では検索できない
・非公開:アップロードした管理者以外は視聴できない
各種,特徴が違うのが判るだろうか?
これらの設定はアップロード後も設定が可能になっている
[画像:003]
『公開』は最もポピュラーな使い方と言う事になるかと思う.通常の動画閲覧と同じ手軽さでありながらもセキュリティーはYouTubeの特徴である"ダウンロード"ではなく"ストリーミング"にてサイト内・外で共有できると言う状態になる.検索サイト等からもアクセスできるため"多くの人たちに見てもらう"目的での投稿になる.
『限定公開』は,YouTubeID等を所有していなくても見れる為,団体内やファンクラブ等で限定的に公開するのに優れている.
但し,URLがわかりさえすれば誰でもアクセスできるためセキュリティー上の弱さはある.
SNS等で拡散したり共有したメンバー内で拡散されてしまう恐れがある事が懸念事項として残るが一般公開のように検索で誰でも見れるものではない.
『非公開』は一見不要にも思えるかもしれないが例えば団体でIDを共有している場合等に使うことができる.
YouTubeのIDとパスワードを知っている者しか見れないためセキュリティーは強固である.
但し,YouTubeにログインできない環境では見る事ができないため主に一時的に公開や限定公開を取りやめたい場合等で用いられる事が多いとは思う.
以上のように設定する事で動画の閲覧方法をコントロールする事ができる.
どうしても一般の人には見られたくない動画を手軽に限定公開したりする場合,わざわざファイル転送サービスやFTPサーバーによるやり取り等をしなくて済むのは便利ではないかと思う.
スマフォやタブレット等ではファイルによる受取だと圧縮ファイルが開けなかったり,ファイル形式によっては再生できなかったりと様々な不都合がある.
YouTubeも取決めの元で正しく使用すると色々な使い方ができて便利であるのがわかっていただけただろうか?
ただし,くれぐれも著作権の侵害をしないように気を付けて欲しいと言うのは公開・非公開でも共通の項目である.
ルールに則って便利に上手に活用しよう!
April 16, 2015
現象
ZOOMのQ3HDで収録中に電源シャットダウン.
ファイルが壊れたのかPCはもちろんQ3HDでも再生・開示不能になった.
同じ症状にぶち当たって困ってる方の役に立てればと言う事で記録に残す.
尚,iPhoneやiPodtouchでよくあるボイスレコーダーで発生するファイル破損もデコードまでの手法で直る.
Q3HDはデフォルト設定で収録データは以下の状態
形式:AAC
ファイル拡張子:.M4A
サンプリング周波数:48KHz
ファイル名:ZOOM0002
準備するもの
・バイナリエディタ
(私はStirlingを使用※(注記)別のものでもOK)
・FAAD2v20100614 CVS snapshot for Win32
(CUIデコーダ.不安なら,GUIの『theFrontendでも可能かも...)
・ほんの少しのやる気と勇気
(これが一番重要!)
手段
まず対象となるファイルをバイナリエディタで開く.
無効なヘッダ部分を削除したいので[ctrl]+[f]で検索を開き"mdat"を検索.
mdatのtの文字(0x 74)から先頭までを選択して思い切って[Delete]
念のためファイル名を"ZOOM0002_.M4A"に変更して保存.
次に先ほどヘッダ部分を削除したファイルをAAC devoderを用いて.M4A ⇒ .wav 化
ヘッダがないファイルは通常の方法でははじかれてしまい開けない為,今回はFAAD2と言うデコーダを使用.
faadをDL後,任意の場所へ.zip解凍し同じフォルダー内に今回対象となるファイル"ZOOM0002_.M4A"を入れておく.
Windowsの『スタート』メニュー(win7デフォルトならWindowsマーク)より"プログラムとファイルの検索"に『cmd』と入力して『cmd.exe』を選択しコマンドプロンプトを立ち上げる.
初回階層では先ほどのデコーダを立ち上げられないので取りあえず『faad2~』のフォルダを開きリンクバーのリンク情報をコピーしておく.
コマンドプロンプトにてコマンドで階層移動.
移動はcdコマンド.
判らなければ cd /? で入力方法の情報が見れる.
cd /d フォルダー階層パス を入力して階層移動し以下のコマンドでプログラムを走らせる.
faad.exe "ZOOM0002_.M4A"
" "内部はデコード対象となるaacファイルの名前.
Enterにて実行すると数分で完了(元ファイルのサンプリングレートが44.1KHzの場合はこれで問題なく終わるはず.多分iPhoneユーザーの方は終わり.え?wavファイルじゃ困るって?ではfaac等で再エンコードしてね)
・・・のはずが,38%で止まり..."Error: Maximum number of bitstream elements exceeded"が返ってきた.
英語苦手なんだけど(オイオイ
...要素がビットストリームの最大値を超えてる?
一応,生成されたwavファイルのプロパティを開いてみる.
ビットレートがおかしい(1411kbpsは44.1KHz16bitのCD音質ど同等.収録したのは48KHz16bit)
脱線解析
一応,確認のためにWavelabで聴いてみたら案の定ピッチ(音程)が低い.
これは,レコードで収録スピードと再生スピードが間違っている時に発生する"あれ"に近い現象.
たぶんさっきのエラーは元ファイルのaac内容が48KHz/192kbpsで可変ビットレートによる記録だったはずだのだが,デコード時に44.1KHzに変換されてしまい,『データ量とサンプリングレートが合ってないよ』って怒ったんだと思う.
そりゃそうだ,サンプリングレートが44.1KHzのファイルにデータ量が多い48KHzのデータをプロットしたら3.9KHz分のデータが余っちゃうじゃないか...
データ再改変
と言う事で,再びバイナリエディタでファイルを手直し.
要は,.wavデータのヘッダを直せばよい.
wavファイルのヘッダ情報構成は以下の通り
注意事項:データは下位バイトから上位バイトの順に書かれている!ZOOMのQ3HDで収録中に電源シャットダウン.
ファイルが壊れたのかPCはもちろんQ3HDでも再生・開示不能になった.
同じ症状にぶち当たって困ってる方の役に立てればと言う事で記録に残す.
尚,iPhoneやiPodtouchでよくあるボイスレコーダーで発生するファイル破損もデコードまでの手法で直る.
Q3HDはデフォルト設定で収録データは以下の状態
形式:AAC
ファイル拡張子:.M4A
サンプリング周波数:48KHz
ファイル名:ZOOM0002
準備するもの
・バイナリエディタ
(私はStirlingを使用※(注記)別のものでもOK)
・FAAD2v20100614 CVS snapshot for Win32
(CUIデコーダ.不安なら,GUIの『theFrontendでも可能かも...)
・ほんの少しのやる気と勇気
(これが一番重要!)
手段
まず対象となるファイルをバイナリエディタで開く.
無効なヘッダ部分を削除したいので[ctrl]+[f]で検索を開き"mdat"を検索.
mdatのtの文字(0x 74)から先頭までを選択して思い切って[Delete]
念のためファイル名を"ZOOM0002_.M4A"に変更して保存.
次に先ほどヘッダ部分を削除したファイルをAAC devoderを用いて.M4A ⇒ .wav 化
ヘッダがないファイルは通常の方法でははじかれてしまい開けない為,今回はFAAD2と言うデコーダを使用.
faadをDL後,任意の場所へ.zip解凍し同じフォルダー内に今回対象となるファイル"ZOOM0002_.M4A"を入れておく.
Windowsの『スタート』メニュー(win7デフォルトならWindowsマーク)より"プログラムとファイルの検索"に『cmd』と入力して『cmd.exe』を選択しコマンドプロンプトを立ち上げる.
005
初回階層では先ほどのデコーダを立ち上げられないので取りあえず『faad2~』のフォルダを開きリンクバーのリンク情報をコピーしておく.
コマンドプロンプトにてコマンドで階層移動.
移動はcdコマンド.
判らなければ cd /? で入力方法の情報が見れる.
cd /d フォルダー階層パス を入力して階層移動し以下のコマンドでプログラムを走らせる.
faad.exe "ZOOM0002_.M4A"
" "内部はデコード対象となるaacファイルの名前.
Enterにて実行すると数分で完了(元ファイルのサンプリングレートが44.1KHzの場合はこれで問題なく終わるはず.多分iPhoneユーザーの方は終わり.え?wavファイルじゃ困るって?ではfaac等で再エンコードしてね)
・・・のはずが,38%で止まり..."Error: Maximum number of bitstream elements exceeded"が返ってきた.
英語苦手なんだけど(オイオイ
...要素がビットストリームの最大値を超えてる?
一応,生成されたwavファイルのプロパティを開いてみる.
ビットレートがおかしい(1411kbpsは44.1KHz16bitのCD音質ど同等.収録したのは48KHz16bit)
脱線解析
一応,確認のためにWavelabで聴いてみたら案の定ピッチ(音程)が低い.
これは,レコードで収録スピードと再生スピードが間違っている時に発生する"あれ"に近い現象.
たぶんさっきのエラーは元ファイルのaac内容が48KHz/192kbpsで可変ビットレートによる記録だったはずだのだが,デコード時に44.1KHzに変換されてしまい,『データ量とサンプリングレートが合ってないよ』って怒ったんだと思う.
そりゃそうだ,サンプリングレートが44.1KHzのファイルにデータ量が多い48KHzのデータをプロットしたら3.9KHz分のデータが余っちゃうじゃないか...
データ再改変
と言う事で,再びバイナリエディタでファイルを手直し.
要は,.wavデータのヘッダを直せばよい.
wavファイルのヘッダ情報構成は以下の通り
4byte 文字列『RIFF』
4byte 総ファイルサイズ-8byte
4byte 文字列『WAVE』
4byte フォーマットチャンク(文字列『fmt』)
4byte フォーマットサイズ(default 16)
2byte フォーマットコード(非圧縮PCM 1)
2byte チャンネル数(mono 1/stereo 2)
4byte サンプリングレート(44.1kHz⇒44 AC 00 00)
4byte バイト/秒
2byte ブロックの境界(2ch16bit時16bit*2ch⇒32bit⇒4byte
2byte ビット/サンプル(1サンプル毎のビット数)
4byte フォーマットチャンク(文字列『data』)
4byte 総ファイルサイズ-126
以降,音声データ
解説
注意の通りに読むと44.1kHzは本来44,100Hzと言う事になるので16進数にすると4byteなので"0x 00 00 AC 44"となるため逆から"44 AC 00 00"と書かれているはず.
冒頭から25バイト目を見れば判る.
ここを48KHzに書き換える.
48kHzは48,000Hzなので4byteなら"0x 00 00 BB 80"となる.下位バイトから書くため逆転して"80 BB 00 00"となるので"44 AC"を"80 BB"と書き換えれば終了.
ファイル名を"ZOOM0002__.wav"として保存.
一応,プロパティを確認したらビットレートから"1411kbps"が消滅.
念には念をで一応開いて再生したら音程がオリジナルになってデータも48KHzに変っていた.
※(注記)wavファイルをm4aに戻したい場合⇒faac等を使って再エンコード(iTunesでもできるかも)
以上で,終了.
おつかれさま.
一応,事の発端
信濃路☆変の練習音源をQ3HDで音声のみにして毎回収録している.
取りこぼしが嫌なので録りっぱなのだが2〜3時間ある為,電池切れが怖くDCアダプタ.
ただ,今回は何故だか大本のACプラグ接触不良で準備中も何度かシンセが落ちた.
安定したので高をくくって収録を始めたのだが練習終わった瞬間悲劇が・・・
Q3HDのRecボタンを押す間もなく電源が落ちていた.
Zoomの特徴なんだが,ファイルのヘッダ情報を収録時には作成せず録音終了後に作成するっぽい.
その上,終了シーケンスなんてもんは走らないのかデータは蓄積されるが強制終了するとヘッダが正常じゃないファイルが残るためデータはあるのに開けなくなる.
実は以前も同社製H2を使用していた時に同じ現象にぶち当たりファイル復旧活動をしたことがあったのだが,その時はPCMすなわち.wavで収録.
固定ビットレートなのでwavlabを使えば"属性からファイルを開く"と言う魔法の手段で開ける.
と,言う事で安心して(?)その日は眠りについた.
しかし翌日,夜な夜なファイルを見てみたら2重の悲劇.
ファイルはM4A.
Windowsユーザーにはなじみが薄いだろうけど要するに非圧縮のAACファイル.
さて,困った.
AACの中身は案の定サンプリングレートとbit/sampleで記載されているため魔法の手段で開示できない.
H2ではPCMがデフォルト設定だったが映像を収録出来るQ3HDはAACの48kがデフォルト設定されていたらしい.
(もち電池駆動じゃないから毎回デフォルトになっちゃうが面倒なので変更せずに収録してた)
仕方がないのでファイルを直接いじることにしたのだった.
最初はどうなるかと思ったが一応,ファイルは直った.
でめたしでめたし.
April 08, 2015
ICONにて私も使用するSteinberg社URシリーズの記事が出ていた.
記事のURL
技術開発者自らがインタビューに応えていると言う事で非常に興味深い内容だった.
シリーズ初期のSteinberg UR28Mが私のメインI/F.
USBになってURシリーズが出た走りのモデルでありデジタル部分としては96kHz24bitと時代遅れと言われてしまうかもしれないモデルだが現在でもファームウェアの更新等は継続している.
購入当時は,T'sLABの再開や自己のアルバム制作に奮闘しており,この据え置きタイプなモデルをスタジオと自宅で崩してはセットしてをしまくって大変だった記憶はあるが,不都合があっても不具合に見舞われたことはない.
実は,私のAudioI/F歴は短くYAMAHA社のUW500から始まり,同社GO46を経て現在のSteinberg社MR816XやUR28Mという流れである.
悪名高きGO46で泣いたこともあったがその点,URでは不安定さをほとんど感じたことがない.
その秘密はノウハウが蓄積されたUSBという熟成された通信規格のお陰だと思っていたが実際にはMRシリーズ(FireWire搭載モデル)もコンセプトは同じらしい.
その内容はメーカーが取り組んだ地道な検証とマイナーアップデートによる修正の繰り返しによるものであるとこの記事を読んで明確になった.
ついでなので私的にUR28Mというモデルを少し紹介.
・外見について
ボディー構成は現状のURシリーズにて標準である金属フレームは採用されておらず,EMI(電磁妨害)やEMS(電磁感受性)等のEMC(電磁両立性)観点から言えば少し弱そうにも見えるかもしれない.
実際問題,目に見えるものではないしその影響性を確認するためにはスペクトラムアナライザで磁場を見るしかない.
ただ,厳しい規定をクリアした上で出荷になるわけであり大きな問題になる事は無いだろう.
因みに,昔使っていたYAMAHAのUW500は金属ボディー.
UWは発熱の多いDC/DCがメイン基板から浮いており金属フレームに取り付けられていた.
EMCと言うよりは排熱の観点や持ち運びを考慮した筐体強度からボディーの金属化が採用されるケースもあるため一様には言えない.
UR28Mはもとより据え置き型として設計されており筐体は大きく内部空間もあるためUR22や44他,兄弟モデルに比べて基板上の部品間クリアランスも多く取れているハズであり排熱や落下試験での問題はエンドユーザーが気にする事はないのだろう.
筐体サイズは少し大きいため,狭い部屋でノートパソコンによるDAW環境を考える人には不向きかと思う.
その分,出力やモニタリングコントロール機能の充実度が高い.
重量はそれなりにあり,導入当初スタジオを行き来していた私にはネックだったが,据え置きと言う観点ではケーブルの抜き差し時も安定するし,全ての端子にケーブルがジョイントされていても浮いたり動いたりしないという点で優秀である.
操作パネルが上方にあるおかげで,場所は占有されるがその分ミュートやボリューム操作は非常にやりやすい.
宅禄などで,UR824のような1Uラックタイプだと背面接続やラック固定化等が起因でかえって使いにくい場合がある.
そういう人たちにはUR28Mのデザインは非常にいいのではないかと思う.
塗装はUR824との一貫性なのかシルバーがメインで整えられている.
私はMac使いじゃないのでシルバー感に特別な意識はないがTomのUR22やUR44を見ても質感はいい.
UR22以降のモデルでは黒に重点を置かれている気がするがシリーズとして違和感はない.
デスクトップにあると気になりやすいのがイルミネーション.
UR28Mは電源ボタンが白色,その他が橙と緑で整えられている.
赤/緑のLEDで調整しているのだろうか光度はまぶしくもなく暗くもない.
私は色盲ではないと思うのでこの配色で困る事は無い.
最近はカラーユニバーサルデザインと言うか色盲(色覚)バリアフリーの観点から青色LEDや白色(3色)LEDが使われるが,空間上にあまりない青色は光度が低くても非常に目につきやすく冷たさも感じる配色.
現行のURシリーズは全て青色だがUR28Mはそういう意味でもイルミネーションが多い割に気にならない.
・機能について
まずUR28Mの特徴は入力はもちろんだが出力の充実度と言える.
トップパネルの使い勝手や内部配線の設定方法等はとりあえず置いておいて,出力系統がステレオ4系統(アナログ3,デジタル1,ヘッドフォン2)使えると言うのは一般ニーズには十二分な構成である.
個人的には8chADATやMIDI I/Oもあって欲しかったというのが本心だが価格を考えれば仕方がない.
スタジオ作業ではフロアモニタ用,ヘッドフォンモニタリング用,レコーディング用と出力毎にミックスが異なることもしばしば.
もちろん,それ用にDAWでデータを整えておかないといけないため事前準備は非常に大変なのだがレコーディングの時はヘッドフォンアンプだとか,サブミキサーだとかを余分に持ち出す必要がない分,現場作業(セッティング)が楽なのは言うまでもない.
ただ,UR28Mのサイズ感だとモバイルよりは据え置きを想定している事から矛盾感もあるのは否めない...
宅レコ環境としてはサブウーファーやモニタスピーカ等,複数の出力機器に分岐出力(バイアンプ接続風)する時にスプリッタ等を用意しなくてすむ点がいい(DAW側でチャンネル毎にミックスをすればチャンネルデバイダーもいらない)
また,開発側でも注力した機能だと思うが複数のモニタースピーカを切り替える用途での勝手は非常によい.
例えばAポートにEDIROL MA20D,BポートにYAMAHA MSP3,CポートにGenelec 8020Bをつないだ場合ケーブルの抜き差しも電源のON/OFFもする事なくトップパネルのボタン一つで切り替えが可能になるためスピーカ別出音の違いがスムーズに確認できる.
その他にDIMMER(一気に弱音化させるボタン),モノミックスまたミュートが各1ボタンでできる点が素晴らしい.
制作中は余分な作業が一番時間を無駄にし,本来の目的を見失う原因になりやすいため切り替え器としての機能も意外と重要だし,制作スペースである机の上にいくつものハードが並ぶのは逆に非効率になったりする.
モニタリングのための機能を全てデスクトップの1機種で賄えるというのは非常に理に叶っているのだと思う.
また,スプリッタ類が必要ないと言う事はそれだけ間に機器がないわけだから出音の差も出にくいだろう.
実質的に差がケーブルとスピーカ配置程度になるのは検証にもってこいのセッティングが確保できる事になる.
URシリーズで一番評価すべきはDSPを利用した『dspMixFx』機能だと思う.
オーディオI/Fでありながらもミックスが細かく指定出来たりコンプレッサや空間エフェクトはもちろん,現在のバージョンではアンプシミュレータ等もスタンドアロンで使用可能と言うのはすごい事である.
DAWソフト作業でもその恩恵は受けられる.
視聴用の音だけにエフェクトをかけるダイレクトモニタリングレコーディングが可能だし,低スペックのPCでもDSPが処理しているエフェクト部分は負荷がかからないわけで余計な心配をしない分作業に没頭できる.
因みに,現状のバージョンではiPad等でも使える(モデルにより電源の有無は異なる)
出力には今やエントリーモデルにも当然のように装備されているがTRS出力が標準装備.
スタジオやステージでDIを用いることなくロング配線できるのは個人的にうれしいが,自分がPAの時くらいしかできないのが残念(XLR-TRS変換が必要なのでPA屋は毛嫌いするため)
ただ,恩恵を受けている人がどれだけいるかはわからない.実際,自宅では私もほとんどTS配線...
こう書くと意外とオーバースペックな部分が沢山あるのかもしれない.
因みに,パラ出力や各チャンネルの細かな設定はPCやiOS等のアプリケーションからしかできない.
持ち歩かない前提ならいいのかもしれないがミキサーやスプリッター,マイクプリアンプとしても使いたいと思うユーザーにとっては不便かもしれない.
・入力について
入力部分はマイクプリアンプ搭載ポートが2chとアナログ入力が2ch1系統,デジタル(S/PDIF)コアキシャルが1系統,その他にミキサーで言うところのTAPE IN的な役割のステレオ入力が1系統(DAWとして録音ポートとしては使えない)と充実している.
個人的にはTAPE IN的なステレオ入力がポイント.
DAW用のモニタスピーカでiPod TouchやKindoleのオーディオ出力を再生させたりするシーンは結構あるが,再生の度に差し替えたり録音もしないのにDAWの入力ポートに入れるのはナンセンスと感じるが,それを解消してくれるのがこのステレオ入力ポート.
トップパネルにて独立してMUTEが可能な部分はPA屋も納得の仕様だと思う.
UW500ではRCAピンコネクタを採用していたが,おそらくI/F基板の都合や用途からステレオミニ化されたのだろうと思う.
プリアンプ部分は民生機器信号レベルからギター等のハイインピーダンスに至るまでを各種PADやHi-zスイッチにて対応可能の万能入力ポートとなっている.
回路はその分多くなっているだろうが低ノイズのロスレス感は高級機に匹敵すると感じるレベルであり,プリアンプ性能バツグンで入力音も申し分ない.
インピーダンス測定等をしっかりと行った事は無いが,逆を言えば調査するほど気になる事がなかったと言う事でありその優秀さはアマチュアが使うに十二分な性能である.
私は"ピュアモニタ感"とか"原音忠実"という無責任な言葉をあまり多用したくない派だが,メーカーが設計や評価段階での『原音忠実』を謳っているだけの事はあるとだけ付け加えておく.
記事にも書いてあるがURシリーズの『D-PRE』という名のプリアンプはインバーテッドダーリントン回路を採用している.
インバーテッドダーリントン回路を低価格帯のましてやAudioI/Fで採用しているケースはあまり聞いたことがない.
私自身も色々なオーディオ回路を分解しているが出会った事は無い.
個人的にはインバーテッドダーリントン回路はその他の回路構成のアンプよりも発振しやすい傾向がある印象がある.
故に回路調整が非常に難しく調整時間がかかる為,一般的には高価なAudio機器にしか採用されなかったりする.
こだわりDIY派の人だと自分で組むのかもしれないが,少なくとも私は自分用の回路で採用した事はない.
DIYでも回路をただ組むだけではなくオシロスコープで実波形を確認しながら追い込んでいくだろう.
それでも実際,ブレットボードで組んだ回路をプリント基板化したらアートワークやその他の要因で波形特性が変わってしまったり部品精度のバラつきで全く意図しない出音になってしまったりとオーディオDIYの難しさを感じる部分とも思う.
メーカー設計でも蓄積されているノウハウの量と質が桁違いなだけで基本的には同じだと思う.
また,オーディオ機器は波形測定にも限界があり,聴感評価が結構多くなる.
趣味のDIYなら自分の好みに調整すればよいのだが,メーカーとして製品カテゴリー内に収まる音を作るためには部門をまたいでの製品評価が必要になるわけで非常に大変なのではないかと思う.
記事ではサラリと"調整しました"と述べているに過ぎないが,これらの事を総合してもインバーテッドダーリントン回路を採用したと言う事は相当の開発費が費やされた事が明確であり本気度が伺える.
インバーテッドダーリントン回路が万能で最優秀だとは思わないがその開発姿勢には脱帽である.
何よりもその技術を高級モデルから入門モデルに至るまで惜しげもなく採用しているという太っ腹感は日本ならではなのかもしれないと思ってしまった.
そういう意味でもURシリーズは今後のAudioI/F業界を大きく動かす原動力になるかもしれない.
以上のようにURシリーズの人気の裏側は記事からももちろんの事ながら機種単体を細かく見てもその魅力がわかるのではないかと思う.
GO46の不具合には頭を悩まされ独自に色々調べたりPC側の解析にはPanasonicにも協力してもらって―.結局,YAMAHAには解析協力してもらえず数か月後には生産完了してサポートを打ち切りされてしまいと相当苦悩した.
値段的にはUR28Mクラスだったのだが当分YAMAHA製AudioI/Fは買いたくないとすら思ったものだ.
ただ,如何なものかと思いつつも独自に調べ上げた結果,私の環境ではまずLet'sNote&PCカードtoFireWireでの作業確立をあきらめPrimePCを調達.それでも不具合は収まらずFireWirePCIボードをTEXAS INSTRMRENTS製チップセット化.
電源が不安定になる事が起因でも不具合発生と言う話からPCからの電源配給を無効かするため6pinを4pin変換化までしてだましだまし使っていた.
エンドユーザーの立場からすれば,決定的な慢性トラブルだったのかもしれないけど,使う側もそれ相応の知識がないといけないと僕は中学の時から学んでいたためあれこれ苦戦しながらも手を尽くして使っていた.
こう言う考え方は小学校時代からMSXやPC98を触れられる環境を作ってくれた兄のおかげなのかもしれないとつくづく思うがGOシリーズを用いていた頃,制作に集中できなかったのは言うまでもない.
それに比べ技術的な部分を設計者自らが説明している内容からもうかがえるだろうが,URシリーズは信頼性バツグンであり自信を持って皆さんにお勧めできる機種だ.
音響機材は市場サイズの大きさから海外シーンが重視されてしまう傾向があるがモバイル用途の目立つURシリーズは非常に日本のシーンにマッチしている気がする.
仕向け別にモデルを分けているかは記事からでは判らないが日本人にも好まれるYAMAHAスタイルがうまく取り入れられているのだと思いたい.
当分,I/Fの更新は考えていないが今後もSteinbergには売れている現状に甘んじることなく安定したAudioI/Fの販売を期待する.
記事のURL
技術開発者自らがインタビューに応えていると言う事で非常に興味深い内容だった.
シリーズ初期のSteinberg UR28Mが私のメインI/F.
USBになってURシリーズが出た走りのモデルでありデジタル部分としては96kHz24bitと時代遅れと言われてしまうかもしれないモデルだが現在でもファームウェアの更新等は継続している.
購入当時は,T'sLABの再開や自己のアルバム制作に奮闘しており,この据え置きタイプなモデルをスタジオと自宅で崩してはセットしてをしまくって大変だった記憶はあるが,不都合があっても不具合に見舞われたことはない.
実は,私のAudioI/F歴は短くYAMAHA社のUW500から始まり,同社GO46を経て現在のSteinberg社MR816XやUR28Mという流れである.
悪名高きGO46で泣いたこともあったがその点,URでは不安定さをほとんど感じたことがない.
その秘密はノウハウが蓄積されたUSBという熟成された通信規格のお陰だと思っていたが実際にはMRシリーズ(FireWire搭載モデル)もコンセプトは同じらしい.
その内容はメーカーが取り組んだ地道な検証とマイナーアップデートによる修正の繰り返しによるものであるとこの記事を読んで明確になった.
ついでなので私的にUR28Mというモデルを少し紹介.
ur28m
・外見について
ボディー構成は現状のURシリーズにて標準である金属フレームは採用されておらず,EMI(電磁妨害)やEMS(電磁感受性)等のEMC(電磁両立性)観点から言えば少し弱そうにも見えるかもしれない.
実際問題,目に見えるものではないしその影響性を確認するためにはスペクトラムアナライザで磁場を見るしかない.
ただ,厳しい規定をクリアした上で出荷になるわけであり大きな問題になる事は無いだろう.
因みに,昔使っていたYAMAHAのUW500は金属ボディー.
UWは発熱の多いDC/DCがメイン基板から浮いており金属フレームに取り付けられていた.
EMCと言うよりは排熱の観点や持ち運びを考慮した筐体強度からボディーの金属化が採用されるケースもあるため一様には言えない.
UR28Mはもとより据え置き型として設計されており筐体は大きく内部空間もあるためUR22や44他,兄弟モデルに比べて基板上の部品間クリアランスも多く取れているハズであり排熱や落下試験での問題はエンドユーザーが気にする事はないのだろう.
筐体サイズは少し大きいため,狭い部屋でノートパソコンによるDAW環境を考える人には不向きかと思う.
その分,出力やモニタリングコントロール機能の充実度が高い.
重量はそれなりにあり,導入当初スタジオを行き来していた私にはネックだったが,据え置きと言う観点ではケーブルの抜き差し時も安定するし,全ての端子にケーブルがジョイントされていても浮いたり動いたりしないという点で優秀である.
操作パネルが上方にあるおかげで,場所は占有されるがその分ミュートやボリューム操作は非常にやりやすい.
宅禄などで,UR824のような1Uラックタイプだと背面接続やラック固定化等が起因でかえって使いにくい場合がある.
そういう人たちにはUR28Mのデザインは非常にいいのではないかと思う.
塗装はUR824との一貫性なのかシルバーがメインで整えられている.
私はMac使いじゃないのでシルバー感に特別な意識はないがTomのUR22やUR44を見ても質感はいい.
UR22以降のモデルでは黒に重点を置かれている気がするがシリーズとして違和感はない.
デスクトップにあると気になりやすいのがイルミネーション.
UR28Mは電源ボタンが白色,その他が橙と緑で整えられている.
赤/緑のLEDで調整しているのだろうか光度はまぶしくもなく暗くもない.
私は色盲ではないと思うのでこの配色で困る事は無い.
最近はカラーユニバーサルデザインと言うか色盲(色覚)バリアフリーの観点から青色LEDや白色(3色)LEDが使われるが,空間上にあまりない青色は光度が低くても非常に目につきやすく冷たさも感じる配色.
現行のURシリーズは全て青色だがUR28Mはそういう意味でもイルミネーションが多い割に気にならない.
・機能について
まずUR28Mの特徴は入力はもちろんだが出力の充実度と言える.
トップパネルの使い勝手や内部配線の設定方法等はとりあえず置いておいて,出力系統がステレオ4系統(アナログ3,デジタル1,ヘッドフォン2)使えると言うのは一般ニーズには十二分な構成である.
個人的には8chADATやMIDI I/Oもあって欲しかったというのが本心だが価格を考えれば仕方がない.
スタジオ作業ではフロアモニタ用,ヘッドフォンモニタリング用,レコーディング用と出力毎にミックスが異なることもしばしば.
もちろん,それ用にDAWでデータを整えておかないといけないため事前準備は非常に大変なのだがレコーディングの時はヘッドフォンアンプだとか,サブミキサーだとかを余分に持ち出す必要がない分,現場作業(セッティング)が楽なのは言うまでもない.
ただ,UR28Mのサイズ感だとモバイルよりは据え置きを想定している事から矛盾感もあるのは否めない...
宅レコ環境としてはサブウーファーやモニタスピーカ等,複数の出力機器に分岐出力(バイアンプ接続風)する時にスプリッタ等を用意しなくてすむ点がいい(DAW側でチャンネル毎にミックスをすればチャンネルデバイダーもいらない)
また,開発側でも注力した機能だと思うが複数のモニタースピーカを切り替える用途での勝手は非常によい.
例えばAポートにEDIROL MA20D,BポートにYAMAHA MSP3,CポートにGenelec 8020Bをつないだ場合ケーブルの抜き差しも電源のON/OFFもする事なくトップパネルのボタン一つで切り替えが可能になるためスピーカ別出音の違いがスムーズに確認できる.
その他にDIMMER(一気に弱音化させるボタン),モノミックスまたミュートが各1ボタンでできる点が素晴らしい.
制作中は余分な作業が一番時間を無駄にし,本来の目的を見失う原因になりやすいため切り替え器としての機能も意外と重要だし,制作スペースである机の上にいくつものハードが並ぶのは逆に非効率になったりする.
モニタリングのための機能を全てデスクトップの1機種で賄えるというのは非常に理に叶っているのだと思う.
また,スプリッタ類が必要ないと言う事はそれだけ間に機器がないわけだから出音の差も出にくいだろう.
実質的に差がケーブルとスピーカ配置程度になるのは検証にもってこいのセッティングが確保できる事になる.
URシリーズで一番評価すべきはDSPを利用した『dspMixFx』機能だと思う.
オーディオI/Fでありながらもミックスが細かく指定出来たりコンプレッサや空間エフェクトはもちろん,現在のバージョンではアンプシミュレータ等もスタンドアロンで使用可能と言うのはすごい事である.
DAWソフト作業でもその恩恵は受けられる.
視聴用の音だけにエフェクトをかけるダイレクトモニタリングレコーディングが可能だし,低スペックのPCでもDSPが処理しているエフェクト部分は負荷がかからないわけで余計な心配をしない分作業に没頭できる.
因みに,現状のバージョンではiPad等でも使える(モデルにより電源の有無は異なる)
出力には今やエントリーモデルにも当然のように装備されているがTRS出力が標準装備.
スタジオやステージでDIを用いることなくロング配線できるのは個人的にうれしいが,自分がPAの時くらいしかできないのが残念(XLR-TRS変換が必要なのでPA屋は毛嫌いするため)
ただ,恩恵を受けている人がどれだけいるかはわからない.実際,自宅では私もほとんどTS配線...
こう書くと意外とオーバースペックな部分が沢山あるのかもしれない.
因みに,パラ出力や各チャンネルの細かな設定はPCやiOS等のアプリケーションからしかできない.
持ち歩かない前提ならいいのかもしれないがミキサーやスプリッター,マイクプリアンプとしても使いたいと思うユーザーにとっては不便かもしれない.
ur28m_rear
・入力について
入力部分はマイクプリアンプ搭載ポートが2chとアナログ入力が2ch1系統,デジタル(S/PDIF)コアキシャルが1系統,その他にミキサーで言うところのTAPE IN的な役割のステレオ入力が1系統(DAWとして録音ポートとしては使えない)と充実している.
個人的にはTAPE IN的なステレオ入力がポイント.
DAW用のモニタスピーカでiPod TouchやKindoleのオーディオ出力を再生させたりするシーンは結構あるが,再生の度に差し替えたり録音もしないのにDAWの入力ポートに入れるのはナンセンスと感じるが,それを解消してくれるのがこのステレオ入力ポート.
トップパネルにて独立してMUTEが可能な部分はPA屋も納得の仕様だと思う.
UW500ではRCAピンコネクタを採用していたが,おそらくI/F基板の都合や用途からステレオミニ化されたのだろうと思う.
プリアンプ部分は民生機器信号レベルからギター等のハイインピーダンスに至るまでを各種PADやHi-zスイッチにて対応可能の万能入力ポートとなっている.
回路はその分多くなっているだろうが低ノイズのロスレス感は高級機に匹敵すると感じるレベルであり,プリアンプ性能バツグンで入力音も申し分ない.
インピーダンス測定等をしっかりと行った事は無いが,逆を言えば調査するほど気になる事がなかったと言う事でありその優秀さはアマチュアが使うに十二分な性能である.
私は"ピュアモニタ感"とか"原音忠実"という無責任な言葉をあまり多用したくない派だが,メーカーが設計や評価段階での『原音忠実』を謳っているだけの事はあるとだけ付け加えておく.
[フレーム]
記事にも書いてあるがURシリーズの『D-PRE』という名のプリアンプはインバーテッドダーリントン回路を採用している.
インバーテッドダーリントン回路を低価格帯のましてやAudioI/Fで採用しているケースはあまり聞いたことがない.
私自身も色々なオーディオ回路を分解しているが出会った事は無い.
個人的にはインバーテッドダーリントン回路はその他の回路構成のアンプよりも発振しやすい傾向がある印象がある.
故に回路調整が非常に難しく調整時間がかかる為,一般的には高価なAudio機器にしか採用されなかったりする.
こだわりDIY派の人だと自分で組むのかもしれないが,少なくとも私は自分用の回路で採用した事はない.
DIYでも回路をただ組むだけではなくオシロスコープで実波形を確認しながら追い込んでいくだろう.
それでも実際,ブレットボードで組んだ回路をプリント基板化したらアートワークやその他の要因で波形特性が変わってしまったり部品精度のバラつきで全く意図しない出音になってしまったりとオーディオDIYの難しさを感じる部分とも思う.
メーカー設計でも蓄積されているノウハウの量と質が桁違いなだけで基本的には同じだと思う.
また,オーディオ機器は波形測定にも限界があり,聴感評価が結構多くなる.
趣味のDIYなら自分の好みに調整すればよいのだが,メーカーとして製品カテゴリー内に収まる音を作るためには部門をまたいでの製品評価が必要になるわけで非常に大変なのではないかと思う.
記事ではサラリと"調整しました"と述べているに過ぎないが,これらの事を総合してもインバーテッドダーリントン回路を採用したと言う事は相当の開発費が費やされた事が明確であり本気度が伺える.
インバーテッドダーリントン回路が万能で最優秀だとは思わないがその開発姿勢には脱帽である.
何よりもその技術を高級モデルから入門モデルに至るまで惜しげもなく採用しているという太っ腹感は日本ならではなのかもしれないと思ってしまった.
そういう意味でもURシリーズは今後のAudioI/F業界を大きく動かす原動力になるかもしれない.
以上のようにURシリーズの人気の裏側は記事からももちろんの事ながら機種単体を細かく見てもその魅力がわかるのではないかと思う.
[フレーム]
GO46の不具合には頭を悩まされ独自に色々調べたりPC側の解析にはPanasonicにも協力してもらって―.結局,YAMAHAには解析協力してもらえず数か月後には生産完了してサポートを打ち切りされてしまいと相当苦悩した.
値段的にはUR28Mクラスだったのだが当分YAMAHA製AudioI/Fは買いたくないとすら思ったものだ.
ただ,如何なものかと思いつつも独自に調べ上げた結果,私の環境ではまずLet'sNote&PCカードtoFireWireでの作業確立をあきらめPrimePCを調達.それでも不具合は収まらずFireWirePCIボードをTEXAS INSTRMRENTS製チップセット化.
電源が不安定になる事が起因でも不具合発生と言う話からPCからの電源配給を無効かするため6pinを4pin変換化までしてだましだまし使っていた.
エンドユーザーの立場からすれば,決定的な慢性トラブルだったのかもしれないけど,使う側もそれ相応の知識がないといけないと僕は中学の時から学んでいたためあれこれ苦戦しながらも手を尽くして使っていた.
こう言う考え方は小学校時代からMSXやPC98を触れられる環境を作ってくれた兄のおかげなのかもしれないとつくづく思うがGOシリーズを用いていた頃,制作に集中できなかったのは言うまでもない.
それに比べ技術的な部分を設計者自らが説明している内容からもうかがえるだろうが,URシリーズは信頼性バツグンであり自信を持って皆さんにお勧めできる機種だ.
音響機材は市場サイズの大きさから海外シーンが重視されてしまう傾向があるがモバイル用途の目立つURシリーズは非常に日本のシーンにマッチしている気がする.
仕向け別にモデルを分けているかは記事からでは判らないが日本人にも好まれるYAMAHAスタイルがうまく取り入れられているのだと思いたい.
当分,I/Fの更新は考えていないが今後もSteinbergには売れている現状に甘んじることなく安定したAudioI/Fの販売を期待する.
March 31, 2015
アナログ伝送の弱点を克服するためにデジタル伝送が生まれているのは皆さんご存知かと思う.
言ってしまえばオーディオ信号の替わりに使われているAES/EBUやS/PDIF等のプロトコル(通信規格)技術を用いた伝送がそれにあたるわけで,見た目にはフォンケーブル等が光ケーブル等に変わっている事があげられる.
ケーブルやコネクタの形状が同じでも,通信プロトコルが異なると信号解釈がまるで違う事は既に姉妹ブログである鍵盤天国で記載済みだ.
平衡配線とAES/EBUの関係や不平衡ピン配線と同軸(コアキシャル)S/PDIFの関係がそれにあたると思う.
厳密に言えばコネクタ形状が同じに見えてもデジタル用にはインピーダンス調整が施されていたりと見た目以上の違いがあることもご存じの通りである.
今回,話題に挙げるのはフルデジタルスピーカ.
今までは伝送配線をデジタル化することで『伝送時に発生する音質劣化等を防ぐ』という働きだったわけだが,このフルデジタルスピーカやフルデジタルアンプというものはその概念とは異なる.
伝送のデジタル化は受ける機器,例えばスピーカ等の受動器側やアンプ等の増幅器側でD/A変換を行う必要がある.
これはスピーカのボイスコイル等がアナログ受けで振動し,音波にするためである.
フルデジタルスピーカとはその受動素子であるボイスコイルに位置する素子がアナログ波形による駆動ではなくHi/Lowのビット判定による駆動方式になったと言う事なのである.
これまでは伝送時に発生するノイズ対策としてのデジタル化がメインだったわけだが,今回のデジタル化は駆動素子の制御がデジタル化するという事であり根本的に違うことが判るかと思う.
これによる利点はD/A変換等の回路が省略できることがあげられる(概念としてはそういう理屈であると捉えてほしい.詳しくは後述)
また,信号増幅に用いられるアンプ回路を必要としない事やDSP(DigitalSignalProsesser)から直接コイルへ伝送するため沢山の電源を用いる必要がなくなる事でDC/DCの削減や省電力化につながる点があげられる.
その辺の理屈について少し解説してみる.
まず,デジタルを用いると言う事は伝送に用いられるプロトコルのままスピーカが駆動できるのか?と勘違いされてしまうかもしれないがそれは違う.
I2SやS/PDIF(AES/EBU)とも符合化の手法が違う為(詳しくは後述)D/D変換がDSP等で行われることになる.
尚,フルデジタルスピーカの概念自体は実は80年代に既に発案されていた内容である.
ただ,フルデジタルスピーカに用いられているD/D変換が80年や90年代初頭のコンピュータ処理スピードではリアルタイムに44.1kHz16bitのCD音源を再現する事すら不可能だった様だ.
少し蛇足するが,アナログの原理をザックリ話しておこうかと思う.
例えばダイナミック型(一般的に一番メジャー)のスピーカ原理は皆さん知っての通り,電気が流れることで振動するボイスコイルが内蔵されており平たく言えば電気信号が音波になる方式である.
もちろん,振幅イコール電力ではなく効率などによる前後があるわけだがその部分はここでは割愛する.
アナログの欠点は何と言っても信号上に発生するノイズという事になるのだろう.
機器間の配線が長ければ外来ノイズによる影響は受けやすくなるし低電圧で駆動している再生機から順に機器を経るごとに駆動電圧が変化したりするためベース電圧が上がる度にベース付近に潜むノイズ成分も一緒に持ち上がる場合がある.
また,さまざまな電圧で駆動する回路を経由すると言う事は,スイッチング回路等も付近に存在したりするわけで,その分ノイズの影響も多くなるのは必然だろう.
何となく理屈はわかると思うがこれらの現象がアナログにおけるノイズ拡大につながるのだ.
故にライブハウス等では低電圧の音声信号上にノイズを極力載せない接続で未然に防いでいるのである.
PA側にてダイレクトボックスを用いて不平衡配線を平衡にしたり,ミキサー内部でローパスフィルターやEQによるチューニングを行う一つの理由もこれである.
マキシマイザ―やリミッタ等を使用する際にノイズゲート等を先に通すのも音圧を上げる際に小さなノイズ成分を持ち上げないようにするための工夫と言う事になる訳である.
ただ,これらのノイズは先に述べた通り低電力伝送時に発生することが多く,駆動素子のデジタル/アナログの差ではほぼ違いはないと考えられる.
例えアナログと言えど,パワーアンプから出る大きな振幅の電気波形に極小のノイズがのった程度ではライブハウスや野外コンサート時の大きな発音における影響力はほぼ無いと言えるからだ.
話を戻す.
では,駆動素子がデジタル化する利点はなんなのか問話になるわけだが一番は電気効率と言える.
アナログの場合,大型スピーカでも小型スピーカでも音波を発生させる(コイルを振動させる)上では熱エネルギーが発生する.
その温度は100度をも超える事すらあるわけだが,その熱によって発散されてしまう分,多くの電力を必要とするわけであり,結果的に大型スピーカを動かすためにも小型スピーカを鳴らす上でも多くの電力が必要になるということになる.
基本的な機器内部回路はデジタル化が進んでおり,デジタルトランジスタもマイクロコンピュータも駆動電圧は3Vや5Vと低圧だ(最近では1.8Vなんていうのもある)しかし,オーディオ部分ではたとえ数W(ワット)程度の小さなスピーカと言えど15Vや18Vが必要となる.
これが駆動素子までデジタル化すると,なんとビット判定に使う電圧,すなわちDSPの出力電圧で大音量のSRスピーカも発音できてしまうと言う事なのである.
もちろん,効率も非常によいため電圧だけでなく消費電流も飛躍的に抑えられることになる.
回路内電源が複数に別れなければアナログでは必然的だったノイズの原因になりやすいDC/DCコンバータの数も減る事になる.
増幅回路等も削減される分,基板配線も経由する部品点数も減るのだから基板内でもノイズが発生しにくくなるのは言うまでもない.
また,DSPが駆動できる程度の消費電力ですむと言う事は大型スピーカだけにとどまらず小型スピーカにもメリットがある.
従来の方式では小型故に出音の音量感や臨場感に限界があったものもフルデジタル化することができればより繊細でダイナミックレンジも稼げることになる(もちろんコーンが小さい分,物理的限界はある)
今までは伝送路のデジタル化によって『劣化の少ない高音質な』と言う観点に重きを置いてきたわけだが,フルデジタルスピーカでは電気的効率の見直しによる新しい形の表現力を得ることができると言えるのである.
それでは,そのフルデジタルスピーカはどのような構造で成り立っているのか簡単に説明してみたいと思う.
ただし,フルデジタルスピーカの概念は先に述べた通り80年代から始まっており,様々な方式が存在する.
今回は旧来発案されたPCM(Plus Code Modulation)による展開と近年のマルチユニットシステムの2通りを解説したいと思う.
旧来のフルデジタルスピーカでは1bitにつき1つのコイル(スピーカの場合コイルに電流が発生すると振動する)を制御するというPCMをそのまま受動素子へ渡すようなイメージの方式が一般的であった.
CDクオリティであれば16bitであり上記条件で再現する場合16個のコイルをスピーカに取り付けなければならないことになる.
近年では24bitや32bitというビットレートがDAW環境で一般的に使われており,再現するためには32個のコイルが必要になる訳で,コスト的にも物理的にも不可能に近いのが何となくわかるかと思う.
また,デジタルをビットごとに置くにはコイル事に重み付け(図で言えば縦の振幅に該当する)をしなければならないという問題が発生する.
この重みと言う概念をスピーカで再現する為にはコイルの巻き数を16bitなら16通り分けて作らねばならないという事になり,1つ1つの精度を出すことすら難しいコイル製造がより困難になるという現象を作りあげてしまったのである.
重み付けをしている分コイル自体も該当ビット専用となり,バラつきが大きく生じると対象ビットで正常に再生(再現)出来ない製品が生まれてしまう事になるわけだ.
故に,現実的には試作ができても製品として安定配給にすることはできず技術が出てきた80年〜90年代には発展途上のままクローズドせざる得なかったと思われる.
おそらく,これを改善する技術も考案されただろうがCPUの処理速度という大きな壁に当時の技術ではリアルタイムによる信号変換が事実的に不可能だったと言われている.
この発展系として誕生したフルデジタル技術が現在におけるフルデジタルスピーカの原理になる.
Trigence Semiconductor社がライセンス配給を行っているデジタル信号処理技術であるマルチユニット方式(Dnote)を参考に説明すると従来の製造で一番問題視されたコイルによる重み付けの概念を取り除かれている.
以下の図を見てほしい.
4つのコイルに2ビットずつデータ線を設けて表現している.
何とも珍しい表現であるが,デジタル表記においての0,1に2つ以上の意味を持たせるため少しややこしいだけである.
"+1","0","-1"という表現には1つの情報に対して2bitを使用して取決めを作っている.
簡単に言えば図で言う"0"を二進数で表現すると0b00,"+1"を0b01,そして"-1"を0b10を表現していると言う事だ.
※(注記)0b11は規定していないらしい
これをPCM概念に置いてしまうと8bitの表現程度しかできないが,マルチユニット方式で用いられているのはPCMとサンプリングの原理が異なり,少ない情報量でサンプリング出きる?Σ変調の概念を用いている.
DSD(Direct Stream Digital)に近いといったのがわかりやすいだろうか.
周波数をパルス変調で置き換えることでPCMよりもはるかに少ない情報量でデコードが可能なのである.
DSPから最終端であるコイルまでは,このマルチユニット方式で伝送された2ビットずつあるデジタル信号が送られることになる.
1ビット制御のDSDと異なり複数ビットでの処理になるわけだが,近年のDSPの高速処理によりそれらを可能にしていると言える.
ここで疑問になるのはコイルが従来のものでは再現できないという部分だろう.
PWMで受けると言う事は電流が発生すると動作する従来のダイナミック型とは少し異なる訳である.
マルチユニット方式ではPWMの概念なので周期が早くなると振幅は小さくなり周期が遅くなると振幅が大きくなる.
これをボイスコイル内で再現しているわけである.
故にコイルに重みをもたせる必要はない上,消費電力も振幅に左右されないため低電力と言う事になるのである.
ただし,この方式はコイル部分で0と1という電気的に言えばON/OFFによって制御されているわけで一部で懸念されているONに隣り合ったOFFの巻線(コイル)で発生しえる逆起電力という不都合な現象が潜んでいると言われている.
本来なら磁場が発生すべきでないビットに不要な磁場が発生してしまうと振動板が余計な動きをしてしまう可能性があると言う事だ.
これにより波形再現にズレが生じる事があると言われているのである.
また,コイルの特性に重みをもたせる事なく表現できるようになったわけだが,製造上発生しえる部品精度誤差がゼロになるわけではないわけで,例えば4Ωのものもあれば前後1%の部品もあると言う事になる.
1個で成り立つダイナミック型ボイスコイルに対して3〜8個程度のコイルで1つのスピーカを構成するマルチユニットタイプのフルデジタルスピーカでは,使用するコイルのばらつきで出音に直接影響を与えてしまう可能性がアナログよりも高くなるのは言うまでもない.
現行の技術マルチユニット(Dnote)等ではこれらをスポイルするためにDSP側で最適なバランスを保つべく,ランダム出力して使用する素子を入れ替えているとの事.
簡単に言えば図のようにコイルを"1st,2nd,3rd..."と決めないで未使用素子"X"に仮の1dataを定義したら次の1dataは別の未使用素子"X'"を使うと言った具合である.
ランダムに使用する素子を使い分ける為,事実上バラつきがコイル固有で発生しないため全体的なバランスが均等になると言った理論である.
これらも,現代における高速処理スピードがなせる業であると言えよう.
業務用の機器ではこれらの部品精度を製造上で選別して物理的誤差を極限まで減らすと推測できる(もちろんマイクのように高価にはなるだろう)
以上の技術により現在のフルデジタルスピーカは成り立っていると言う事である.
尚,PAの世界ではフルデジタルスピーカは多くの現場で使われている.
コンシューマ向けに展開される前に,既に様々な不具合にも見舞われた事ももちろんある.
ほんの一例だがフルデジタルスピーカを導入した途端にスピーカがたちまち吹っ飛んだというのが一番驚くべき話だと思うのでその事例を挙げてみる.
市場導入され始めた頃のフルデジタルスピーカでは広帯域の周波数をカバーするべく可聴範囲をはるかに超える100kHz(人間の可聴範囲は〜20kHz程度までだが...)までの再現を謳っていた.
日本製の製品では可聴対域外の波形であっても機器に影響を及ぼす可能性を疑いローパスフィルタ回路を加えるなど,フルデジタルという概念にとらわれることなく(故に,現在でもアナログのローパスフィルターを通すべくD/Aしている回路もある)製品保証を目指していたわけだが,一部の海外メーカーなどでは聴こえないのだから問題ないとして設計されたものがたくさん出回ってしまい,ボイスコイルの駆動能力をはるかに超える高域成分が発生した場合にスピーカが壊れるという現象が頻発したという.
目にも耳にも届かない状態で次々壊れたわけだから現場は大騒ぎになったに違いない.
それらの理由から現場としては鳴らなくなるが一番の問題であり,一時期ではあるものの成熟していないデジタルを懸念する声が上がったのは言うまでもない.
また,デジタル化することにより指向性が非常に高くなる.
PA的に言えばアナログの歪やボケ味で音が空間を回る感覚がまず発生しにくいと言う事.
これ自体はいいことのようにも聞こえるがケースバイケースで,逆に言えば分離が音域でも定位でもハッキリしすぎてしまい音の混ざりが悪くなると懸念されるケースもあるのだ.
厳密には駆動部分までデジタル化することによるオーディオ特性の違いはハッキリと発生しないようにも思えるのだが,やはり回路内部での電圧変化が無くなったりボイスコイルの駆動方式における変化等により出音の印象が変わるのは必然.
映像的に言えば収録機器をFullHDから4K(UltraHD)に乗り換えたら画が精密でクッキリしすぎた結果,女優の化粧ノリや肌の凹凸が見えてしまった...このような不利益をいったい誰が喜ぶだろうか?と言う感覚に近いだろう.
クッキリしすぎるから,映像コンテンツとしてはあえてぼかしたりすることになる.本末転倒だがこれが事実であり音の現場でも同様である.
実際に現場のPAさんから聞いた話でクライアントの要望により96kHz24bitでのライブ収録をするから出音もそのままフルデジタルスピーカで鳴らしてくれと言われたらしい.
しかし,分離がよすぎるせいで出音がスカスカになってしまい(アレンジの問題もあると思うが...)結局,フロア音声の卓側にはアナログのプリアンプを通しなおすという"汚し"(ぼかし)を施したと言っていた.
どんなに優れた技術も絶対ではないと言う事である.
今となってはメジャーなデジタルミキサーも出始めた頃は似たような現象で騒がれた事があり,技術の成熟度により緩和されていったのはご存じの通りだ.
様々なケースにおいて技術というものは一長一短を持ちつつも時代の流れの中で周辺環境の変化や技術の向上により新たなものへ置き換えられる日は遅かれ早かれ来るわけで,われわれとしては新たな技術を何食わぬ顔で迎え入れられるだけの知識を持ち,全てをスポイルした上で欠点を克服し利点活かしていかなければならないのだと思う.
言ってしまえばオーディオ信号の替わりに使われているAES/EBUやS/PDIF等のプロトコル(通信規格)技術を用いた伝送がそれにあたるわけで,見た目にはフォンケーブル等が光ケーブル等に変わっている事があげられる.
ケーブルやコネクタの形状が同じでも,通信プロトコルが異なると信号解釈がまるで違う事は既に姉妹ブログである鍵盤天国で記載済みだ.
平衡配線とAES/EBUの関係や不平衡ピン配線と同軸(コアキシャル)S/PDIFの関係がそれにあたると思う.
厳密に言えばコネクタ形状が同じに見えてもデジタル用にはインピーダンス調整が施されていたりと見た目以上の違いがあることもご存じの通りである.
今回,話題に挙げるのはフルデジタルスピーカ.
今までは伝送配線をデジタル化することで『伝送時に発生する音質劣化等を防ぐ』という働きだったわけだが,このフルデジタルスピーカやフルデジタルアンプというものはその概念とは異なる.
伝送のデジタル化は受ける機器,例えばスピーカ等の受動器側やアンプ等の増幅器側でD/A変換を行う必要がある.
これはスピーカのボイスコイル等がアナログ受けで振動し,音波にするためである.
フルデジタルスピーカとはその受動素子であるボイスコイルに位置する素子がアナログ波形による駆動ではなくHi/Lowのビット判定による駆動方式になったと言う事なのである.
これまでは伝送時に発生するノイズ対策としてのデジタル化がメインだったわけだが,今回のデジタル化は駆動素子の制御がデジタル化するという事であり根本的に違うことが判るかと思う.
これによる利点はD/A変換等の回路が省略できることがあげられる(概念としてはそういう理屈であると捉えてほしい.詳しくは後述)
また,信号増幅に用いられるアンプ回路を必要としない事やDSP(DigitalSignalProsesser)から直接コイルへ伝送するため沢山の電源を用いる必要がなくなる事でDC/DCの削減や省電力化につながる点があげられる.
その辺の理屈について少し解説してみる.
まず,デジタルを用いると言う事は伝送に用いられるプロトコルのままスピーカが駆動できるのか?と勘違いされてしまうかもしれないがそれは違う.
I2SやS/PDIF(AES/EBU)とも符合化の手法が違う為(詳しくは後述)D/D変換がDSP等で行われることになる.
尚,フルデジタルスピーカの概念自体は実は80年代に既に発案されていた内容である.
ただ,フルデジタルスピーカに用いられているD/D変換が80年や90年代初頭のコンピュータ処理スピードではリアルタイムに44.1kHz16bitのCD音源を再現する事すら不可能だった様だ.
少し蛇足するが,アナログの原理をザックリ話しておこうかと思う.
例えばダイナミック型(一般的に一番メジャー)のスピーカ原理は皆さん知っての通り,電気が流れることで振動するボイスコイルが内蔵されており平たく言えば電気信号が音波になる方式である.
もちろん,振幅イコール電力ではなく効率などによる前後があるわけだがその部分はここでは割愛する.
アナログの欠点は何と言っても信号上に発生するノイズという事になるのだろう.
機器間の配線が長ければ外来ノイズによる影響は受けやすくなるし低電圧で駆動している再生機から順に機器を経るごとに駆動電圧が変化したりするためベース電圧が上がる度にベース付近に潜むノイズ成分も一緒に持ち上がる場合がある.
また,さまざまな電圧で駆動する回路を経由すると言う事は,スイッチング回路等も付近に存在したりするわけで,その分ノイズの影響も多くなるのは必然だろう.
何となく理屈はわかると思うがこれらの現象がアナログにおけるノイズ拡大につながるのだ.
故にライブハウス等では低電圧の音声信号上にノイズを極力載せない接続で未然に防いでいるのである.
PA側にてダイレクトボックスを用いて不平衡配線を平衡にしたり,ミキサー内部でローパスフィルターやEQによるチューニングを行う一つの理由もこれである.
マキシマイザ―やリミッタ等を使用する際にノイズゲート等を先に通すのも音圧を上げる際に小さなノイズ成分を持ち上げないようにするための工夫と言う事になる訳である.
ただ,これらのノイズは先に述べた通り低電力伝送時に発生することが多く,駆動素子のデジタル/アナログの差ではほぼ違いはないと考えられる.
例えアナログと言えど,パワーアンプから出る大きな振幅の電気波形に極小のノイズがのった程度ではライブハウスや野外コンサート時の大きな発音における影響力はほぼ無いと言えるからだ.
話を戻す.
では,駆動素子がデジタル化する利点はなんなのか問話になるわけだが一番は電気効率と言える.
アナログの場合,大型スピーカでも小型スピーカでも音波を発生させる(コイルを振動させる)上では熱エネルギーが発生する.
その温度は100度をも超える事すらあるわけだが,その熱によって発散されてしまう分,多くの電力を必要とするわけであり,結果的に大型スピーカを動かすためにも小型スピーカを鳴らす上でも多くの電力が必要になるということになる.
基本的な機器内部回路はデジタル化が進んでおり,デジタルトランジスタもマイクロコンピュータも駆動電圧は3Vや5Vと低圧だ(最近では1.8Vなんていうのもある)しかし,オーディオ部分ではたとえ数W(ワット)程度の小さなスピーカと言えど15Vや18Vが必要となる.
これが駆動素子までデジタル化すると,なんとビット判定に使う電圧,すなわちDSPの出力電圧で大音量のSRスピーカも発音できてしまうと言う事なのである.
もちろん,効率も非常によいため電圧だけでなく消費電流も飛躍的に抑えられることになる.
回路内電源が複数に別れなければアナログでは必然的だったノイズの原因になりやすいDC/DCコンバータの数も減る事になる.
増幅回路等も削減される分,基板配線も経由する部品点数も減るのだから基板内でもノイズが発生しにくくなるのは言うまでもない.
また,DSPが駆動できる程度の消費電力ですむと言う事は大型スピーカだけにとどまらず小型スピーカにもメリットがある.
従来の方式では小型故に出音の音量感や臨場感に限界があったものもフルデジタル化することができればより繊細でダイナミックレンジも稼げることになる(もちろんコーンが小さい分,物理的限界はある)
今までは伝送路のデジタル化によって『劣化の少ない高音質な』と言う観点に重きを置いてきたわけだが,フルデジタルスピーカでは電気的効率の見直しによる新しい形の表現力を得ることができると言えるのである.
それでは,そのフルデジタルスピーカはどのような構造で成り立っているのか簡単に説明してみたいと思う.
ただし,フルデジタルスピーカの概念は先に述べた通り80年代から始まっており,様々な方式が存在する.
今回は旧来発案されたPCM(Plus Code Modulation)による展開と近年のマルチユニットシステムの2通りを解説したいと思う.
旧来のフルデジタルスピーカでは1bitにつき1つのコイル(スピーカの場合コイルに電流が発生すると振動する)を制御するというPCMをそのまま受動素子へ渡すようなイメージの方式が一般的であった.
CDクオリティであれば16bitであり上記条件で再現する場合16個のコイルをスピーカに取り付けなければならないことになる.
近年では24bitや32bitというビットレートがDAW環境で一般的に使われており,再現するためには32個のコイルが必要になる訳で,コスト的にも物理的にも不可能に近いのが何となくわかるかと思う.
また,デジタルをビットごとに置くにはコイル事に重み付け(図で言えば縦の振幅に該当する)をしなければならないという問題が発生する.
この重みと言う概念をスピーカで再現する為にはコイルの巻き数を16bitなら16通り分けて作らねばならないという事になり,1つ1つの精度を出すことすら難しいコイル製造がより困難になるという現象を作りあげてしまったのである.
重み付けをしている分コイル自体も該当ビット専用となり,バラつきが大きく生じると対象ビットで正常に再生(再現)出来ない製品が生まれてしまう事になるわけだ.
上記の図と同じアナログ波形でもバラつくと有効ビットが異なってしまう
故に,現実的には試作ができても製品として安定配給にすることはできず技術が出てきた80年〜90年代には発展途上のままクローズドせざる得なかったと思われる.
おそらく,これを改善する技術も考案されただろうがCPUの処理速度という大きな壁に当時の技術ではリアルタイムによる信号変換が事実的に不可能だったと言われている.
この発展系として誕生したフルデジタル技術が現在におけるフルデジタルスピーカの原理になる.
Trigence Semiconductor社がライセンス配給を行っているデジタル信号処理技術であるマルチユニット方式(Dnote)を参考に説明すると従来の製造で一番問題視されたコイルによる重み付けの概念を取り除かれている.
以下の図を見てほしい.
4つのコイルに2ビットずつデータ線を設けて表現している.
何とも珍しい表現であるが,デジタル表記においての0,1に2つ以上の意味を持たせるため少しややこしいだけである.
"+1","0","-1"という表現には1つの情報に対して2bitを使用して取決めを作っている.
簡単に言えば図で言う"0"を二進数で表現すると0b00,"+1"を0b01,そして"-1"を0b10を表現していると言う事だ.
※(注記)0b11は規定していないらしい
これをPCM概念に置いてしまうと8bitの表現程度しかできないが,マルチユニット方式で用いられているのはPCMとサンプリングの原理が異なり,少ない情報量でサンプリング出きる?Σ変調の概念を用いている.
DSD(Direct Stream Digital)に近いといったのがわかりやすいだろうか.
周波数をパルス変調で置き換えることでPCMよりもはるかに少ない情報量でデコードが可能なのである.
DSPから最終端であるコイルまでは,このマルチユニット方式で伝送された2ビットずつあるデジタル信号が送られることになる.
1ビット制御のDSDと異なり複数ビットでの処理になるわけだが,近年のDSPの高速処理によりそれらを可能にしていると言える.
ここで疑問になるのはコイルが従来のものでは再現できないという部分だろう.
PWMで受けると言う事は電流が発生すると動作する従来のダイナミック型とは少し異なる訳である.
マルチユニット方式ではPWMの概念なので周期が早くなると振幅は小さくなり周期が遅くなると振幅が大きくなる.
これをボイスコイル内で再現しているわけである.
故にコイルに重みをもたせる必要はない上,消費電力も振幅に左右されないため低電力と言う事になるのである.
ただし,この方式はコイル部分で0と1という電気的に言えばON/OFFによって制御されているわけで一部で懸念されているONに隣り合ったOFFの巻線(コイル)で発生しえる逆起電力という不都合な現象が潜んでいると言われている.
本来なら磁場が発生すべきでないビットに不要な磁場が発生してしまうと振動板が余計な動きをしてしまう可能性があると言う事だ.
これにより波形再現にズレが生じる事があると言われているのである.
また,コイルの特性に重みをもたせる事なく表現できるようになったわけだが,製造上発生しえる部品精度誤差がゼロになるわけではないわけで,例えば4Ωのものもあれば前後1%の部品もあると言う事になる.
1個で成り立つダイナミック型ボイスコイルに対して3〜8個程度のコイルで1つのスピーカを構成するマルチユニットタイプのフルデジタルスピーカでは,使用するコイルのばらつきで出音に直接影響を与えてしまう可能性がアナログよりも高くなるのは言うまでもない.
現行の技術マルチユニット(Dnote)等ではこれらをスポイルするためにDSP側で最適なバランスを保つべく,ランダム出力して使用する素子を入れ替えているとの事.
簡単に言えば図のようにコイルを"1st,2nd,3rd..."と決めないで未使用素子"X"に仮の1dataを定義したら次の1dataは別の未使用素子"X'"を使うと言った具合である.
ランダムに使用する素子を使い分ける為,事実上バラつきがコイル固有で発生しないため全体的なバランスが均等になると言った理論である.
これらも,現代における高速処理スピードがなせる業であると言えよう.
業務用の機器ではこれらの部品精度を製造上で選別して物理的誤差を極限まで減らすと推測できる(もちろんマイクのように高価にはなるだろう)
以上の技術により現在のフルデジタルスピーカは成り立っていると言う事である.
尚,PAの世界ではフルデジタルスピーカは多くの現場で使われている.
コンシューマ向けに展開される前に,既に様々な不具合にも見舞われた事ももちろんある.
ほんの一例だがフルデジタルスピーカを導入した途端にスピーカがたちまち吹っ飛んだというのが一番驚くべき話だと思うのでその事例を挙げてみる.
市場導入され始めた頃のフルデジタルスピーカでは広帯域の周波数をカバーするべく可聴範囲をはるかに超える100kHz(人間の可聴範囲は〜20kHz程度までだが...)までの再現を謳っていた.
日本製の製品では可聴対域外の波形であっても機器に影響を及ぼす可能性を疑いローパスフィルタ回路を加えるなど,フルデジタルという概念にとらわれることなく(故に,現在でもアナログのローパスフィルターを通すべくD/Aしている回路もある)製品保証を目指していたわけだが,一部の海外メーカーなどでは聴こえないのだから問題ないとして設計されたものがたくさん出回ってしまい,ボイスコイルの駆動能力をはるかに超える高域成分が発生した場合にスピーカが壊れるという現象が頻発したという.
目にも耳にも届かない状態で次々壊れたわけだから現場は大騒ぎになったに違いない.
それらの理由から現場としては鳴らなくなるが一番の問題であり,一時期ではあるものの成熟していないデジタルを懸念する声が上がったのは言うまでもない.
また,デジタル化することにより指向性が非常に高くなる.
PA的に言えばアナログの歪やボケ味で音が空間を回る感覚がまず発生しにくいと言う事.
これ自体はいいことのようにも聞こえるがケースバイケースで,逆に言えば分離が音域でも定位でもハッキリしすぎてしまい音の混ざりが悪くなると懸念されるケースもあるのだ.
厳密には駆動部分までデジタル化することによるオーディオ特性の違いはハッキリと発生しないようにも思えるのだが,やはり回路内部での電圧変化が無くなったりボイスコイルの駆動方式における変化等により出音の印象が変わるのは必然.
映像的に言えば収録機器をFullHDから4K(UltraHD)に乗り換えたら画が精密でクッキリしすぎた結果,女優の化粧ノリや肌の凹凸が見えてしまった...このような不利益をいったい誰が喜ぶだろうか?と言う感覚に近いだろう.
クッキリしすぎるから,映像コンテンツとしてはあえてぼかしたりすることになる.本末転倒だがこれが事実であり音の現場でも同様である.
実際に現場のPAさんから聞いた話でクライアントの要望により96kHz24bitでのライブ収録をするから出音もそのままフルデジタルスピーカで鳴らしてくれと言われたらしい.
しかし,分離がよすぎるせいで出音がスカスカになってしまい(アレンジの問題もあると思うが...)結局,フロア音声の卓側にはアナログのプリアンプを通しなおすという"汚し"(ぼかし)を施したと言っていた.
どんなに優れた技術も絶対ではないと言う事である.
今となってはメジャーなデジタルミキサーも出始めた頃は似たような現象で騒がれた事があり,技術の成熟度により緩和されていったのはご存じの通りだ.
様々なケースにおいて技術というものは一長一短を持ちつつも時代の流れの中で周辺環境の変化や技術の向上により新たなものへ置き換えられる日は遅かれ早かれ来るわけで,われわれとしては新たな技術を何食わぬ顔で迎え入れられるだけの知識を持ち,全てをスポイルした上で欠点を克服し利点活かしていかなければならないのだと思う.
March 06, 2015
近年,パソコンは種類も豊富で格安なものから高価なものまでさまざまあります.
今回は,そんなパソコン事情に苦手な方で購入に迷っているあなたの為に簡単にまとめてみました.
タブレット?2in1?ノート?デスクトップ?
店員さんに高いモデルやいらないモノを買わされる前に,あなたの疑問を少しは解消できればと思います.
☆ノートvsデスクトップ
デスクトップは高負荷処理(例えばオンラインゲーム?)向きだけどモニタ類を固定せざる得ない.
その分,ノートはどこでも開ける.ただ,可動性がよい=持ち出す機会が増えると壊れやすくなる事もある.
性能面でデスクと言われるがノートでもデスク並みGPU(グラフィックプロセスユニット)内蔵やUSB沢山付いているモデルはある.
それでも,ノートはグラフィック処理の一部分はCPUパワーから補っているモデルもあったりとスペックだけでは見えない部分があるし,筐体が小さいから排熱限界がある為,高負荷な処理には向かない.
ただし,3Dリアルタイム描画のような高負荷をかけなければ問題ないので一般の皆にはほとんど気にするべき部分ではない.
※(注記)省エネ等と謳っている小型モデルは基本ノートやタブレット並みのハードを箱に収めただけ.モニタ,キーボード類の遺産保持者向け.
☆2in1vsタブレット
タブレットは基本iPad等を示しスマートフォンに近い存在であるため実作業はおまけ.2in1やタブレットPCはノートPCをタブレット風に仕立てているイメージな為,実作業がメインでタブレット的軽快さがおまけ.Office等がメインなら断然2in1PCといえる.スマフォなどで使用しているアプリ等を大きな画面で使用したりしたいのであればタブレットという選択になるだろう.
●くろまる2in1とは?
特別な取り決めはないと思われるが,基本的にはノートPCをタブレット仕様にしてキーボードを脱着可能または回転させることによりタッチだけでもコントロールできるように仕立てたもの.
言わばノートPCとタブレットの良い所取りといったポジションになる.
メジャーなモデルは基本的にWindows8.1辺りが搭載されておりタッチでもキーボードでもコントロールが可能である.また,USBや光学ドライブ等のI/OポートもノートPC並みに備えているものが多く,タブレット型パソコンといっても過言ではない.あまりパソコンパソコンしているのは苦手という方や,出先の電車や飛行機の中でも気軽にパソコンの画面が見たい方には打って付けである.
●くろまるミニPC(小型PC,スティックPC)とは?※(注記)ミニタワーやmac miniの事ではない
基本的にはタブレット等のエンジンを箱に収めたモデル.
簡単に言うとタブレットのタッチパネルなし版.
Windowsが使えるPC互換器もあるが,AndoroidやLinuxがメインのキワモノ系もあるので注意.
安いなりの理由がある.用途が違うなら手を出さない事.あくまで玄人の実験向け.
●くろまる低価格PCは買いか?
一言では片づけられないが,一般的な低価格PCはモバイルノートにせよ省エネデスクトップにせよマシンスペックは最低限である.もちろん,Officeアプリ系のワープロ使いでそれなりに使えてしまう.用途を絞ればよいということだ.
故に,映像を再生したり写真を加工したりと少し高度な処理を行おうものならたちまち悲鳴を上げることになるだろう.考え方にはよるがパーソナルと言うには苦しいかもしれないが,あくまで最低限のコンピュータであることを受け入れられるならありかもしれない.
ただ,そのくらいならタブレットやスマフォで十分かもしれない.限定的にパソコンのOSでしか動作しないアプリを動かさないといけない等特殊な場合を除いては差し迫って必要なモデルとは言えないかもしれない.
◆だいやまーくノートPCを買うならやっぱりメーカー製?
基本的にノートPCはBTO(Build to Order:受注生産やPC用語ではパーツ組み換えの意味)でも結局,破損した場合HDD(またはSSD)・メモリ程度しか個人での交換はできない.
故に,保証を付けたメーカーPCはトラブルの時に助かる.
◆だいやまーくデスクトップPCを買うならショップブランド?
要は安いから.基本的に壊れた箇所が判ればそこだけ入れ替えることが可能.また,マザーボードが対応する限り後から拡張することも可能.長く付き合いたいならなるべく高スペックで導入を.有名店では対応やアフターも昔よりはしっかりしてきた.それでも,専門用語が飛んできてビビる人にはお勧めしない.
[メーカー満足度ランキング]※(注記)デスクトップ調べ
14年末確認ではエプソン⇒SONY⇒東芝,,,
国内メーカーのハード頑丈さは似たり寄ったり.エプソンを押す理由は余分なソフトがインストールされてこない事.使いもしないのにバンドル版のウイルスソフトやら電源の監視ソフトやらが国内メーカーのPCには必ず入ってくる.非常に重くなってしまうし,初心者にはどれを消していいのか困るとの事.
ノートであればPanasonicがダントツのメーカの模様.ただしLet'sNoteはスペックの割に値段が高くハードワークなビジネスマンでもない限り必要ないかも?
[ショップブランド満足度ランキング]
14年末確認ではマウスコンピューター⇒サイコム⇒ツクモ⇒ドスパラ,,,
圧倒的に値段最優先な順位.マウスコンピュータは安いモデルに力を注いでいるブランド.サイコムはごめんなさい個人的にお世話になったことありません.ツクモは一度破産に追い込まれ(根底はNECリースのせい?)民事再生手続きを行って現在はヤマダ電機の子会社の傘下.老舗店の一つだし,今後は簡単に潰れないと思う.ドスパラは名前の通りDOS時代からの老舗で高スペックマシンの信頼性が高い(StudioT'sLABのDAWマシンは昔からドスパラ製Primeシリーズ)
[2in1のおすすめ]
値段もスペックもほぼノート.ノートより便利な点としてはタッチパネルでキーボードが脱着できたり回転できたるする事やワイヤレスWANが内臓されている点だろう.I/Oが充実しているモデルすらあり欠点らしい欠点は見当たらないものも.意外と買かも?!
タブレットライクではあるが一般的なタブレット端末に比べるとはるかに重い.また,ハイスペックなCPUを用いているためFANも内臓されている.
[まとめ]
結局,用途によって異なる為,「これがお勧めですよ,絶対買いですよ」と無責任な言い方はできません.
使い道はご自分で明確にするべきです.
それでも,ピンとこないあなたには以下の簡単な早見表を参考にしてください.
・何となくPC持たなきゃって言う人
⇒タブレットでも十分
・少し文章打ったり表計算する人,写真の整理等に使いたい人
⇒2in1辺りがお勧め
・学校やバイト先とか,会社やカフェに持ち歩いてOffice類を使う人
⇒2in1ないしノート
・モニタ類がそろっていて置き場所もある人,持ち歩かない人
⇒デスクトップや大型ノート
特殊なケースの場合は以下の通り(だいたい,そういう人はこのページ見ていないでしょうけど)
・映像やります,DAWやります
⇒ハイエンドのデスクトップかショップブランドの専用PC(別途ペンタブ,AudioI/F等必要に応じて)
・騒音を気にするけどハイスペックが欲しい
⇒Mac mini , Mac Book Pro
・ニコ生やりたい
⇒ミドルエンド以上のノートまたはデスクトップ(別途キャプチャボード,AudioI/F等必要に応じて)
尚,近年のCPU事情は分かりにくい.
ベンチマークをまとめているうれしいサイトがあるので紹介しておく.
迷ったらこれで辺りをつけるとCPU性能が一目である(もちろん,測定条件が必ずしも自分の使用目的に沿うわけではないので完璧な情報ではない)
http://www.cpubenchmark.net/index.php
いかがでしたか?以上を読んであなたの心は決まりましたか?
店員さんにいらないもの売りつけられない自信がつきましたか?
押入れに眠ったり部屋の片隅で埃かぶる事がないように賢く買い物しましょう.
今回は,そんなパソコン事情に苦手な方で購入に迷っているあなたの為に簡単にまとめてみました.
タブレット?2in1?ノート?デスクトップ?
店員さんに高いモデルやいらないモノを買わされる前に,あなたの疑問を少しは解消できればと思います.
☆ノートvsデスクトップ
デスクトップは高負荷処理(例えばオンラインゲーム?)向きだけどモニタ類を固定せざる得ない.
その分,ノートはどこでも開ける.ただ,可動性がよい=持ち出す機会が増えると壊れやすくなる事もある.
性能面でデスクと言われるがノートでもデスク並みGPU(グラフィックプロセスユニット)内蔵やUSB沢山付いているモデルはある.
それでも,ノートはグラフィック処理の一部分はCPUパワーから補っているモデルもあったりとスペックだけでは見えない部分があるし,筐体が小さいから排熱限界がある為,高負荷な処理には向かない.
ただし,3Dリアルタイム描画のような高負荷をかけなければ問題ないので一般の皆にはほとんど気にするべき部分ではない.
※(注記)省エネ等と謳っている小型モデルは基本ノートやタブレット並みのハードを箱に収めただけ.モニタ,キーボード類の遺産保持者向け.
☆2in1vsタブレット
タブレットは基本iPad等を示しスマートフォンに近い存在であるため実作業はおまけ.2in1やタブレットPCはノートPCをタブレット風に仕立てているイメージな為,実作業がメインでタブレット的軽快さがおまけ.Office等がメインなら断然2in1PCといえる.スマフォなどで使用しているアプリ等を大きな画面で使用したりしたいのであればタブレットという選択になるだろう.
●くろまる2in1とは?
特別な取り決めはないと思われるが,基本的にはノートPCをタブレット仕様にしてキーボードを脱着可能または回転させることによりタッチだけでもコントロールできるように仕立てたもの.
言わばノートPCとタブレットの良い所取りといったポジションになる.
メジャーなモデルは基本的にWindows8.1辺りが搭載されておりタッチでもキーボードでもコントロールが可能である.また,USBや光学ドライブ等のI/OポートもノートPC並みに備えているものが多く,タブレット型パソコンといっても過言ではない.あまりパソコンパソコンしているのは苦手という方や,出先の電車や飛行機の中でも気軽にパソコンの画面が見たい方には打って付けである.
●くろまるミニPC(小型PC,スティックPC)とは?※(注記)ミニタワーやmac miniの事ではない
基本的にはタブレット等のエンジンを箱に収めたモデル.
簡単に言うとタブレットのタッチパネルなし版.
Windowsが使えるPC互換器もあるが,AndoroidやLinuxがメインのキワモノ系もあるので注意.
安いなりの理由がある.用途が違うなら手を出さない事.あくまで玄人の実験向け.
●くろまる低価格PCは買いか?
一言では片づけられないが,一般的な低価格PCはモバイルノートにせよ省エネデスクトップにせよマシンスペックは最低限である.もちろん,Officeアプリ系のワープロ使いでそれなりに使えてしまう.用途を絞ればよいということだ.
故に,映像を再生したり写真を加工したりと少し高度な処理を行おうものならたちまち悲鳴を上げることになるだろう.考え方にはよるがパーソナルと言うには苦しいかもしれないが,あくまで最低限のコンピュータであることを受け入れられるならありかもしれない.
ただ,そのくらいならタブレットやスマフォで十分かもしれない.限定的にパソコンのOSでしか動作しないアプリを動かさないといけない等特殊な場合を除いては差し迫って必要なモデルとは言えないかもしれない.
◆だいやまーくノートPCを買うならやっぱりメーカー製?
基本的にノートPCはBTO(Build to Order:受注生産やPC用語ではパーツ組み換えの意味)でも結局,破損した場合HDD(またはSSD)・メモリ程度しか個人での交換はできない.
故に,保証を付けたメーカーPCはトラブルの時に助かる.
◆だいやまーくデスクトップPCを買うならショップブランド?
要は安いから.基本的に壊れた箇所が判ればそこだけ入れ替えることが可能.また,マザーボードが対応する限り後から拡張することも可能.長く付き合いたいならなるべく高スペックで導入を.有名店では対応やアフターも昔よりはしっかりしてきた.それでも,専門用語が飛んできてビビる人にはお勧めしない.
[フレーム]
[メーカー満足度ランキング]※(注記)デスクトップ調べ
14年末確認ではエプソン⇒SONY⇒東芝,,,
国内メーカーのハード頑丈さは似たり寄ったり.エプソンを押す理由は余分なソフトがインストールされてこない事.使いもしないのにバンドル版のウイルスソフトやら電源の監視ソフトやらが国内メーカーのPCには必ず入ってくる.非常に重くなってしまうし,初心者にはどれを消していいのか困るとの事.
ノートであればPanasonicがダントツのメーカの模様.ただしLet'sNoteはスペックの割に値段が高くハードワークなビジネスマンでもない限り必要ないかも?
[ショップブランド満足度ランキング]
14年末確認ではマウスコンピューター⇒サイコム⇒ツクモ⇒ドスパラ,,,
圧倒的に値段最優先な順位.マウスコンピュータは安いモデルに力を注いでいるブランド.サイコムはごめんなさい個人的にお世話になったことありません.ツクモは一度破産に追い込まれ(根底はNECリースのせい?)民事再生手続きを行って現在はヤマダ電機の子会社の傘下.老舗店の一つだし,今後は簡単に潰れないと思う.ドスパラは名前の通りDOS時代からの老舗で高スペックマシンの信頼性が高い(StudioT'sLABのDAWマシンは昔からドスパラ製Primeシリーズ)
[2in1のおすすめ]
値段もスペックもほぼノート.ノートより便利な点としてはタッチパネルでキーボードが脱着できたり回転できたるする事やワイヤレスWANが内臓されている点だろう.I/Oが充実しているモデルすらあり欠点らしい欠点は見当たらないものも.意外と買かも?!
タブレットライクではあるが一般的なタブレット端末に比べるとはるかに重い.また,ハイスペックなCPUを用いているためFANも内臓されている.
[まとめ]
結局,用途によって異なる為,「これがお勧めですよ,絶対買いですよ」と無責任な言い方はできません.
使い道はご自分で明確にするべきです.
それでも,ピンとこないあなたには以下の簡単な早見表を参考にしてください.
・何となくPC持たなきゃって言う人
⇒タブレットでも十分
・少し文章打ったり表計算する人,写真の整理等に使いたい人
⇒2in1辺りがお勧め
・学校やバイト先とか,会社やカフェに持ち歩いてOffice類を使う人
⇒2in1ないしノート
・モニタ類がそろっていて置き場所もある人,持ち歩かない人
⇒デスクトップや大型ノート
特殊なケースの場合は以下の通り(だいたい,そういう人はこのページ見ていないでしょうけど)
・映像やります,DAWやります
⇒ハイエンドのデスクトップかショップブランドの専用PC(別途ペンタブ,AudioI/F等必要に応じて)
・騒音を気にするけどハイスペックが欲しい
⇒Mac mini , Mac Book Pro
・ニコ生やりたい
⇒ミドルエンド以上のノートまたはデスクトップ(別途キャプチャボード,AudioI/F等必要に応じて)
尚,近年のCPU事情は分かりにくい.
ベンチマークをまとめているうれしいサイトがあるので紹介しておく.
迷ったらこれで辺りをつけるとCPU性能が一目である(もちろん,測定条件が必ずしも自分の使用目的に沿うわけではないので完璧な情報ではない)
http://www.cpubenchmark.net/index.php
いかがでしたか?以上を読んであなたの心は決まりましたか?
店員さんにいらないもの売りつけられない自信がつきましたか?
押入れに眠ったり部屋の片隅で埃かぶる事がないように賢く買い物しましょう.
March 05, 2015
とある機材を好みの仕様に改造しようと波形解析を行う事にした.
しかし,手持ちのポケットオシロスコープSeeed Studio製DSO Quadでは波形が出ていることくらいしか確認できず断念.
そして,昨年満を持してZEROPLUS製LAP-C(16128)というロジックアナライザ―を購入.
サンプリングレートは100Hz〜200MHz.DSO Quadで波形を見ていたので何となく見られそうな波形だなと言うことで迷わず選択.
魅力は何と言っても多チャンネルを波形化できる事とプロトコル解析が無料でたくさん使える事(標準でもI2CとかSPI,UARTと自作電気電子工作では十分)
その上,キャンペーン中でプロトコル解析のオプションが30個まで無料で認証できるという.
迷わずI2SやMIDI,S/PDIFやPCMを入れたのは言うまでもない.
ただ,買ったのが10月なのに申請したのが12月で対象の波形解析に至ったのは今年の3月と言うスロースタート.
4人の諭吉先生が飛ぶほどで貧乏な私には相当な買い物だったんだけどね...時間が許さなかった.
早速使い心地.
ま,先駆者たちも使ってるし英語のマニュアルもあるのでそれなりに使える.
ただ,先に言った通りプロトコル解析のツールはモノによって認証が必要なのでややこしかったし,解析方法もイマイチ親切じゃなくて迷ったので今回はまとめてみた.
これから使う工作ボーイや工作ガールの役に立てればと思う.
まずは,LAP-C_Standardというアプリの最新版をZEROPLUS社のHPよりDLする.
ドライバまでインストール出来たらUSBで接続して準備完了.
尚,ソフトはロジアナ本体がなくてもDEMOモードで動かせる.
出先のノートPCで波形解析っていうのも可能かも(私はやったことないけど)
今回の対象となる機器は先にオシロで波形のあたりを付けていたためクロックとデータっぽい波形が見れていた事からI2Cか3線シリアル辺りじゃないかと思って取り掛かった.
案の定全チャンネル分の波形を見たら2ライン以外はHiかLowに張り付いている事が判明.
I2Cに絞って解析開始.
解析方法
取得した2つの波形を[Shift]キーを押しながら左クリックで選択
右クリックより"Group into Bus"を選択しグループ化する
グループ化されたら"Bus1"となったグループにカーソルを合わせて右クリックし"Bus Property"を選択
[Bus Property]の"Protocol Analyzer Setting"より該当のアナライザーを選択(今回はI2C)
因みに,アナライザが出てこない場合はインストールされていないせい.
必要なソフトをZEROPLUSのページからDLすれば見れる.
また,解析に必要な数の波形が選択されていないとエラーが出たり,認証されていないアナライザーは選択できなかったりするので注意.
I2Cの設定画面.
波形が逆転してしまったので選択しなおした.
頻繁に短いスパンで上下しているのがクロック(SCL)ラインで,もう片方がデータ(SDA)I2Cプロトコルについてはフィリップス社が情報を公開しているので詳しくはそちらを参照されたし.
Busにプロトコル名が出ていれば解析されている.
もちろん,解析する波形が違うプロトコルだったりすれば正常な解析結果は出てこない.
次に,解析結果のデータを表化して表示してみる.
[Windw]より"Bus Packet List"を選択
波形ウインドの下にPacketリストが出現.
このパケットリストはテキスト形式で保存することができる.
テキストにすればExcel等で編集したりWinMerge等で差分確認に使用でき非常に便利.
Packet Listウィンドより[Export]を選択.
任意の場所に任意のファイル名で保存可能.
テキストでこのように保存される.
ついでなので解析等に有効な手段も紹介しようかと思う.
テキストファイルのExcel展開方法
Excelでこのようなファイルの開き方は,まずExcelを立ち上げて[ファイル]タブから"開く"を選択.
先ほど保存したデータを選択しますが,デフォルトでは.xls等が表示されるようにフィルタリングされているのでファイル名横のプルダウンメニューより"テキストファイル"を選択して表示させ開く.
選択すると"テキスト ファイル ウィザード"というウインドウが立ち上がるので今回のデータのように何か特定のスペースやカンマ等で保存されている場合はデータのファイル形式を"カンマやタブなどの~"を選択し[次へ]
次の項目では"特定の何か"を指定する.
LAP-C_Standardのエクスポートデータでは基本的にスペースが使われているため"区切り文字"の"スペース"にチェックを入れて[次へ]
次の項目はデータをどのようなルールでセルに保存するかを選ぶ.
表示するものが16進数などの数値データだと"文字列"で開くと仮にデータの中身が"0FF"と仮になっていても"0"が消えることなく表示できる(列ごとに選択して形式を変更)
今回のファイルは0x00と言った具合にExcelが数字として判断するデータはないのでG/標準のまま[次へ]で開ける.
これまたついでにデータ比較の方法なんていうのも紹介してみる.
先ほど開いたデータを他のデータと比較するためにWinMergeというフリーソフトを使用してみる.
まず,上記の手段で開いたデータは以下の通り.
比較に必要なWriteの列からデータまでをドラックアンドドロップでコピーする.
次にプレーンテキスト化するため新規にメモ帳を開いて先ほどコピーしたデータをペースト.
同じように比較データもプレーンテキスト化して準備したら次にWinMergeを立ち上げて比較するファイルを開く.
以下のように,差異がある行には色が付くので解析が容易にできる.
ロジアナの説明だけのつもりがおいしい情報を2つも載せてしまった.
解析に時間をかけるのはよくても,無駄な時間をかけるのはナンセンス.
色々な手段があると思うので慣れた方法でオートメーション化すればよい.
手段が特になければ今回の手法を応用して活用してくれればと思う.
さー,波形がわかったところで私としてはここからが本番.
さて,どんなマイコンで何をどう実現しようか.
企画書を作成しつつ奮闘の日々が訪れそうだ.
しかし,手持ちのポケットオシロスコープSeeed Studio製DSO Quadでは波形が出ていることくらいしか確認できず断念.
そして,昨年満を持してZEROPLUS製LAP-C(16128)というロジックアナライザ―を購入.
サンプリングレートは100Hz〜200MHz.DSO Quadで波形を見ていたので何となく見られそうな波形だなと言うことで迷わず選択.
魅力は何と言っても多チャンネルを波形化できる事とプロトコル解析が無料でたくさん使える事(標準でもI2CとかSPI,UARTと自作電気電子工作では十分)
その上,キャンペーン中でプロトコル解析のオプションが30個まで無料で認証できるという.
迷わずI2SやMIDI,S/PDIFやPCMを入れたのは言うまでもない.
ただ,買ったのが10月なのに申請したのが12月で対象の波形解析に至ったのは今年の3月と言うスロースタート.
4人の諭吉先生が飛ぶほどで貧乏な私には相当な買い物だったんだけどね...時間が許さなかった.
早速使い心地.
ま,先駆者たちも使ってるし英語のマニュアルもあるのでそれなりに使える.
ただ,先に言った通りプロトコル解析のツールはモノによって認証が必要なのでややこしかったし,解析方法もイマイチ親切じゃなくて迷ったので今回はまとめてみた.
これから使う工作ボーイや工作ガールの役に立てればと思う.
まずは,LAP-C_Standardというアプリの最新版をZEROPLUS社のHPよりDLする.
ドライバまでインストール出来たらUSBで接続して準備完了.
尚,ソフトはロジアナ本体がなくてもDEMOモードで動かせる.
出先のノートPCで波形解析っていうのも可能かも(私はやったことないけど)
今回の対象となる機器は先にオシロで波形のあたりを付けていたためクロックとデータっぽい波形が見れていた事からI2Cか3線シリアル辺りじゃないかと思って取り掛かった.
案の定全チャンネル分の波形を見たら2ライン以外はHiかLowに張り付いている事が判明.
I2Cに絞って解析開始.
解析方法
取得した2つの波形を[Shift]キーを押しながら左クリックで選択
右クリックより"Group into Bus"を選択しグループ化する
グループ化されたら"Bus1"となったグループにカーソルを合わせて右クリックし"Bus Property"を選択
[Bus Property]の"Protocol Analyzer Setting"より該当のアナライザーを選択(今回はI2C)
因みに,アナライザが出てこない場合はインストールされていないせい.
必要なソフトをZEROPLUSのページからDLすれば見れる.
また,解析に必要な数の波形が選択されていないとエラーが出たり,認証されていないアナライザーは選択できなかったりするので注意.
I2Cの設定画面.
波形が逆転してしまったので選択しなおした.
頻繁に短いスパンで上下しているのがクロック(SCL)ラインで,もう片方がデータ(SDA)I2Cプロトコルについてはフィリップス社が情報を公開しているので詳しくはそちらを参照されたし.
Busにプロトコル名が出ていれば解析されている.
もちろん,解析する波形が違うプロトコルだったりすれば正常な解析結果は出てこない.
次に,解析結果のデータを表化して表示してみる.
[Windw]より"Bus Packet List"を選択
波形ウインドの下にPacketリストが出現.
このパケットリストはテキスト形式で保存することができる.
テキストにすればExcel等で編集したりWinMerge等で差分確認に使用でき非常に便利.
Packet Listウィンドより[Export]を選択.
任意の場所に任意のファイル名で保存可能.
テキストでこのように保存される.
ついでなので解析等に有効な手段も紹介しようかと思う.
テキストファイルのExcel展開方法
Excelでこのようなファイルの開き方は,まずExcelを立ち上げて[ファイル]タブから"開く"を選択.
先ほど保存したデータを選択しますが,デフォルトでは.xls等が表示されるようにフィルタリングされているのでファイル名横のプルダウンメニューより"テキストファイル"を選択して表示させ開く.
選択すると"テキスト ファイル ウィザード"というウインドウが立ち上がるので今回のデータのように何か特定のスペースやカンマ等で保存されている場合はデータのファイル形式を"カンマやタブなどの~"を選択し[次へ]
次の項目では"特定の何か"を指定する.
LAP-C_Standardのエクスポートデータでは基本的にスペースが使われているため"区切り文字"の"スペース"にチェックを入れて[次へ]
次の項目はデータをどのようなルールでセルに保存するかを選ぶ.
表示するものが16進数などの数値データだと"文字列"で開くと仮にデータの中身が"0FF"と仮になっていても"0"が消えることなく表示できる(列ごとに選択して形式を変更)
今回のファイルは0x00と言った具合にExcelが数字として判断するデータはないのでG/標準のまま[次へ]で開ける.
これまたついでにデータ比較の方法なんていうのも紹介してみる.
先ほど開いたデータを他のデータと比較するためにWinMergeというフリーソフトを使用してみる.
まず,上記の手段で開いたデータは以下の通り.
比較に必要なWriteの列からデータまでをドラックアンドドロップでコピーする.
次にプレーンテキスト化するため新規にメモ帳を開いて先ほどコピーしたデータをペースト.
同じように比較データもプレーンテキスト化して準備したら次にWinMergeを立ち上げて比較するファイルを開く.
以下のように,差異がある行には色が付くので解析が容易にできる.
ロジアナの説明だけのつもりがおいしい情報を2つも載せてしまった.
解析に時間をかけるのはよくても,無駄な時間をかけるのはナンセンス.
色々な手段があると思うので慣れた方法でオートメーション化すればよい.
手段が特になければ今回の手法を応用して活用してくれればと思う.
さー,波形がわかったところで私としてはここからが本番.
さて,どんなマイコンで何をどう実現しようか.
企画書を作成しつつ奮闘の日々が訪れそうだ.
[フレーム]
March 02, 2015
締切に追われてたもんで夜間帰宅後も28:00頃まで作業していたからウイルスチェック(終了後オートシャットダウン)させたままPC稼働状態で寝たんだけど急に5:40分頃UPSがピーピーなるもんで起きちゃって...
最初,なんで鳴ってるのか全く分からず漏電か?ってブレーカー見に行ったんだけどシャットされておらずで疑問増大
隣のおねぇちゃんも起きていたみたいでテトテト足音がしてたもんだからてっきり家だけの問題だと思ったんだけど,さすがに気になるし(冷蔵庫開けてもウンスンしてない冷たくない...いや,部屋が庫内とほとんど差がないだけか(爆)
さすがに,朝っぱらから一人暮らしの女性達が住む隣人部屋にピンポーンっていくわけにもいかず取りあえずカーテンを開けてみたらどうもおかしい.
電気がついているお家と付いていないお家が普段の雰囲気と全然違う(朝が早い家と御寝坊な家ってのはほとんど変わらないからよくわかるもの)
まー大したことなくても昨日は雪も雨も降ったし,送電線の異常かトランスの異常だろうと踏んで...までは頭が働いたがさすがに眠く次起きた時に調べようって二度寝についた―.
そして,時刻は7時
体がだるすぎて,ボサボサ頭をフラフラさせながら朝食を用意しようと炊飯器を見たら電気がついている.
あー戻ったのか
と,呑気に独りごちる.
結局,変電所間の送電線が故障したとのこと.
運休や信号が止まったりと交通機関に影響が出たらしいけど,大きなトラブルの連絡は来なかったとか...
ん?でも待てよ?
変電所の送電線故障は,想定の範囲以内だがなぜあの時,近所はまばらに電気が消えたのだ?
変電所間って言ったら給配電されている電気は根こそぎ電流を失うのでは?
ボーっとしながら思った事
その1.自家発電による電力(太陽電池の電灯や太陽光発電による蓄積電力)を使用している
その2.電線経路の問題(本故障で影響が出なかった?)
その3.使用電力による電荷抜けの差
送電線ってトランスまではAC(交流)6.6千ボルトとかで街中に送られているけど(←意外と皆,知らない?)
結局電気は電気であり,回路中の送電経路が断たれた状態では電気は流れない(配電しない)と,言うことは2.は難しくないだろうか?
1つの町を補う配電所はそりゃ複数あるだろうし後から継ぎ足されていくこともある送電線経路は決して隣と同じ配線とは限らないとは思うが,2件3件先や同じアパート内で差が出るものか?
おそらく,そうそうないと思う.
それと3.についてもゼロじゃないにしても1〜2分も差が出るものだろうか?
コンデンサのように電荷抜けが遅い部品の役割を配電間の機器や各電器製品が担ったとしても,難しい気がする.
電力を引く力が低い機器でもやはり電路を絶たれれば直ぐに消える.
残照的に残っても数秒〜数十秒.
遅くとも1分以内には目に見える電気の症候は消えるものだと思う.
と,言う事はまさかの1.なのか?!
そう考えると結構な家が電気ついていたぞ!
俺も人の事言えないけど(UPS:無停電装置⇒私の所有している物なら電力が断たれてもDAWシステムを10分くらいは安定動作しておける)
うーんにわかに信じがたいけど(アパートの電灯とかもついてたよーな・・・あーあれは小さい太陽電池か)
自宅発電の家はやっぱり多くなっているんだなぁという結論でいいのだろうか。。。
僕は寝てたから一切困らなかったけど,起きても付いてなかったら、、、弁当作るくらいなら電気なくてもできるか。。。
いやいや,信号が消灯してたらさすがに車で出社できんわ(あのシャーベット路の中シクロで出勤は勘弁だぜ)
あーでも,だからって自家発電や太陽電池を買う気はないから家にセールス来てもシニカルに追い返すよ.
ま,そういう時代になったって事にしておこう.
でも,もしもの時には自家発電って役に立つとは思ったけど,薄闇の朝日光と自慢の夜眼だけで普通に分電盤見に行ったから,やっぱり現代人って無駄に電気使いすぎだと思うよ.
俺の住んでるアパートは未だに共有スペースの電気はオレが消さないと昼間でも付けっ放しだったりするし...
どっちかっつーとそんなことを感じた停電でした。
最初,なんで鳴ってるのか全く分からず漏電か?ってブレーカー見に行ったんだけどシャットされておらずで疑問増大
隣のおねぇちゃんも起きていたみたいでテトテト足音がしてたもんだからてっきり家だけの問題だと思ったんだけど,さすがに気になるし(冷蔵庫開けてもウンスンしてない冷たくない...いや,部屋が庫内とほとんど差がないだけか(爆)
さすがに,朝っぱらから一人暮らしの女性達が住む隣人部屋にピンポーンっていくわけにもいかず取りあえずカーテンを開けてみたらどうもおかしい.
電気がついているお家と付いていないお家が普段の雰囲気と全然違う(朝が早い家と御寝坊な家ってのはほとんど変わらないからよくわかるもの)
まー大したことなくても昨日は雪も雨も降ったし,送電線の異常かトランスの異常だろうと踏んで...までは頭が働いたがさすがに眠く次起きた時に調べようって二度寝についた―.
そして,時刻は7時
体がだるすぎて,ボサボサ頭をフラフラさせながら朝食を用意しようと炊飯器を見たら電気がついている.
あー戻ったのか
と,呑気に独りごちる.
結局,変電所間の送電線が故障したとのこと.
運休や信号が止まったりと交通機関に影響が出たらしいけど,大きなトラブルの連絡は来なかったとか...
ん?でも待てよ?
変電所の送電線故障は,想定の範囲以内だがなぜあの時,近所はまばらに電気が消えたのだ?
変電所間って言ったら給配電されている電気は根こそぎ電流を失うのでは?
ボーっとしながら思った事
その1.自家発電による電力(太陽電池の電灯や太陽光発電による蓄積電力)を使用している
その2.電線経路の問題(本故障で影響が出なかった?)
その3.使用電力による電荷抜けの差
送電線ってトランスまではAC(交流)6.6千ボルトとかで街中に送られているけど(←意外と皆,知らない?)
結局電気は電気であり,回路中の送電経路が断たれた状態では電気は流れない(配電しない)と,言うことは2.は難しくないだろうか?
1つの町を補う配電所はそりゃ複数あるだろうし後から継ぎ足されていくこともある送電線経路は決して隣と同じ配線とは限らないとは思うが,2件3件先や同じアパート内で差が出るものか?
おそらく,そうそうないと思う.
それと3.についてもゼロじゃないにしても1〜2分も差が出るものだろうか?
コンデンサのように電荷抜けが遅い部品の役割を配電間の機器や各電器製品が担ったとしても,難しい気がする.
電力を引く力が低い機器でもやはり電路を絶たれれば直ぐに消える.
残照的に残っても数秒〜数十秒.
遅くとも1分以内には目に見える電気の症候は消えるものだと思う.
と,言う事はまさかの1.なのか?!
そう考えると結構な家が電気ついていたぞ!
俺も人の事言えないけど(UPS:無停電装置⇒私の所有している物なら電力が断たれてもDAWシステムを10分くらいは安定動作しておける)
うーんにわかに信じがたいけど(アパートの電灯とかもついてたよーな・・・あーあれは小さい太陽電池か)
自宅発電の家はやっぱり多くなっているんだなぁという結論でいいのだろうか。。。
僕は寝てたから一切困らなかったけど,起きても付いてなかったら、、、弁当作るくらいなら電気なくてもできるか。。。
いやいや,信号が消灯してたらさすがに車で出社できんわ(あのシャーベット路の中シクロで出勤は勘弁だぜ)
あーでも,だからって自家発電や太陽電池を買う気はないから家にセールス来てもシニカルに追い返すよ.
ま,そういう時代になったって事にしておこう.
でも,もしもの時には自家発電って役に立つとは思ったけど,薄闇の朝日光と自慢の夜眼だけで普通に分電盤見に行ったから,やっぱり現代人って無駄に電気使いすぎだと思うよ.
俺の住んでるアパートは未だに共有スペースの電気はオレが消さないと昼間でも付けっ放しだったりするし...
[フレーム]
どっちかっつーとそんなことを感じた停電でした。
February 22, 2015
ネットワークをつなぐときに無線と有線どちらでつながっているか不安に思ったことはありませんか?
出先でWiFi使用していたPCを自宅で有線LANに接続したのに実は無線WiFiのまま使用していたなんて事だと全く意味がありません.
Windowsではネットワーク接続に優先順位を決められる設定があります.
優先順位が決まっていれば
有線LAN接続時は優先的にローカルネットワーク接続
有線LANの接続がない時は無線ネットワーク接続
と言う具合に勝手に切り替えてくれます.
これは便利ですね.
それでは早速設定をしてみましょう.
Windowsマークの[スタート]を開き『コントロールパネル』を選択します.
コントロールパネルの『ネットワークとインターネット』を選択します.
『ネットワークと共有センター』を選択します.
ネットワークと共有センター左側の『アダプターの設定の変更』を選択します.
ネットワーク接続に認識しているネットワークが表示されます.
この画面で"Alt"キーを押すとファイル操作メニューが開かれますので"詳細設定(N)"の"詳細設定(S)"を選択します.
詳細設定画面の接続という項目に現在のネットワークが上から順に昇順表示されます.上に行くにつれて優先順位が高いので,任意の順位になるように対象のネットワークを選択して右側の[↑][↓]ボタンで移動しましょう.
今回は有線LAN(ローカルエリア接続)が最優先で有線LANが未接続なら無線LAN(ワイヤレス ネットワーク接続)にしたいので"ローカルエリア接続"を選択して右の[↑]ボタンを押し"ワイヤレス ネットワーク接続"との順番を入れ替えました.
入れ替えたら[OK]を押して設定画面を全て閉じましょう.
お疲れ様でした.
次回電源挿入後の接続から設定の優先順位に基づいてOSが自動で切り替えてくれます.
出先でWiFi使用していたPCを自宅で有線LANに接続したのに実は無線WiFiのまま使用していたなんて事だと全く意味がありません.
Windowsではネットワーク接続に優先順位を決められる設定があります.
優先順位が決まっていれば
有線LAN接続時は優先的にローカルネットワーク接続
有線LANの接続がない時は無線ネットワーク接続
と言う具合に勝手に切り替えてくれます.
これは便利ですね.
それでは早速設定をしてみましょう.
Windowsマークの[スタート]を開き『コントロールパネル』を選択します.
[画像:001]
コントロールパネルの『ネットワークとインターネット』を選択します.
[画像:002]
『ネットワークと共有センター』を選択します.
[画像:003]
ネットワークと共有センター左側の『アダプターの設定の変更』を選択します.
[画像:004]
ネットワーク接続に認識しているネットワークが表示されます.
この画面で"Alt"キーを押すとファイル操作メニューが開かれますので"詳細設定(N)"の"詳細設定(S)"を選択します.
[画像:005]
詳細設定画面の接続という項目に現在のネットワークが上から順に昇順表示されます.上に行くにつれて優先順位が高いので,任意の順位になるように対象のネットワークを選択して右側の[↑][↓]ボタンで移動しましょう.
[画像:006]
今回は有線LAN(ローカルエリア接続)が最優先で有線LANが未接続なら無線LAN(ワイヤレス ネットワーク接続)にしたいので"ローカルエリア接続"を選択して右の[↑]ボタンを押し"ワイヤレス ネットワーク接続"との順番を入れ替えました.
[画像:007]
入れ替えたら[OK]を押して設定画面を全て閉じましょう.
お疲れ様でした.
次回電源挿入後の接続から設定の優先順位に基づいてOSが自動で切り替えてくれます.
February 16, 2015
巷ではハイレゾ(Hi-Res Audio)が注目を浴びているという風潮が見受けられる.
DAWをやっている人間から言わせれば大変昔から48k16bitや48k24bit,そして96k24bitとディジタルのサンプリングレートとしては当たり前に使い当たり前に聴いてきたたため今さらなぜ?という疑問が頭から離れることはない.
メーカーとしては少し音のいい音源が44.1k16bit音源より高値で売れれば儲かるんだと思う.
なぜならレコーディングサンプリングは今やほとんどが44.1k16bitよりはるかに高サンプリング・高ビットレートだからである.
もちろん,ミキシングやマスタリングの過程では最終データに合わせた微調整しているだろうがあくまで作業過程の一貫であり大きな工数ではないためコストの変化はほぼないに等しい.
また,最近の市場はCDよりもデータ配信での売り上げが高く生産コストも圧倒的に下がるだろう.
では何故,それに対価が働くのか疑問になる.
何より一番の疑問は市場ニーズと販売戦略のギャップだ.
たしかに,市場音楽の提供において48k16bit以上の音源はどの音楽にも共通して存在しているわけではない.では,宅レコの現場ですら高サンプリング・高ビットレートが可能な現代において,逆になぜ今までは高サンプリング・高ビットレートでの提供ができなかったのだろうか?
これは単純で市場の中心がCDだったからである.
まず,CD-DA形式は44.1k16bitチャンネル数2.0chによる収録でDVD(Digital Versatile Disc)-Audioでは〜192kHz/24bit2chまでの収録が可能であった.
しかし,ディジタル配信前までの多くの一般ユーザーが使用してきたのがCDプレーヤやMDプレーヤであり,44.1k16bit解像度が身近であり限界だった.
その後,長時間の再生と持ち運びの利便性からMP3データのプレイヤーが普及をはじめネットワークとスマートフォンの普及によりデータ配信や個人でのリッピングによる音声圧縮があたかも当然の如く市場を埋め尽くしていくことになった.
一般ユーザーにとって重要なのは音質より収録時間であるとも見受けられる市場の動きではあるが,それは一般ユーザーの視聴環境にも大きな理由が潜んでいると思う.
要するに,専用の大型オーディオ機器からラジカセ,ウォークマン,ミニコンポ,コンパクトプレーヤを経てスマートデバイスへの変化を遂げた.
娯楽としては手を出しにくい専用オーディオ機器はよりコンパクトな再生機へと置き換わりメディアは小さく大容量化し終いには専用媒体ではなかった携帯電話等のモバイル媒体と実体のないデータでの視聴が一般化していき音楽はより身近になっていったのだ.
故に,自宅や音楽喫茶のようなリスニング環境でしか聴けなかった音楽は電車等の移動中も視聴が可能になりいつでもどこでも自分の好きな曲を聴けるようになったのである.
ただし,身近になった分どうしても問題になるのは音楽に対する聴くという作業である.
リスニングルームでゆっくりと聴くということは音楽視聴に自分の絶対時間を費やし周りの騒音等にあまり影響を受けることなく集中して聴くことができるのに対して車中や電車の中では運転や乗り換えと言った何らかの時間的制約のある中で公共の騒音とともに聞くことになる.集中して音楽を聴こうものなら雑念の一切を排除し電車の降りる駅をも無視できるほどの強者でなければならないであろう.
電車の中で音楽を聞いたことがある人ならなんとなくわかると思う.
車掌のアナウンスや走行音,周囲の人々の声等によりヘッドフォンを付けようがカナレ型のイヤーフォンを付けようが,音楽は環境騒音の中で流れるものになってしまうのである.
ベースの弦を指がこすった音やシンバルのスティックが跳ね返ってあたった音,ヴォーカリストの息使いや水分を含んだ舌の音等が聴こえるはずがない.
自分の耳に届く音の密度の問題だ.
仮に,集中して聴こうとしても,環境音が漏れ聞こえてくる中で"聴く"という作業がいかほどに難しいか一般ユーザーたちはもしかすると知らないのかもしれない.
だからこそ,MP3の低サンプリングで聞いていても音楽の全体像がおぼろげに表現されていれば満足できるし納得できるのだと思う.
私から言わせれば街中で聞くつもりじゃなく耳に入ってくるBGMと同じだ.
仮に,ノイズキャンセラーのヘッドフォンで視聴したとしよう.
確かに環境音は小さくなり集中度は増すのかもしれない.
ただ,気が付いてほしい.それは脳の誤作動的動作であり決して聞きたい音楽の音像が補完できるわけではないのだ.
ノイズキャンセラーの技術はご存じのとおり環境音を収録し逆位相で出力側に発音させ,疑似的に波形の打消し現象を発生させて環境音を小さく聞こえるようにしているのである.
小さくと書いたのには理由がある.
理論的には正位相波形に対し逆位相波形が同じ時間軸に発生すれば完全に波形を消すことができるとされているわけだが,収録音を位相反転して発生させるには少なからずレイテンシー(遅延)が発生する.
位相反転した波形が元波形がからusやms単位でずれれば完全には消えることなく音量が小さくなるだけである.
また,どんなに環境音を収録して発音させても収録するマイクの精度やマイクを覆う機構等により集録された音とヘッドフォン越しに聞こえてくる環境音では音波形に差が生まれてしまい正確な波形の打消しを阻害してしまう.
結果として,少し小さくすることに成功するも結局は環境音をも位相反転して再生している状態になる.すなわち余計な音,ノイズが増すだけなのだ.
そのノイズを視聴音源にマージして再生していると言うことは,ダイナミックレンジを下げる事にもつながるのが判るだろうか?
元ソースに逆位相の環境波形が混ざれば波形的にはピークレベルが変化してしまう.
その分,元ソースの音圧を下げなければクリッピング(割れ)してしまうのである.
故に,ノイズキャンセラーは元ソース音源をリアルに聴くことが絶対にできないものなのである.
それをわかって使用しているユーザーがどれほどいるのかは疑問である.
脱線してしまったが,結局視聴するを他の作業と並行せざる得ない現代の視聴環境ではたとえ音像を強化しても決して"いい音"の恩恵,すなわちハイレゾ効果は得られないのである.
確かに人間の耳は精密であり,MP3の128kbpsと192kbpsとでは,その違いを差として感じることはあるだろう.
では環境騒音の中でご自慢のイヤーフォンでその差を感じられた感動は音楽購買意欲を掻き立てるだろうか?
128kbpsの音が192kbpsの音源だと偽られて再生させられても,対照となる音源がなければ気が付く者は少ないだろう.
視聴環境をリスニングルームにすれば差は大きくなるかもしれないが現代人の視聴環境が移動中や街中だというならばその差はほとんどゼロに等しいとすら思う.
例え,44.1k16bitが192k24bitに変わろうとも"その音"でしかなく"価値"には見合わないのではないだろうか?
音楽を聴く時間もお金もない貧乏暇なしな市場ユーザーのニーズに合わせて変化してしまった音楽リスニングの実態は,各メーカーの事業戦略をも圧迫され,気が付けば高級オーディオ,ハイクオリティー音源より低コスト,利便性に重きを置くようになってしまった.
もはや,不景気の悪循環は市場ユーザーの耳をも体化させてしまったのかもしれないと思ったのは筆者10年前の事である.
長きにわたって失われた音楽へのこだわりを取り戻すべく,メーカーは起死回生の如く市場回復を目標にハイレゾナンス対応機器を生産・販売してくると思うし,ユーザーはこの矛盾に気が付くことなくそれを手に取り購買意欲へとつなげるのだろうと思う.
では,あなたはハイレゾリューションオーディオの普及を喜び自宅に高価なオーディオリスニングルームを用意するだろうか?
今よりハイクオリティーで再生できるオーディオ機器の購入意欲が湧いてくるだろうか?
多分,今までと同じくモニター横に申し訳程度に並べられた小さなスピーカやスマートフォンのおまけでついているスピーカで聞いてしまうのだろうし,電車の中やバスの中でイヤーフォン越しに聞こえてくる環境騒音とともに聞いてしまうと思う.
"音質"より"利便性"を取り,視聴時間より行動時間を取ったユーザーの耳や行動規範はそう簡単には変化しないと思わずにはいられない.
DAWをやっている人間から言わせれば大変昔から48k16bitや48k24bit,そして96k24bitとディジタルのサンプリングレートとしては当たり前に使い当たり前に聴いてきたたため今さらなぜ?という疑問が頭から離れることはない.
メーカーとしては少し音のいい音源が44.1k16bit音源より高値で売れれば儲かるんだと思う.
なぜならレコーディングサンプリングは今やほとんどが44.1k16bitよりはるかに高サンプリング・高ビットレートだからである.
もちろん,ミキシングやマスタリングの過程では最終データに合わせた微調整しているだろうがあくまで作業過程の一貫であり大きな工数ではないためコストの変化はほぼないに等しい.
また,最近の市場はCDよりもデータ配信での売り上げが高く生産コストも圧倒的に下がるだろう.
では何故,それに対価が働くのか疑問になる.
何より一番の疑問は市場ニーズと販売戦略のギャップだ.
[フレーム]
たしかに,市場音楽の提供において48k16bit以上の音源はどの音楽にも共通して存在しているわけではない.では,宅レコの現場ですら高サンプリング・高ビットレートが可能な現代において,逆になぜ今までは高サンプリング・高ビットレートでの提供ができなかったのだろうか?
これは単純で市場の中心がCDだったからである.
まず,CD-DA形式は44.1k16bitチャンネル数2.0chによる収録でDVD(Digital Versatile Disc)-Audioでは〜192kHz/24bit2chまでの収録が可能であった.
しかし,ディジタル配信前までの多くの一般ユーザーが使用してきたのがCDプレーヤやMDプレーヤであり,44.1k16bit解像度が身近であり限界だった.
その後,長時間の再生と持ち運びの利便性からMP3データのプレイヤーが普及をはじめネットワークとスマートフォンの普及によりデータ配信や個人でのリッピングによる音声圧縮があたかも当然の如く市場を埋め尽くしていくことになった.
一般ユーザーにとって重要なのは音質より収録時間であるとも見受けられる市場の動きではあるが,それは一般ユーザーの視聴環境にも大きな理由が潜んでいると思う.
要するに,専用の大型オーディオ機器からラジカセ,ウォークマン,ミニコンポ,コンパクトプレーヤを経てスマートデバイスへの変化を遂げた.
娯楽としては手を出しにくい専用オーディオ機器はよりコンパクトな再生機へと置き換わりメディアは小さく大容量化し終いには専用媒体ではなかった携帯電話等のモバイル媒体と実体のないデータでの視聴が一般化していき音楽はより身近になっていったのだ.
故に,自宅や音楽喫茶のようなリスニング環境でしか聴けなかった音楽は電車等の移動中も視聴が可能になりいつでもどこでも自分の好きな曲を聴けるようになったのである.
ただし,身近になった分どうしても問題になるのは音楽に対する聴くという作業である.
リスニングルームでゆっくりと聴くということは音楽視聴に自分の絶対時間を費やし周りの騒音等にあまり影響を受けることなく集中して聴くことができるのに対して車中や電車の中では運転や乗り換えと言った何らかの時間的制約のある中で公共の騒音とともに聞くことになる.集中して音楽を聴こうものなら雑念の一切を排除し電車の降りる駅をも無視できるほどの強者でなければならないであろう.
電車の中で音楽を聞いたことがある人ならなんとなくわかると思う.
車掌のアナウンスや走行音,周囲の人々の声等によりヘッドフォンを付けようがカナレ型のイヤーフォンを付けようが,音楽は環境騒音の中で流れるものになってしまうのである.
ベースの弦を指がこすった音やシンバルのスティックが跳ね返ってあたった音,ヴォーカリストの息使いや水分を含んだ舌の音等が聴こえるはずがない.
自分の耳に届く音の密度の問題だ.
仮に,集中して聴こうとしても,環境音が漏れ聞こえてくる中で"聴く"という作業がいかほどに難しいか一般ユーザーたちはもしかすると知らないのかもしれない.
だからこそ,MP3の低サンプリングで聞いていても音楽の全体像がおぼろげに表現されていれば満足できるし納得できるのだと思う.
私から言わせれば街中で聞くつもりじゃなく耳に入ってくるBGMと同じだ.
仮に,ノイズキャンセラーのヘッドフォンで視聴したとしよう.
確かに環境音は小さくなり集中度は増すのかもしれない.
ただ,気が付いてほしい.それは脳の誤作動的動作であり決して聞きたい音楽の音像が補完できるわけではないのだ.
ノイズキャンセラーの技術はご存じのとおり環境音を収録し逆位相で出力側に発音させ,疑似的に波形の打消し現象を発生させて環境音を小さく聞こえるようにしているのである.
小さくと書いたのには理由がある.
理論的には正位相波形に対し逆位相波形が同じ時間軸に発生すれば完全に波形を消すことができるとされているわけだが,収録音を位相反転して発生させるには少なからずレイテンシー(遅延)が発生する.
位相反転した波形が元波形がからusやms単位でずれれば完全には消えることなく音量が小さくなるだけである.
また,どんなに環境音を収録して発音させても収録するマイクの精度やマイクを覆う機構等により集録された音とヘッドフォン越しに聞こえてくる環境音では音波形に差が生まれてしまい正確な波形の打消しを阻害してしまう.
結果として,少し小さくすることに成功するも結局は環境音をも位相反転して再生している状態になる.すなわち余計な音,ノイズが増すだけなのだ.
そのノイズを視聴音源にマージして再生していると言うことは,ダイナミックレンジを下げる事にもつながるのが判るだろうか?
元ソースに逆位相の環境波形が混ざれば波形的にはピークレベルが変化してしまう.
その分,元ソースの音圧を下げなければクリッピング(割れ)してしまうのである.
故に,ノイズキャンセラーは元ソース音源をリアルに聴くことが絶対にできないものなのである.
それをわかって使用しているユーザーがどれほどいるのかは疑問である.
脱線してしまったが,結局視聴するを他の作業と並行せざる得ない現代の視聴環境ではたとえ音像を強化しても決して"いい音"の恩恵,すなわちハイレゾ効果は得られないのである.
[フレーム]
確かに人間の耳は精密であり,MP3の128kbpsと192kbpsとでは,その違いを差として感じることはあるだろう.
では環境騒音の中でご自慢のイヤーフォンでその差を感じられた感動は音楽購買意欲を掻き立てるだろうか?
128kbpsの音が192kbpsの音源だと偽られて再生させられても,対照となる音源がなければ気が付く者は少ないだろう.
視聴環境をリスニングルームにすれば差は大きくなるかもしれないが現代人の視聴環境が移動中や街中だというならばその差はほとんどゼロに等しいとすら思う.
例え,44.1k16bitが192k24bitに変わろうとも"その音"でしかなく"価値"には見合わないのではないだろうか?
音楽を聴く時間もお金もない貧乏暇なしな市場ユーザーのニーズに合わせて変化してしまった音楽リスニングの実態は,各メーカーの事業戦略をも圧迫され,気が付けば高級オーディオ,ハイクオリティー音源より低コスト,利便性に重きを置くようになってしまった.
もはや,不景気の悪循環は市場ユーザーの耳をも体化させてしまったのかもしれないと思ったのは筆者10年前の事である.
長きにわたって失われた音楽へのこだわりを取り戻すべく,メーカーは起死回生の如く市場回復を目標にハイレゾナンス対応機器を生産・販売してくると思うし,ユーザーはこの矛盾に気が付くことなくそれを手に取り購買意欲へとつなげるのだろうと思う.
では,あなたはハイレゾリューションオーディオの普及を喜び自宅に高価なオーディオリスニングルームを用意するだろうか?
今よりハイクオリティーで再生できるオーディオ機器の購入意欲が湧いてくるだろうか?
多分,今までと同じくモニター横に申し訳程度に並べられた小さなスピーカやスマートフォンのおまけでついているスピーカで聞いてしまうのだろうし,電車の中やバスの中でイヤーフォン越しに聞こえてくる環境騒音とともに聞いてしまうと思う.
"音質"より"利便性"を取り,視聴時間より行動時間を取ったユーザーの耳や行動規範はそう簡単には変化しないと思わずにはいられない.
January 14, 2015
動画編集で特に困るのがコーデックと余分な部分の切り出し.
よく,拡張子(フォーマット形式)で「それは圧縮形式か?」と問う人がいるが,あくまで動画ファイルでの拡張子は器でしかない.
内部情報が重要で,仮に拡張子が.movや.mp4となっていても,中身のデータがどっちもH.264だったり(mp4はQuickTimeフォーマットベースなので仕方がないが...コーデックが多すぎる.aviよりマシだと思って使っている)×ばつ720だったり(撮影機側でそろえればいいのだが,トリミング前提で意図的に変えているものもあるので仕方がない),etc...
と,まぁ全然そろっていないわけだ.
Adobe Premiereの場合,異なる動画形式を1つのタイムラインに張り付けても問題はないのだが,如何せん私の環境では音声編集はCubaseで行っているためタイムコードの出ない動画ファイルの場合,リップシンク(ここで言うリップシンクはタイミング合わせの事で,口パクの事ではない)をするために動画ファイルのまま編集をかけているので動画形式が異なると開けなくなったりして・・・と大変なのである.
ファイル形式を変更する手段としてAdobe Encoderを使うと言う手もあるのだが書き出し形式を決める過程上,元データのコーデックを知らないと無劣化編集ができない不便さがある上,私の環境だとカスペルスキー等の常駐系ソフト類と相性が悪いのか頻繁に落ちる.
そこで使用するのが以下のソフトである
コーデックチェッカー
・真空波動研:言わずと知れた動画再生プレーヤ.軽いソフトでありながら高いコーデック判別能力を持つマルチなフリーソフト
・MediaInfo:詳細解析ができるコーデック判別ソフト.右クリックメニューから解析が行える機能やコーデック配布ページを開く機能等非常に便利.
動画切り出し
・Free Video Dub:プレビュー画面を見ながらの無劣化カット編集ソフト.解像度変更等は一切行わない分シンプル.ただ,統合システムであるFreeStudioManagerを立ち上げなければならないのが面倒なのと,再生時に描画が追いつかないことがたびたびある・・・
インストール時に中華製お得意の余分なものがついてくるので全てカスタムで逃げることを忘れずに!
・Movica:さまざまな動画形式からトリミング,結合,そして分割が可能な多機能ソフト.音声部分のみを抜き出してMP3等に変換することも可能.
正直,編集にこなれ感はまだない.
依頼モノは音声を重視するのか映像を重視するのかで妥協してきたのだが,事がTsLABとなるとそうはいかない.
と言うか,理念的に"アマチュアでできる限りの事をし尽くす"をモットーにしているので(いつしたんだよ...)間違いを繰り返しながらでもベストを尽くしたいのである.
一時期はCubaseでベース映像の切り貼りをしていた時もあるのだが,さすがに本末転倒だということで今のところ手順として私の環境では一番有効なのは以下の通り.
1.Adobe Premiereに動画や画像を張り付けて画的編集しダンプ
2.上記ダンプファイルをAdobe Encoderにて仮動画化(1ファイル化)
3.Cubaseに2.の仮動画を張り付け音声ミックスとリップシンクを行いダンプ
4.Adobe Premiereにて1.の元データに再度3.の音声をマージし調整(マスタリング)しダンプ
5.上記ダンプファイルをAdobe Encoderにて最終ファイル化
正直,音声は目視(聴感)合わせだし煩雑さは否めない.
タイムコードまで管理するとなると,業務用の撮影機器が必要になるため限界はあるのだがどうにかならないものかと思う...
ちなみに,メインカメラのE-M5(OLYMPUS OM-Dシリーズのミラーレスカメラ)に至っては記録されている動画の音声自体がタイミングズレを起こしている有様...(バッテリー駆動時なのでAC周波数や外来ノイズによるものではないとは思うけど)
しかも,時折画がフラッシュする...S-AF設定だからなのだろうか?それともフレームレートでも合っていないのだろうか?
某書き込みサイトやメーカーページにそれらしい記述はないし,一様に不具合とは言い切れないと思うので,もう少し色々試してみて解消できなければメーカーに問い合わせてみようかと思う.
最近,頻繁に動画編集を行っているため色々考えつつも探り探り落ち着くところを模索する日々が続いているわけだが,出来れば1つのプラットフォームで何とかしたいのが本音だったりする...
×ばつ1080等のサイズ画像を1秒間に24コマ(fps:frame per second)とか60コマもある映像を編集するわけだから仕方がないのだと思ってしまうのはよくも悪くも大人になってしまった証拠かもしれない(苦笑)
ちなみにStudioT'sLABではファイル形式の動画(動画サイト用等)は,映像は非可逆圧縮のコーデック(H.264)で720p29.97fps,音声は48kHz16bit化が圧倒的に多い(DVD画質と言うこと)
もちろん1080i(インターレース)やp(プログレッシブ)の60fps記録や96k記録も可能だが,元ソースのフォーマットがまばらで,そこまでの解像度がなかったりするものも含まれてしまうため,正直なところ必要ない.
それより,1ファイルのサイズのが大きくなり過ぎない事が重要だと思っている.
運用する上では編集ファイルごと元ソースも残っているし最終出力フォーマットは今のプラットフォームがある以上,気にすることはないんだが一応...
本当,制作側としては120fpsオーバーのフレーム数とか4Kフォーマットの動画が家庭用ビューカムの主流になって欲しくないものだとつくづく思う今日この頃...
だいたいにして,DVD市場の終焉も見えないままBDXL(3層99GB,4層128の次世代BD規格)だのUHD BLU-RAY規格だのって,また消費者泣かせる気か?って思うのは私だけではないだろう.
よく,拡張子(フォーマット形式)で「それは圧縮形式か?」と問う人がいるが,あくまで動画ファイルでの拡張子は器でしかない.
内部情報が重要で,仮に拡張子が.movや.mp4となっていても,中身のデータがどっちもH.264だったり(mp4はQuickTimeフォーマットベースなので仕方がないが...コーデックが多すぎる.aviよりマシだと思って使っている)×ばつ720だったり(撮影機側でそろえればいいのだが,トリミング前提で意図的に変えているものもあるので仕方がない),etc...
と,まぁ全然そろっていないわけだ.
Adobe Premiereの場合,異なる動画形式を1つのタイムラインに張り付けても問題はないのだが,如何せん私の環境では音声編集はCubaseで行っているためタイムコードの出ない動画ファイルの場合,リップシンク(ここで言うリップシンクはタイミング合わせの事で,口パクの事ではない)をするために動画ファイルのまま編集をかけているので動画形式が異なると開けなくなったりして・・・と大変なのである.
ファイル形式を変更する手段としてAdobe Encoderを使うと言う手もあるのだが書き出し形式を決める過程上,元データのコーデックを知らないと無劣化編集ができない不便さがある上,私の環境だとカスペルスキー等の常駐系ソフト類と相性が悪いのか頻繁に落ちる.
そこで使用するのが以下のソフトである
コーデックチェッカー
・真空波動研:言わずと知れた動画再生プレーヤ.軽いソフトでありながら高いコーデック判別能力を持つマルチなフリーソフト
・MediaInfo:詳細解析ができるコーデック判別ソフト.右クリックメニューから解析が行える機能やコーデック配布ページを開く機能等非常に便利.
動画切り出し
・Free Video Dub:プレビュー画面を見ながらの無劣化カット編集ソフト.解像度変更等は一切行わない分シンプル.ただ,統合システムであるFreeStudioManagerを立ち上げなければならないのが面倒なのと,再生時に描画が追いつかないことがたびたびある・・・
インストール時に中華製お得意の余分なものがついてくるので全てカスタムで逃げることを忘れずに!
・Movica:さまざまな動画形式からトリミング,結合,そして分割が可能な多機能ソフト.音声部分のみを抜き出してMP3等に変換することも可能.
正直,編集にこなれ感はまだない.
依頼モノは音声を重視するのか映像を重視するのかで妥協してきたのだが,事がTsLABとなるとそうはいかない.
と言うか,理念的に"アマチュアでできる限りの事をし尽くす"をモットーにしているので(いつしたんだよ...)間違いを繰り返しながらでもベストを尽くしたいのである.
一時期はCubaseでベース映像の切り貼りをしていた時もあるのだが,さすがに本末転倒だということで今のところ手順として私の環境では一番有効なのは以下の通り.
1.Adobe Premiereに動画や画像を張り付けて画的編集しダンプ
2.上記ダンプファイルをAdobe Encoderにて仮動画化(1ファイル化)
3.Cubaseに2.の仮動画を張り付け音声ミックスとリップシンクを行いダンプ
4.Adobe Premiereにて1.の元データに再度3.の音声をマージし調整(マスタリング)しダンプ
5.上記ダンプファイルをAdobe Encoderにて最終ファイル化
正直,音声は目視(聴感)合わせだし煩雑さは否めない.
タイムコードまで管理するとなると,業務用の撮影機器が必要になるため限界はあるのだがどうにかならないものかと思う...
ちなみに,メインカメラのE-M5(OLYMPUS OM-Dシリーズのミラーレスカメラ)に至っては記録されている動画の音声自体がタイミングズレを起こしている有様...(バッテリー駆動時なのでAC周波数や外来ノイズによるものではないとは思うけど)
しかも,時折画がフラッシュする...S-AF設定だからなのだろうか?それともフレームレートでも合っていないのだろうか?
某書き込みサイトやメーカーページにそれらしい記述はないし,一様に不具合とは言い切れないと思うので,もう少し色々試してみて解消できなければメーカーに問い合わせてみようかと思う.
最近,頻繁に動画編集を行っているため色々考えつつも探り探り落ち着くところを模索する日々が続いているわけだが,出来れば1つのプラットフォームで何とかしたいのが本音だったりする...
×ばつ1080等のサイズ画像を1秒間に24コマ(fps:frame per second)とか60コマもある映像を編集するわけだから仕方がないのだと思ってしまうのはよくも悪くも大人になってしまった証拠かもしれない(苦笑)
ちなみにStudioT'sLABではファイル形式の動画(動画サイト用等)は,映像は非可逆圧縮のコーデック(H.264)で720p29.97fps,音声は48kHz16bit化が圧倒的に多い(DVD画質と言うこと)
もちろん1080i(インターレース)やp(プログレッシブ)の60fps記録や96k記録も可能だが,元ソースのフォーマットがまばらで,そこまでの解像度がなかったりするものも含まれてしまうため,正直なところ必要ない.
それより,1ファイルのサイズのが大きくなり過ぎない事が重要だと思っている.
運用する上では編集ファイルごと元ソースも残っているし最終出力フォーマットは今のプラットフォームがある以上,気にすることはないんだが一応...
本当,制作側としては120fpsオーバーのフレーム数とか4Kフォーマットの動画が家庭用ビューカムの主流になって欲しくないものだとつくづく思う今日この頃...
だいたいにして,DVD市場の終焉も見えないままBDXL(3層99GB,4層128の次世代BD規格)だのUHD BLU-RAY規格だのって,また消費者泣かせる気か?って思うのは私だけではないだろう.