道具の進化とデータのクオリティ

このところ,教室での生の授業を研究対象にしていることもあり,データ収集やその扱いに腐心してきました。授業の様子をいかに情報量の豊かな音声や動画として記録するか,そして,その素材をデータという形にできるか,というのは解釈・分析を行うまでのプロセスとしてとても重要です。前者については,ビデオやボイスレコーダが,安価になって,しかも,性能が飛躍的に良くなったので,(もちろん授業を阻害しないという前提で)設置場所やアングルに注意を払えば,あまり問題なくなってきているのではないでしょうか。むしろ,たいへんなのは,後者,すなわち,撮ってきた動画,録ってきた音声から,書き起こす手前の素材をどうやって準備するかだと思います。

で,これまで,私自身,どうやっていたかというと,複数のビデオカメラのデータ,ボイスレコーダーのデータをiMovieかFinalCut Proに取り込んで,それぞれのトラックを手で微調整しながら,同期させ,一本のビデオに出力,という作業でした。しかし,この微調整というのが,とてもイライラする作業で,動画と音声がなかなかぴったりとあわないのです。ちょうど,いっこく堂の衛星中継によるレポートのような結果になってしまうわけです。まあ,それでも書き起こしできないわけではないのですが,どうもねえ。

ところが,昨年,Red Giant社のPlural Eyesというソフトを発見しました。このソフトは,チュートリアルを見てもらうと一目瞭然なのですが,バラバラの音声と動画の素材をドラッグドロップし,Synchronizeをクリックすると,ソフトが音声波形を比較し(たぶん),異なる素材同士を同期してくれます。もうこれは,感動的です。もし,一部同期できていなくても,”Try harder”(かわいいな)というコマンドを使うと,さらに微調整して,画像と音声の同期を一生懸命やってくれます。今までの苦労は何だったんだというくらいのシロモノです。

音声だけで会話分析をされているみなさんには,怒られそうなのですが,でも,教室のやりとりの分析では,話者と聞き手の関係だけでなく,それを取り巻く児童・生徒の動きや表情というのも,とても重要なのです。だから,動画と音声のクオリティができるだけ高い素材を準備したいのです。昨日,一緒に作業していた院生さんも,音声と動画が完全に同期し,授業中の子どもや教師のやりとりが生き生きと見えるようになった動画を見て,「これで,書き起こしするモチベーションが高まりました!」と言っていました。まったく同感です。

その動画から起こしたトランスクリプトをどう解釈していくかが本質的な問題だ,ということは,百も承知ですが,道具が良くなっていくと,良質のデータが手に入り,解釈もより多角的になるのです。ビデオで切り出した風景そのものは,人間が経験した場面とは異なるものだ,ということは肝に銘じつつ,研究を進めていきましょう。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください