インタビュー素材の音声起こし作業

 

AIの普及で録音したインタビューの音声も

以前より格段に速く、

高精度で文字起こしできるツールが増えた。

喜んで使っていたのだが、

今回、またインタビューをもとに本を書くことになって、

自分の耳を使って書きおこす、

いわゆるアナログスタイルに戻っている。

AIにやらせたほうがいいのに、

なぜ?と思われるだろう。

 

理由は主に四つある。

 

一つは、雑談っぽいところから入って、

けっこう無駄話(無駄だけどインタビュイーの人間性を知るのには重要)をしているので、

そこのところはあまり起こす必要性がないこと。

 

一つは精度が上がったとはいえ、

けっして完璧ではないので、

単語も間違っているのがあるし、

わけのわからない文章になっているところが

いくつもある。

そうすると確認・修正するために

結局、もう一度聴かなくてはならない。

 

三つめはすべて静かな環境で

対面で聴けていればいいのだが、

仕事の現場で録音したファイルもあり、

かなりノイズが入っている。

これにはAIは役に立たないので、自分でやるしかない。

 

四つ目。これが最重要なのだが、

文字面を見ているだけだと

細かいニュアンスが伝わってこない。

同じ言葉でもトーン、イントネーションで

意味が変わってくるし、

喋っている文章のどの部分に、

どのような感情をこめているのか?

今回の仕事の場合、これらがけっこう重要だったりする。

生のヴォイスには文字面では表現できない

様々な情報が込められているのだ。

 

そうすると結局、最初から一ファイルずつ聞き直し、

自分の手で書いていく必要がある。

逆にAIなどに頼らず、潔くアナログでやったほうが

却って正確で速かったりもする。

 

デジタルはダメだと言うつもりはないし、

AIの起こし原稿で十分書ける仕事もある。

まだうまく使えてないのだと言われればそれまでだが、

重労働である音声起こしは、

なかなか楽な仕事にならない。