NotebookLM:色々実験してみる
おはようございます。東京・練馬の税理士、村田龍矢です。
今日は、またNotebookLMで実験している話。
実験1:ソースの量で回答結果がどう変わるのか?
「個人の確定申告について調べて」
というおおざっぱな質問を投げてみました。
ソースは、税務雑誌1年分か十数年分かでそれぞれ回答を作ってもらいました。
回答結果を比べてみると、
1年分:文字量3441
十数年分:文字量2229
という結果。
全体の構造は「ほぼ同じ」という結果。
確定申告の概要→確定申告が必要な人→所得の分類と税額計算→個人の確定申告における留意点→税務調査への対応
という全体の流れは両者とも同じでした。
ただ、個別の項目を見ていくと、ソースが少ない方が回答の情報量が結果的に多い、ということが気になりますね。
これ、なんでなんでしょう?
そこまではちょっとわかりませんが、とにかく何でもソースに投入して全部生成AIにさらってもらって回答を作る、ということだけが正解とは言えないような気がします。
欲しい回答があるときは、ふさわしいソースに限定して作業をお願いした方がいいのかもしれませんね。
実験2:質問の濃淡で結果がどう変わるのか
質問:税務調査一般について→文字量4074 税務調査の全体像について一般的な内容が出力。
質問:税務調査の手続きについて→文字量2393 手続の全体的な内容が出力。
質問:税務調査の調査の選定について→文字量2292 まずまずな内容、というところ。ただ、調査の選定について聞いているのに選定後の「準備調査」についての言及もあり、それは関係ないよねというところも回答していた。
ということでちょっと回答が微妙な感じになってきたので、
質問:税務署が税務調査を選定する際のポイントをまとめて→文字量3022 質問に対する回答が微妙な感じになってきたので切り口を変えて。回答の精度は上がったように思う。「まとめて」と言ったので、まぁ確かによくまとまっている感じに。
さて、質問の仕方で文字量に影響するような気がするので、今度は、これまでの質問に「1000文字でまとめて」と制限を付けてみました。
そうした結果、だいたい1000文字でうまくまとめてはくれましたね。
ただ、やはり質問がおおざっぱだとおおざっぱな回答にはなるみたいです。
「税務調査一般について1000文字でまとめて」と聴いても、フワッとしすぎて何を言っているのかよくわからない笑
ある程度的を絞った質問でないと、文字量を制限しない方がいいように思えますね。
実験3:専門誌でなくても使えるのか?
ここまでは、税金の専門誌で色々と実験していました。
そこで、今度はジャンルを思い切って変えて、グルメ雑誌はどうかと。
グルメも興味があって、毎月買っているのでそれをNotebookLMのソースにして実験してみました。
そこで、
「東京都内で焼き肉店をピックアップして。おすすめポイントも併せて。」
と聞いてみたところ、ずらっと一覧形式で表示してくれました。
もちろん、おすすめポイントもしっかりと。
ふむ、なかなかやりますね。
続いて、
「東京の居酒屋をピックアップして。おすすめポイントも調べて、ランク付けしてみて」
と質問。
それらしい回答を返してくれました。SからBまでランクを付けて。
もちろん、私は全然知らないお店ばかりですから、NotebookLMがどうやってピックアップしてランク付けしたのか、全然見えないところがあります。
ただ、参考情報としては面白いかなと。
こんな感じで、仕事以外の趣味や日常分野でも、ソースがしっかりしていれば使用には耐えうるのかなという印象でした。
【編集後記】
昨日は午前中はブログ更新と自重トレーニング。
午後からはクライアントの決算作成と電話打ち合わせ。
夕方からはオンラインセミナーの視聴。

