知識人と目されてる人が、ちょっと調べれば分かるようなこと(今回でいうとリンク先の記事の中身を読めば自明なこと)を間違ったことを発信しているのを見た。私はその人のことがまあまあ好きで一目置いていたんだけど、間違えることもあるんだなと思った。なんかこういう堂々とした間違いみてると、知識人ってなんだろう、トップレベルの知識人と目されている人も堂々と間違ったことをいう典型的な例だなと思った。

でもそれ自体は別に大きな問題ではない。間違ってしまうこと自体は人間だからある。これに対して訂正をするのか、この明らかな間違いに対してどういう態度を取るかのほうが興味がある。

投稿削除も嫌だけど、完全にスルーもそれはそれで嫌だ。その人の盲目的なファンでない限り、訂正する行動を取れたほうがはるかに信頼度は上がるだろう。けど衆愚的な視点にたてば、人はすぐ忘れるので訂正して謝罪するのは損である。ただ、少数かもしれないがちゃんと見ている人はいる。

AIもハルシネーションが… みたいに言われることは多いが、信頼できる人間なら正しいことを言うかというと間違える可能性は全然ある(特に専門外であれば)。そういう意味で情報の発信において人間だからどう、AIだからどうだ、みたいな境界はあいまいだと感じる。

また、AIの効用でいうと、何かを発信する場合において、検証のステップを挟むことは容易になっている。明らかな間違いを発信してしまうリスクは、検証のステップを挟むワークフローを確立していれば防ぐことや一歩立ち止まることは簡単だ。この人はそういう仕組みは持っていないんだなということは分かる。

システム開発でも同じで、不具合を仕込んでリリースしてしまう可能性は人間にせよAIにせよあるんだけど、そのリスクを多段防御する仕組みを持つことの重要性が今後ましてくると思う。