最近ChatGPTやAI技術が話題になっていますね。
様々な記事が出ています。
作家がブレーンストーミングに使ったり、
システム開発者がコーディングに使ったり、
医者が診断に使ったり、
良い形で使うことも十分可能だと思います。
でもどこまで進化するかわからない中その危険性を鑑み最新のAI技術の開発を一時停止するよう訴えている団体がいるようです。
(また出たイーロン・マスク!)
実は先日書いたブログ、ブック・ドクターってまさにAIが適してるのではないかな、と思ったんですよね。あらゆる本の内容、属性、レビューがインプットされていて、そこに個人の情報をマッチングする。そして読んだフィードバックをベースにトライアル&エラーでその個人に合わせて精査していく。
あ、これもしかして次世代Amazonのおすすめ機能かもしれない。
でも、AIになってしまったらもしかしたら危険かも、って思ったんですよね。
人間は信じたいものを信じるから。
大抵の場合、そんな世界があると知らなかった~よりも、私もそう思ってた~!のほうが高評価だから。
分断が縮まるどころかどんどん開いてしまう。
そうしないための思想をAIに学ばせることはできるのか。
でも誰の権限で何の思想を学ばせるのか。
今後AI技術がどんどん人間社会に影響を与えてくのは間違いないかと思います。
そのため目指す社会の方向性や倫理観の議論なしで野放しにするのは私も心配です。
例えば、こちらの記事ではGPT-4もリリースされる前に悪意をもって使われるケースもテストしては使用できないよう対応していたようです。(CAPTCHAのハッキングに使われたり、家で危険物を作るようなHow Toものなど)
ただ当然あらゆるリスクを想定してテストできるわけでもなく。
今後どうなっていくのか。
例えば自動車が導入された時のように、事故は多発するけれど法整備、インフラ整備をして事故抑制をするしかない、みたいな感じになるのか。
でもいずれにしてもまだ誰も考えていないような形で使われていくような気がします。
(あ、ダジャレを思いついてしまった。果たして愛のあるAIは誕生するのか、なんちゃって)