AI ツールが多くのことをでっち上げており、それは大きな問題です

ブログ

ホームページホームページ / ブログ / AI ツールが多くのことをでっち上げており、それは大きな問題です

Aug 05, 2023

AI ツールが多くのことをでっち上げており、それは大きな問題です

人工知能が世界を征服する前に、1 つの問題を解決する必要があります。 ボットは幻覚を見ています。 ChatGPT のような AI を活用したツールは、その生産能力に私たちを魅了しています。

人工知能が世界を征服する前に、1 つの問題を解決する必要があります。 ボットは幻覚を見ています。

ChatGPT のような AI を活用したツールは、一見どんなプロンプトに対しても、権威ある人間のような応答を生成できる能力で私たちを魅了しています。 しかし、宿題の手伝い、職場の調査、健康状態の問い合わせなどでこの話題のテクノロジーを利用する人が増えるにつれ、その最大の落とし穴の 1 つがますます明らかになってきています。それは、AI モデルが単なるでっち上げであることが多いということです。

メタ社のAI責任者がツイートで述べたように、研究者らはAIモデルが不正確な情報を吐き出すこの傾向を「幻覚」、さらには「作話」と呼ぶようになった。 一方、ソーシャルメディアユーザーの中には、チャットボットを単に「病的な嘘つき」として非難する人もいます。

しかし、ホワイトハウスの AI 権利章典の青写真の共同執筆に貢献したブラウン大学教授のスレシュ・ヴェンカタスブラマニアン氏によると、これらの記述はすべて、機械の動作を擬人化しようとする私たちのあまりにも人間的な傾向に由来しているという。

現実には、大規模な言語モデル(ChatGPT などの AI ツールを支える技術)は、ユーザーのプロンプトに対して「もっともらしい答えを生成する」ように訓練されているだけだ、とヴェンカタサブラマニアン氏は述べました。 「ですから、その意味では、もっともらしく聞こえる答えは、それが正確であるか事実であるか、作られたものであるかどうかにかかわらず、合理的な答えであり、それが生み出すものです」と彼は述べた。 「そこには真実の知識はありません。」

AI研究者は、何かが間違っている、または悪意があるという意味合いを伴う幻覚や嘘よりも行動を類似させるには、これらのコンピューターの出力を、彼の幼い息子が4歳のときに物語を語る方法と比較することになるだろうと述べた。 「『それで、何が起こったの?』と言うだけでいいのです」 そして彼はさらに多くの物語を作り続けるだろう」とヴェンカタスブラマニアンは語った。 「そして彼はただ延々と話し続けました。」

AI チャットボットを開発している企業は、こうした幻覚の最悪の事態を防ぐことを目的としたいくつかのガードレールを設置しています。 しかし、生成型 AI に関する世界的な誇大宣伝にもかかわらず、チャットボットの幻覚が解決可能な問題なのかどうかについて、現場の多くの人が依然として悩んでいます。

ワシントン大学の教授であり、科学研究センターの共同創設者でもあるジェビン・ウェスト氏によると、幻覚とは、簡単に言えば、AIモデルが「現実と一致しないものをでっち上げ始めるとき」を指すという。一般の人々に情報を提供します。

「しかし、それは純粋な自信を持って答えます」とウェスト氏は付け加えました。「そしてそれは、『米国の首都はどこですか?』のような非常に単純な質問をした場合と同じ自信を持って答えます。」

これは、ユーザーが答えをまだ知らないことをチャットボットに質問した場合、何が真実なのかを見分けるのが難しいことを意味するとウェスト氏は述べた。

AI ツールによる多数の注目を集める幻覚現象がすでに見出しを飾っています。 Google が ChatGPT の大きな競争相手である Bard のデモを初めて公開したとき、このツールはジェームズ ウェッブ宇宙望遠鏡による新発見に関する質問に対して間違った答えを出したことが公にされました。 (当時Googleの広報担当者はCNNに対し、今回の事件は「厳格なテストプロセスの重要性を浮き彫りにした」と述べ、同社は「バード氏の回答が現実世界の情報の品質、安全性、根拠に関する高い基準を確実に満たすよう取り組んでいる」と語った) 。」)

ニューヨークのベテラン弁護士も、法律調査に ChatGPT を使用し、チャットボットが単にでっち上げたと思われる 6 件の「偽の」訴訟を含む準備書面を提出したところ、ひどい目に遭いました。 報道機関CNETも、AIツールによって生成された記事が、複利の仕組みについて説明を求められた際に、極めて不正確な個人金融に関するアドバイスを提供してしまったことを受け、修正発表を余儀なくされた。

しかし、AI幻覚を取り締まれば、ChatGPTに詩や歌の歌詞を書くように依頼するユーザーなど、より創造的な取り組みを行う人々を支援するAIツールの能力が制限される可能性がある。