見出し画像

9/30 ニュースなスペイン語 Alucinaciones:ハルシネーション

英語では「hallucination」と綴り、「幻覚・幻想」とも訳される。

彼らは博士課程レベルの数学の問題を解くことができますが、しかし、単純な足し算を間違ってしまうこともあるのです(pueden resolver varios problemas matemáticos de nivel de doctorado, pero se pueden equivocar en una simple suma)ーー。

どこの頭デッカチャンの話かと思ったら・・・。

これはバレンシア工科大学(la Universitat Politècnica de València)の共同研究チームの見解で、「彼ら」とは、今、飛ぶ鳥を落とす勢いで世界を席巻している人工知能(inteligencia artificial;AI)のことらしい。

人工知能のモデルは、人間の能力には複雑と思える問題を解く力をもっていますが、しかし、同時に、その同じ分野の簡単な問題で間違ってしまうのです(Los modelos pueden resolver ciertas tareas complejas de acuerdo a las habilidades humanas, pero al mismo tiempo fallan en tareas simples del mismo dominio)ーー。

専門家たちの弁である。

人工知能は分からない時に解答することを放棄することなく、その代わりに間違った答えを出す傾向(La tendencia de estos modelos a ofrecer respuestas incorrectas en lugar de abstenerse de contestar cuando no están seguros)があり、そんなことが度重なると、今度は人間の側のAIに対する信頼度(fiabilidad;credibilidad) が低下(disminución)するという。

その結果として、初めのうちは人工知能を信じていたユーザーたちが失望し、特に、医学や教育といった分野は深刻で、いろいろな間違いに晒されるという危険が増す(Aumenta el riesgo de que los usuarios, que inicialmente confían en la tecnología, se sientan decepcionados y se expongan a errores en ámbitos críticos como la medicina o la educación)という。

ユーザーらを失望させる、その「間違っていて、でっち上げられた解説や解答の言説(texto falso inventado)」のことを、専門用語で「ハルシネーション」と呼ぶそうだ。

では、どうすれば、人工知能と信頼関係を気づけることができるのかというと、利用する側がしっかりとした質問をすることを常に気を付けていなければならない(los usuarios deben seguir preocupándose por enunciar bien las preguntas)というのが専門チームからのアドバイス。

要領を得ない質問すれば、そりゃ、人工知能だって分からないよなぁ、と同情しつつも、開発した人間の側がAIに配慮して、分かりやすいように質問し直さなければならないのは、何か薄気味悪い感じもする。

小生は音声入力機能を使ってGoogle氏に質問することがあるが、一回目でうまくいかないと、二回目は、ゆっくり、はっきり、別の言葉を使って質問し直したりすることがある。

その度に、何か背筋がゾクゾクっとする。

あと、ファミレスの猫型配膳ロボットと通路でかち合って、彼に道を譲ってる時も同じようにゾクっとすることがある。

あっ、俺って、テクノロジーに気を遣い始めているのかもーー。

なんか不気味だ。

写真はハルシネーションのイメージ画像。

出典
https://www.rtve.es/noticias/20240925/modelos-lenguaje-inteligencia-artificial-se-equivocan-mas/16262577.shtml