スポンサーリンク/Sponsored Link

うそつきChatGPTと、私たちはどう付き合うべきか

うそつきChatGPTと私たちはどう付き合うべきか
AI(人工知能)ニュース
スポンサーリンク/Sponsored Link

話題のChatGPTですが、しばしば「うそをつく」ことが分かってきています。

つまり、「いかにも説得力のある文章が返ってくるが、実は書いてあることは事実ではない」という場合が結構ある、ということです。

対話型AIの登場は、大きく見れば「あらたな産業革命」と言ってよい、と考えていますが、しかし、「AIがうそをつく」問題は、軽視できない、と考えています。

「AIなんて信用できない」と悲観する必要もないと思いますが、「AIはこんなに便利だ」だけでは、大きな落とし穴が待っている、と思います。

この記事では、「ウソをつかずにいられない」大規模言語モデルに基づく対話AIと、どのようにつきあっていくべきか、考察していきます。

※本記事のChatGPTは
無料版(GPT3.5)=回答アイコンは緑
有料版(GPT-4)=回答アイコンは紫
を使用しています。

スポンサーリンク/Sponsored Link

社会問題として報道された「ChatGPTのウソ」

最近になり、ChatGPTの「ウソ」が、実際に社会問題として報道にとりあげられるケースが出て来ました。

米国・弁護士がChatGPTで作成した準備書面に、実在しない判例が

チャットGPTで訴訟準備書面、実在しない判例6件引用…米連邦裁判所「前例のない事態」
【読売新聞】 【ニューヨーク=金子靖志】米紙ニューヨーク・タイムズ(電子版)など米メディアは、ニューヨーク州の連邦裁判所で審理中の民事訴訟で、弁護士が対話型AIサービス「チャットGPT」を使って作成した準備書面に、実在しない判例が多

同紙によると、問題が起きたのは、2019年に米ニューヨーク行きの航空機内で配膳用のカートが当たってけがをしたとして、乗客の男性が南米の航空会社を訴えた訴訟。男性の弁護士が提出した準備書面には、航空会社が被告になった過去の判例が複数、引用されていた。

 …

書面には、チャットGPTが作成した6件の実在しない判例が引用されていたが、弁護士はこの判例が実在するかどうかもチャットGPTで確認していた。

チャットGPTで訴訟準備書面、実在しない判例6件引用…米連邦裁判所「前例のない事態」 読売新聞

米国・ChatGPTに”詐欺と横領の嫌疑がかけられた人物”と言われた人がOpenAIを提訴

ChatGPTが告訴状を「偽造」 米男性、名誉毀損でオープンAI提訴 | Forbes JAPAN 公式サイト(フォーブス ジャパン)
生成AI(人工知能)のChatGPT(チャットGPT)によって、自分を詐欺と横領の嫌疑がかけられた人物とするでたらめな訴訟の概要を作成され、名誉を毀損(きそん)されたとして、米ジョージア州の男性が開発元のOpenAI(オープンAI)を相手取...

「アームド・アメリカ・ラジオ」というラジオ番組の司会者を務めるマーク・ウォルターズ

ジャーナリストからこの(実在する)訴訟について尋ねられたチャットGPTは、ウォルターズがセカンド・アメンドメント財団から「資金をだまし取り、不法に自分のものにした」として、財団の設立者が告訴したとする訴訟をでっちあげ、それについての概要を作成して回答した。

ウォルターズはこの財団で働いたこともないという。

ChatGPTが告訴状を「偽造」 米男性、名誉毀損でオープンAI提訴 Forbes Japan
スポンサーリンク/Sponsored Link

身近に体験した「ChatGPTのウソ」

報道されるまでは至らないまでも、多くの方が、ChatGPTが「ウソをつく」体験をされているのではないでしょうか。

「最新の情報は正しく回答できない」「実在しない物事についてはウソをつくことが多い」といった評論も見られます。また、日本語のドキュメントを十分学習していない、とも言われます。

ですが、それだけではないようです。

最近ではなく、歴史上の出来事も「捏造」するChatGPT

※下に示すChatGPT(無料版)の回答は、史実とまったく異なります。正しい部分がほぼありません。正確な史実は、一部、画像の下に例示しますが、詳しくは別途ご確認ください。

prompt
2.26事件について詳しく教えて下さい。また、その歴史を現代に学ぶ意義をのべてください
ChatGPT
2.26事件(にいにろくじけん)は、韓国の歴史上で1950年代に発生した重要な出来事です。正確には、1950年2月26日にソウルで発生した学生と市民の大規模なデモとそれに続く政府の弾圧を指します。

この事件の背景には、当時の韓国政府の腐敗や不正選挙への反発がありました。1950年当時、韓国はまだ日本からの独立後の混乱期にあり、政治的な不安定さが続いていました。政府の腐敗と貧困に苦しむ市民は、政府に不満を持ち、改革を求めて抗議行動を起こすようになりました。

1950年2月26日、ソウルで学生グループが反政府デモを行い、民主化を要求しました。デモは最初は平和的でしたが、警官隊が学生に対して暴力を振るったことで事態は悪化しました。市民もデモに加わり、ソウル市内で暴動が発生しました。政府は軍隊を投入してデモ隊を制圧し、数千人のデモ参加者が逮捕され、多くの人が死傷しました。

2.26事件は、韓国における大衆運動と政府の弾圧の激化を象徴する出来事となりました。この事件は、韓国の民主主義の歴史において重要な節目であり、後の政治的な変革や社会運動の基盤を築くきっかけとなりました。

現代において、2.26事件の歴史を学ぶことは重要です。まず、この事件は政府の腐敗や不正に対する市民の抗議の意義を示しています。市民の声を反映させる民主的な政治システムの重要性や政府の責任を問うことが求められます。

また、2.26事件は社会運動や市民の参加が変革をもたらす可能性を示しています。学生や市民が勇気を持って立ち上がり、政府に対して声を上げることで、民主化や社会正義の実現に向けた重要な一歩を踏み出しました。

さらに、2.26事件は韓国の民主主

義の発展において重要な教訓を提供しています。政府と市民の対話や協力の重要性、政府の権力乱用に対して警戒する姿勢、市民の権利と自由の尊重など、民主主義の原則を強調することが求められます。

総括すると、2.26事件は韓国の歴史における重要な出来事であり、政府の腐敗に対する市民の抗議と変革の象徴となりました。この事件の歴史を学ぶことで、民主主義の重要性や市民の参加の力、政府と市民の関係性の健全さが示され、現代社会においても共通の価値として受け継がれるべき教訓を得ることができます。
※スマホでは、二本指でのばすと拡大して見られます。

この回答は、史実と似ても似つかないものです。ほぼ全部ウソなので、全て指摘すると長くなりますが、かいつまんで史実を書きますと

  • 「2.26事件」昭和11年(1936年)2月26日、急進的な陸軍将校が首相官邸などを襲撃、閣僚を殺害し、永田町・霞が関一帯を占拠した、日本のクーデタ未遂事件。
  • 韓国の民主化運動として描かれている内容は「四・一九学生革命」(1960.4.19~)に類似しているが、一方、同じ質問への回答で「全斗煥のクーデタ」とする回答もあり、「軍隊による弾圧」等の記述もあわせると、「粛軍クーデター」(1979.12.12)と混ざっているようにも見える。

GPT-4は全く違う回答をしました

同じ質問を、上位版である「GPT-4」のモードで行ってみると、まったく違う回答が生成されました。

prompt
2.26事件について詳しく教えて下さい。また、その歴史を現代に学ぶ意義をのべてください
GPT-4
「2.26事件」とは、昭和天皇の治丕下、昭和11年(1936年)の2月26日に日本の陸軍の一部がクーデターを起こした事件のことを指します。これは昭和天皇の元、軍内部の青年将校が主導し、政府を倒し、天皇を権威のある立場に戻すことを目指すクーデターでした。

このクーデターの主導者たちは、時の政府が貧困と社会的不公正を無視し、皇族と軍事力を蔑ろにすると感じており、新たなナショナリズムを主導しようとしました。しかし、彼らの動きは日本の政府と天皇によって鎮圧され、最終的には失敗に終わりました。

この事件の後、軍部は一時的に影響力を増しましたが、天皇とその他の高級指導者たちが軍部を徐々に制御していく中で、日本の戦争体制が一層強化されることとなりました。それは日本が日中戦争に突入し、最終的には第二次世界大戦を引き起こす要因の一つとなったと言えます。

2.26事件から学ぶべき重要な教訓は、強権的な思想やナショナリズムがどのように社会に深刻な影響を及ぼし、全体主義的な体制につながる可能性があるということです。また、一部の人々が社会や政府の問題を解決するために強硬な手段に訴えるとき、その結果はしばしば暴力や内乱を招き、社会全体が悪影響を受けることも理解することが重要です。

歴史を学ぶことは、同様の問題が再発するのを防ぐための重要な道具となります。過去の過ちから学び、より包括的で平和的な解決策を模索することが、歴史の学習から得られる価値の一つと言えます。
GPT-4の回答

様々な立場によって見解は異なると思いますが、おおむね歴史書で見ることができる事実関係に沿った回答ではないかと思います。

では「GPT-4ならウソをつかない」かと言えば、そうでもないようです。他のプロンプトに対しては、無料版(GPT3.5)とは異なる「ウソ」の回答もありました。

昔からある言葉の意味も、「捏造」するChatGPT

prompt
刑事のことを「デカ」というのはなぜですか
ChatGPT
「デカ」という言葉は、刑事を指す俗語です。この言葉の起源にはいくつかの説がありますが、最も有力な説の一つは、アメリカの刑事ドラマ『デカロゴ』("Decalogue")に由来すると言われています。

『デカロゴ』は、1950年代から1960年代にかけてアメリカで放送された刑事ドラマで、主人公の刑事が事件を解決していく様子が描かれていました。このドラマは当時、日本でも人気があり、日本の警察関係者や刑事に影響を与えたと考えられています。

「デカ」という言葉は、「デカロゴ」の略称として使われ始め、その後、日本の刑事ドラマや文学などでも頻繁に使われるようになりました。刑事を指す隠語として定着し、一般的な俗語として広まっていったのです。

ただし、この説以外にも、「刑事」(けいじ)という言葉の訛った形であるとか、刑事が「でかい(大柄な)」イメージがあるからといった説もありますが、いずれも明確な証拠や起源はなく、推測の域を出ません。

なお、「デカ」という言葉は俗語であり、公式な警察用語ではありません。刑事や警察関係者に対して使う場合は、敬意を持って使用する必要があります。
※スマホでは、二本指でのばすと拡大して見られます。
  • 刑事のことを「デカ」と呼ぶのは、明治時代に警察官が着ていた「角袖」(かくそで)のデとカからきている、という解説が多いです。(大分県警察本部など)
  • アメリカの刑事ドラマ「デカロゴ」(Decalogue)の存在を確認できません。検索で出てくるのは、ポーランドのテレビドラマ「ザ・デカローグ」。「十戒」の各テーマを現代にあてはめた寓話的なドラマだということです。

30年以上活躍する著名人でも、来歴を捏造するChatGPT

prompt
広末涼子さんって誰ですか
ChatGPT
(以下は多くの虚偽を含みます)広末涼子(ひろすえ りょうこ)さんは、日本の女優です。彼女は1970年7月18日に生まれ、映画やテレビドラマなどで活躍してきました。広末涼子さんは、1997年に公開された映画『バトル・ロワイアル』で一躍有名になりました。この映画では、彼女が演じた雪代綾子の役柄が注目を集めました。

広末涼子さんは、その後も多くの映画やドラマに出演し、幅広い役柄を演じてきました。彼女の代表作には、『獣のように抱きしめて』、『ミスター・ルーキー』、『スウィングガールズ』などがあります。また、広末涼子さんはファッションモデルとしても活動しており、その美しい容姿やスタイルでも知られています。

広末涼子さんは、日本国内外で多くのファンを持つ人気女優であり、その演技力や魅力的な雰囲気から、数々の賞も受賞しています。彼女の作品を通じて、幅広い役柄を演じる彼女の才能と魅力が広く認められています。
※スマホでは、二本指でのばすと拡大して見られます。

この質問にはGPT-4も正しく反応できませんでした

同じ質問をGPT-4に投げかけてみると、次のような回答になりました。

prompt
広末涼子さんって誰ですか
GPT-4
広末涼子(ひろすえ りょうこ)は、日本の女優であり、モデルでもあります。彼女は1992年にファッション雑誌「セブンティーン」の専属モデルとしてデビューし、その美しいルックスと自然な演技力で人気を博しました。

彼女は多くのテレビドラマ、映画、広告に出演しており、その中には「ラブジェネレーション」、「ビーチボーイズ」、「ガッコの先生」などのヒット作が含まれています。また、彼女は歌手としても活動しており、いくつかのシングルとアルバムをリリースしています。

広末涼子はその美しさと才能で、日本のエンターテイメント業界で長年にわたり一貫して高い評価を受けてきました。彼女はまた、慈善活動にも積極的に参加しており、特に子供たちのための教育と保健に関心を持っています。

なお、私の知識は2021年までのものであり、それ以降の情報については提供できません。最新の情報を得るためには、適切なニュースソースやウェブサイトをご覧ください。

日本ではかなりの有名人ですが、学習データの上ではまだまだ具体的な学習が追い付いていないのかもしれません。

米国の著名人の来歴を、英語で質問しても、虚偽が混じるChatGPT

英語に強いと言われるChatGPTですが、GPT3.5ではそれでも誤りが混じります。

prompt
who is John Ashcroft
ChatGPT
John Ashcroft is a prominent American politician and lawyer. He was born on May 9, 1942, in Chicago, Illinois. Ashcroft is a member of the Republican Party and has held various high-profile positions in the U.S. government.

Ashcroft served as the 50th(incorrect: fact is 79th) Attorney General of the United States under President George W. Bush from 2001 to 2005. As Attorney General, he played a significant role in the aftermath of the September 11, 2001 terrorist attacks, advocating for increased surveillance and law enforcement powers to combat terrorism. He faced criticism for his support of the USA PATRIOT Act, which expanded the government's authority in intelligence gathering and surveillance activities.

Prior to his tenure as Attorney General, Ashcroft served as the Governor of Missouri from 1985 to 1993 and as a U.S. Senator representing Missouri from 1995 to 2001. As Governor, he focused on crime reduction and education reform.

Ashcroft has also been involved in private legal practice and has worked as a university professor. He holds degrees in law and philosophy from Yale University.(could not confirm he holds degrees in philosophy, and degrees in law is not from Yale,but Chicago Univ. )
※スマホでは、二本指でのばすと拡大して見られます。

GPT-4は正しい回答

同じ質問に対し、GPT-4は、当方で確認できる限り正しい事実を回答しました。

prompt
Who is John Ashcroft
GPT-4
John Ashcroft is an American lawyer and former politician who served as the 79th United States Attorney General in the George W. Bush administration from 2001 to 2005. Prior to his appointment as Attorney General, Ashcroft served as a U.S. Senator from Missouri from 1995 to 2001.

Born on May 9, 1942, in Chicago, Illinois, Ashcroft is a graduate of Yale University and the University of Chicago Law School. He began his political career in Missouri, serving as state auditor and then as the state's attorney general. He then went on to serve two terms as the governor of Missouri from 1985 to 1993.

As U.S. Attorney General, Ashcroft was a key player in the Bush administration's War on Terror, and he was instrumental in the creation of the USA PATRIOT Act, a law that broadened the surveillance powers of law enforcement agencies in the United States.

After leaving public office, Ashcroft founded a lobbying firm, The Ashcroft Group, which provides consulting services to corporations on a variety of issues.

Ashcroft is known for his conservative stances on issues like crime, national security, and social policy, and he has been a prominent figure in the Republican Party.
スポンサーリンク/Sponsored Link

AIがもっともらしいウソをつく現象「ハルシネーション」

大規模言語モデルに基づく対話型AIが、「もっともらしいウソをつく」現象を「ハルシネーション」というんだそうです。

ハルシネーション(Hallucination)とは?
用語「ハルシネーション」について説明。チャットAIなどで、もっともらしいウソ(=事実とは異なる内容や、文脈と無関係な内容)の出力が生成されることを指す。AIから返答を受け取った人間が「本当かどうか」の判断に困るという問題がある。

LLMの仕組みは残念ながら専門外ですが、その仕組みについては、おおむね次のような説明がされていると思います。

LLMは膨大なデータで訓練されている

ほとんどのLLMは、言語処理に適した工夫がされた「トランスフォーマー」と呼ばれるニューラルネットワークの構造を使用している。

トランスフォーマーは膨大な文章を読み取って単語や言い回しの関連性のパターンを見つけ出し、ある単語の次にどの単語が続くのかを予測する。

ChatGPTやBardの仕組みとは? 会話型AIを駆動する大規模言語モデルの裏側 WIRED

このような仕組みであるならば、もっともらしいウソ「ハルシネーション」が起きる根拠はある、と考えられます。

まず根本的にChatGPTやBardは、何が「正確」で何が「正確ではない」のかを理解しているわけではない。これらのシステムは訓練されたデータと一致する現実的で自然な回答を選んでいるだけなのだ。

例えば、ボットは次に続く最も可能性の高い単語を必ず選ぶわけではなく、2番目や3番目に可能性の高い単語を選ぶことがある。ただし、これが極端になると文章が意味をなさなくなるので、LLMは自己分析と自己修正を継続的に実施しているというわけだ。

ChatGPTやBardの仕組みとは? 会話型AIを駆動する大規模言語モデルの裏側 WIRED

感情がこもっているような回答であっても、そこにあるのは感情ではない。

事実を述べているようでも、そこにあるのは事実かどうかAIは認識していない。

すべては、「学習データに基づく確率」だというわけです。

スポンサーリンク/Sponsored Link

「うそをつくAI」をどう有効に使えるか、使えないのか

「ハルシネーション」の問題は、早くから認識されており、これを抑制・軽減するための対策がいろいろと試みられています。

OpenAIは新たな研究論文に関する投稿記事の中で、AIモデルをより論理的に動作させてハルシネーションを回避する方法を発見したかもしれないと述べている。

 同社は、複雑な数学の問題を解く能力を備えたモデルを「プロセス監視」で学習させた。プロセス監視とは、1つのステップごとにフィードバックを提供する手法だ。これに対し、「結果監視」は最終結果に基づいてフィードバックを提供する。

OpenAI、AIモデルの「幻覚」を軽減する手法を報告 ZDNet

ハルシネーションを「軽減」することに意味はあるのか?

しかしながら、ハルシネーションを「軽減」する、ということを目標とするならば、それは対話型AIの根本問題の解決にはならないだろう、というのが筆者の考えです。

嘘をつく回数が減っても、嘘は嘘

例えば、20%の頻度であった嘘を、10%の頻度に軽減したとします。
これではまだまだ足りないでしょう。

では、嘘の頻度を1%、いや、0.1%に軽減したらどうでしょうか?

99.9%は嘘がない回答が返ってくるならば、私たちはそのAIを「信用して大丈夫だろう」と考えるかもしれません。しかし、その結果は、0.1%の嘘を、無検証で信用してしまうリスクにつながらないでしょうか?

このようなわけで、ハルシネーションの「軽減」の努力は、実はほとんど報われないのではないか?と考えているのです。

まったくの役立たずだと悲観する必要もなさそう

それでは、原理的に嘘をつくことが避けられない対話型AIは、結局のところ役立たずなのでしょうか?

そんなことはないと考えています。

単純な条件分岐や抽出によらず、動的に回答を生成できる能力は、これまでのどんなクエリよりもすぐれています。

使い方によっては、ハルシネーションの影響を排除することも可能ではないかと思います。

すでに発表されているソリューションの中から、いくつか見てみたいと思います。

学習データを制限することで、限定的にハルシネーションを抑制

この問題の解決策として、限定されたデータを用いてGPT-4を利用できるようにしました。

また、プロンプトのトークン制限問題についても独自の手法で解決し、大規模データの登録も可能になりました。

このアプローチにより、GPT-4が生成する情報の正確性と信頼性が向上し、企業やユーザーにとってより安全で有益な人工知能となります。

限定されたデータを利用することで、AIは正確性や信頼性に優れた情報提供が期待でき、ハルシネーションのリスクを軽減するとともに、ユーザーのニーズに適した情報生成が可能となります。

GPT-4を自社専用化!信頼性ある情報提供を実現する 情報特化型自然会話AI作成サービス「Nolie」が誕生

このアプローチからは、次のような有効な対策が読み取れると思います。

  1. 学習データを目的に合わせて制限している
    →「うそをつくための材料を与えない」ことを意味します。
  2. 利用範囲を限定している
    →学習データと無関係なプロンプトが入力されることを防ぎ、また、仮にうそをついた場合でも、影響を小さくおさえることができる、と考えられます。

ふたつめの点は、記事本文にははっきり書かれていないんですけれども、

「ウソをつく」可能性をゼロにできないとすれば、仮に万一ウソをついても、致命的な影響が発生しない範囲に用途を限定することは、有効ではないかと思います。

「ハルシネーションが発生しない」とするサービスも

ハルシネーションを「軽減」ではなく「発生しない」とするソリューションも見られます。

弊社の独自アルゴリズム「意図予測検索」は、FAQに入力された言葉から検索者が何を知りたいかの「意図」を予測し、その意図に合致する質問をすばやく検索するシステムです。


本アルゴリズムはAIが回答を逐次生成するのではなく、あらかじめ用意された展開済みの質問文を検索するため、ハルシネーションを回避し正確性を担保しています。このアルゴリズムの提供によってユーザー企業のさらなる問い合わせの削減と業務負担の軽減を支援してまいります。

HelpfeelがAIのハルシネーションを回避しながら検索精度を30%向上させる「Contact Sense AI」を公開。問い合わせの自己解決を促進

このアプローチでは、

  1. 回答文はあらかじめ用意され、人間がうそでないことを確認している
    →この方法であれば、ズレることはあっても、うそをつく可能性はゼロにできると考えられます。
  2. ユーザーの意図をくみとるためにAIを使用している
    →AIの直接の出力を受け取るのは、検索システムであって、ユーザーではないとみられます。どの回答文を選択するべきか、という目的に合わせたプロンプトを投げているのでしょう。

自分の文章の書き直しは、ほぼ問題なし

prompt
パソコン購入時気を付けること
・メモリ容量8GB未満は買わない
・ストレージはSSDで
・画面サイズ自分にあってるか
・バッテリ時間たりるか

以上の内容を文章にまとめてください
ChatGPT
パソコンを購入する際には、以下のポイントに気を付けることが重要です。

1. メモリ容量は8GB未満ではなく、できるだけ多くのメモリを搭載したものを選びましょう。メモリ容量が多いほど、複数のアプリケーションを同時に実行したり、大規模なファイルを処理する際にも快適に作業できます。

2. ストレージはSSD(Solid State Drive)を選ぶことがおすすめです。SSDは高速な読み書き速度を持ち、起動時間やファイルの読み込み時間を短縮します。これにより、パソコンのパフォーマンスが向上し、作業効率もアップします。

3. 画面サイズは自分に合ったサイズを選びましょう。作業やエンターテイメントの用途に合わせて、快適に利用できる画面サイズを選択することが大切です。小さすぎると表示がわかりにくくなり、大きすぎると持ち運びや使用の便利性に影響が出る可能性があります。

4. バッテリーの持ち時間も考慮しましょう。特に移動や外出先で使用する場合には、長時間のバッテリー駆動が必要です。使用状況に応じて、十分なバッテリー寿命を持つモデルを選ぶことで、充電の頻度を減らし、使い勝手を向上させることができます。

これらのポイントを考慮して、自分のニーズや予算に合ったパソコンを選ぶことが重要です。
※スマホでは、二本指でのばすと拡大して見られます。

箇条書きで急いで書いた要点を、文章に書き直す、といった用途では、ほぼ問題なく使用できます。作業時間と労力を大幅に軽減できます。

上の例では、「メモリ容量が多いほどよい」の部分は少々書きすぎですが、他の部分はだいたい意図したとおりの文章を組み立ててくれています。

ただし、自分で書いていない事柄の説明を書き加えられている場合は、その部分の事実の検証は必要だろうと思われます。

新しい課題に対して、アイデアを出してもらうのも便利

prompt
海外から、日本の建築について興味がある友人が来訪します。どんな話を用意しておくべきですか
ChatGPT
日本の建築について興味を持つ友人が来訪するのですね。以下に、日本の建築に関する興味深い話題をいくつかご紹介します。

1. 伝統的な建築様式: 友人に日本の伝統的な建築様式について話すことは、彼らにとって興味深いでしょう。日本の伝統的な建築物の特徴的な要素には、曲線的な屋根や美しい庭園があります。代表的な建築物として、京都の清水寺や東京の浅草寺などがあります。

2. 和風建築の美学: 日本の建築は、機能と美学の絶妙なバランスが特徴です。友人に、和風建築の美学について話すと良いでしょう。例えば、和室の床の間や襖(ふすま)の使い方、自然素材の活用などが、和風建築の魅力的な要素です。

3. 近代建築の先駆者: 日本には、近代建築の分野で多くの先駆者がいます。友人に、建築家として有名な人物について話すと良いでしょう。例えば、安藤忠雄や隈研吾などは、国内外で高い評価を受けている建築家です。

4. 技術の進化と持続可能性: 近年、日本の建築界では技術の進化や持続可能性への取り組みが注目されています。友人に、省エネルギーの取り組みや地震に強い構造の開発など、日本がどのように建築技術を進化させてきたかを話すと興味深いかもしれません。

5. 現代の建築ランドマーク: 最後に、友人に最近の建築ランドマークについて話すと良いでしょう。東京スカイツリーや六本木ヒルズなど、現代の建築物も日本には数多くあります。これらの建築物は、日本の都市景観において重要な役割を果たしています。

これらの話題を用意しておくと、友人との建築に関する興味深い対話ができるでしょう。また、写真や

資料を用意して実際の建築物の魅力を伝えることもおすすめです。

※スマホでは、二本指でのばすと拡大して見られます。

どこから考えたらよいか分からない。何から検索してよいかも分からない。そんなときに、アイデアを求める相手としては十分に使えると考えています。

アイデアの一部が間違っていることもある

出てきた回答の中には、ウソが含まれる可能性があります。

例えばこの例です。「エクセルの練習問題を作る」プロンプトに対する、GPT-4の出力です。

もちろんです、以下にExcel初学者向けの日本語での説明を記載します。

演習:学生の成績分析

データの作成:

セルA1からA6に以下のヘッダーを入力します:"生徒名", "数学", "科学", "英語", "歴史", "平均成績"。
セルB2からB6に5人の生徒の名前を入力します。
セルC2からF6に、各生徒の各科目の成績をランダムに入力します。成績は0から100の間にしてください。
平均の計算:

セルF2に、=AVERAGE(C2:E2)という式を入力して、最初の生徒の平均成績を計算します。セルの右下にある小さな四角(フィルハンドル)をドラッグして下に引っ張り、この式を全ての生徒にコピーします。
データの書式設定:

セルA1からF6をハイライトし、ツールバーの「罫線」ボタンをクリックして「すべての罫線」を選択し、全てのセルに罫線を追加します。

例えば「1.データの作成」のセクション、この通りにワークシートを作成すると、次のようになります。

A列
生徒名
数学
科学
英語
歴史
平均成績
B列
山田
田中
佐藤
森田
木村
C~F列
ランダムな点数

これでは、生徒の成績表になっていませんね。例えば、次のように修正して使用するべきです。

A列
生徒名
数学
科学
英語
歴史
平均成績
B列
山田
各科目の点数4個
C列
田中
各科目の点数4個
以下E列まで続く

このように、GPT-4ですら、「よく読むとウソ」な回答が出てきます。

しかし、これはあくまでアイデアです。受け取った人間が、実際に試して確認することで、アイデアそのものは生かすことができます。

プログラミングは、理解して使えば十分に利用できる

prompt
Javascriptで、現在の日付時刻をJSTでWebブラウザ上に表示し続けるコードを書いてください
ChatGPT
以下は、JavaScriptを使用して現在の日付と時刻をJSTでWebブラウザ上に表示し続けるコード例です。

html
Copy code
※スマホでは、二本指でのばすと拡大して見られます。

自然言語のプロンプトを使って、実際にコードが得られるのは、ChatGPTの素晴らしい特性です。

実際に、日々使用するツールのコーディングに使っています。

たまにハルシネーションは起きてます。しかし、

  • 自分の理解できる言語に限定し、理解できる範囲で確認しながら使う
  • 他に影響がない環境で、テストして確認してから使う

というような点に気をつければ、大変有用なツールです。

すでに、多くのエンジニアの方が、このAIをエディタに組み込めるサービスを使用して、生産性の大幅な向上を体験しておられると思います。

GitHubの調査により開発者の92%がAIコーディングツールを愛用している実態が判明
コードも記述できる文章生成AIやコーディング支援ツールの「GitHub Copilot」などの登場により、コーディングを行う開発者の業務は効率化しつつあります。GitHubが調査機関を通じて実施した調べにより、開発者の92%が何らかの形でA...

ただし、ここではむしろ、機密コードが無意識のうちに送信され、漏洩するリスクが強く意識されているようです。

Apple、従業員にChatGPTやその他のジェネレーティブAIの使用を禁止 - iPhone Mania
Appleは、独自の類似技術を開発するにあたって、一部の従業員に対してChatGPTやその他の外部人工知能(AI)ツールの使用を制限していることが内部文書から明らかになりました。 ■3行で分かる、この記事のポイント 1.
スポンサーリンク/Sponsored Link

検索エンジン × 対話型AI の、可能性と限界

対話型AIが、ウソをついたり、最新の情報に対応できない、といった理由で、対話型AIと検索エンジンを組み合わせた試みが始まっています。

AI を搭載した新たな Microsoft Bing と Edge が検索を再発明 ― ウェブの副操縦士 - News Center Japan
人々が発見の喜びを最大化し、創造の驚きを感じ、世界の知識をよりよく活用できるよう支援するために、マイクロソフトは何十億もの人々が日々使うツール、すなわち、検索エンジンとブラウザを再発明し、世界がウェブから利益を得る方法を改善しています。
ChatGPT Plus、最新情報も回答する「Webブラウジング」
OpenAIは12日(米国時間)、有料版の「ChatGPT Plus」ユーザー向けに、Webブラウジング機能とサードパーティプラグインをベータ版として提供開始した。15日週に全てのPlusユーザーに展開する。

この方法は、ある程度、対話型AIの「うそをつく」限界をカバーしているように見えます。

確かにうそは少ないと思います。しかし、質問に対する回答として適切か、という部分には、疑問符が付きます。結局は人力でネット検索をするはめになる場合も、多く出るのではないでしょうか。

検索エンジンは、ただ最新の情報を取得できるだけでなく、人間が作成した真実のソースを検索してくる力を持っています。確かにフェイク情報も混ざりますが、それは検索した側で取捨選択できます。

これに対して、対話型AIに質問して得られた回答は、それを吟味し取捨選択する余地がありません。

冒頭で紹介した米国裁判所での事例のように、「それは事実であるか」とAIにたずねることの意味はなく、結局は、人間自身の知識や、検索エンジンに頼って、真実を見極めるしかありません。

「検索エンジンにAIがとってかわる」ことは、ないのではないか。

このように考えていくと、ChatGPT登場のときに言われたような「検索エンジンにAIがとってかわる」というようなことは、どうも起きないのではないか、と思えてきます。

実例で見てみます。

Bing AI
prompt
広末涼子さんって誰ですか
Bing
‘広末涼子’ を検索しています
回答を生成しています…
広末涼子さんは、日本の女優であり、1980年7月18日生まれです。彼女は、映画やテレビドラマに出演しています。広末さんは、2023年6月14日に、週刊誌に報じられた不倫の事実を認め、謝罪しました。所属事務所も、同日に広末さんを無期限謹慎処分としました
prompt
広末涼子さんの出演作品は何ですか?
Bing
‘広末涼子 出演作品’ を検索しています
回答を生成しています…

広末涼子さんの出演作品は以下の通りです
らんまん(2023年)
若者たち2014 第4話(2014年)
新春ドラマスペシャル「大使閣下の料理人」(2015年)
ナオミとカナコ(2016年)
かもしれない女優たち(2016年)
以上、ご参考になれば幸いです。😊
Bing AIによる「広末涼子さんって誰ですか」に対する回答

うそではないかもしれませんが、回答内容は不十分で、質問した人物についての全体像を明らかにするものとは言えません。

もっともこれは、使っている検索エンジンがBingだからかもしれません。たとえGPT-4と協働したとしても、Bingの検索はGoogle検索の足元にも及ばないクオリティです。

さらに、ネット検索を併用しても、ハルシネーションは起こっています。

prompt
新しい学校のリーダーズの、独特の自己紹介はどのようなものですか
Bing
‘新しい学校のリーダーズ 自己紹介’ を検索しています
回答を生成しています…

新しい学校のリーダーズは、日本の4人組ダンスボーカルユニットです1。彼らの独特な自己紹介は、メンバーがそれぞれ自分の名前を言い、最後に「新しい学校のリーダーズです!」と言うというものです2。以下に、メンバーの名前を紹介します3:

MIZYU
RIN
KANON
SUZUKA
以上、ご参考になれば幸いです。😊
「新しいBing」による「新しい学校のリーダーズの、独特の自己紹介はどのようなものですか」への回答

まったく同じ質問文を、Google検索に入れてみた結果は次の通りです。

Google検索
「新しい学校のリーダーズの、独特の自己紹介はどのようなものですか」
検索結果トップは動画
「はみ出していく」の字幕 新しい学校のリーダーズの4人が、手を斜めに挙げている映像
Google検索による、「新しい学校のリーダーズの、独特の自己紹介はどのようなものですか」に対する回答

Bingの回答「メンバーがそれぞれの名前を言い…」の部分は、ハルシネーションを起こしています。

明らかに、「さいしょからGoogleで検索すれば良かった」と思える事例です。

このようなことが積み重なれば、当初言われたほどの「検索エンジン離れ」は起きないかもしれない、と思わされます。

スポンサーリンク/Sponsored Link

結論: 回答そのままでは使い物にならないが、まったく新しい可能性をきりひらくもの

結論として「対話型AIとどう付き合うか?」と問われれば、

このようにお答えせざるを得ません。

対話型AIの回答は、そのままでは全く使い物にならない

たとえ数%でも虚偽の事実が混じっている可能性がある回答を、そのまま使うことなど、まったく想定できないと思います。

ただし、対話型AIは、書く労力の削減や、アイデアが必要な時の「きっかけ」を与えてくれるものであることは間違いありません。

また、用途に応じてカスタマイズを行うことで、限定的に、「対話の自動化」に使うことができる場合もあります。

人間が読み切れる量を、はるかに超えるドキュメントを取り込み、それをもとに回答を生成する。このような特性をもった対話型AIが世に出た以上は、これを前提にしか次の時代は想定しえないだろうと考えています。

ですから、同時に、次のように結論できると思います。

対話型AIがある世界と、無い世界は、人間社会の発展可能性において天と地の差がある

スポンサーリンク/Sponsored Link

この先、生成AIはどこへ行くのか

ChatGPT、GPT-4の登場で、一躍脚光を浴びた対話型AIですが、OpenAIのサム・アルトマン氏は、この延長で新しい進歩はもはやない、と考えているようです。

OpenAIのCEO、「巨大AIモデルを用いる時代は終った」と語る
OpenAIの最高経営責任者(CEO)を務めるサム・アルトマンが、「ChatGPT」の開発につながった研究戦略はひと段落したと発言した。これは、AIのさらなる発展には新たな方向性が必要であることを示唆するものだ。

画像生成AIも、さまざまな用途に活用されていますが、一方で問題点が指摘されることも多くなってきました。

news zero「AI特集」に米アーティスト抗議 模倣作との比較に「深く傷ついた」...日テレの見解は
日本テレビ系の報道番組「newszero」が行った街頭インタビューで、自らの絵を画像生成AIに模倣させたものと比較されて深く傷ついたと、アメリカのアーティストがツイッターで抗議声明を出した。インタビューの放送では、AI模倣作の方が好きだとす...

「AI成果物をAIが学習することでモデルが崩壊する」との指摘

もともと、LLMやその他のトレーニングに用いられるデータは、書籍やインターネットの記事、写真やイラストなど人間が過去に人工知能の助けを借りずに作成していたものです。しかし、ジェネレーティブAIの発展に伴い、AIでコンテンツを作成してインターネット上に公開する人が増えた影響で、学習の元となるトレーニングデータに影響が出ていると懸念されています。イギリスとカナダの研究者グループは2023年5月末、「再帰の呪い」と題した論文をオープンアクセスジャーナルのarXivに発表しました。論文では、「ジェネレーティブAI技術の将来にとって、憂慮すべき事実が明らかになっています」と述べられています。

AI成果物が急増したことで「AI生成コンテンツをAIが学習するループ」が発生し「モデルの崩壊」が起きつつあると研究者が警告 Gigazine

生成AIの急速な発展が、その限界をも急速にあぶり出しつつあるか

ここ一年、いや、ほんの半年ほどの間に、私たちの周りには生成AIが驚くほど急速に浸透し、その出力を見ない日はないほどになりました。

生成AIの発展は、ある特異点を突破し、爆発的な発展の段階に至ったものでしょう。

2023年は確かに、「新たな産業革命」とも言える、人類史の画期点になったと言えるでしょう。

そのことが、同時に、「人間の成果物を多量に学習して回答を生成する」、という現在の生成AIの限界点を、きわめて急速にあぶりだしているのではないか、と考えています。

新しいブレイクスルーは、おそらくそれほど遠くないでしょう。たんなる学習の量的拡大や、学習物の異なる処理方法に頼らない、新たなアーキテクチャが、水面下で準備されつつあるのではないか、と見ています。

パソコン教室・キュリオステーション志木店からのお知らせ
レッスンはオンラインで受講できます

パソコン教室・キュリオステーション志木店では、オンラインでの在宅レッスンを実施しております。
教室の全コースがオンラインで受講可能。実際にインストラクターがご対応いたします。
1時間の無料体験レッスンはいつでも予約できます。詳しくは公式ページをご覧ください。

キュリオステーション志木店運営をフォローする
スポンサーリンク/Sponsored Link

コメント

タイトルとURLをコピーしました