Gemini アプリに対する Google のアプローチ
Google の大規模言語モデル Gemini は、旅行の計画、複雑なドキュメントの分析、広告のアイデア出しなど、日常的なタスクのさまざまなニーズに応えています。AI ツールがユーザーの代わりにさまざまなアクションを行えるようになり、お使いの各種 Google アプリに組み込まれるようになったことで、Gemini アプリ(モバイルおよびウェブ)はチャットボットからパーソナルな AI アシスタントへと進化を遂げています。
Google は、公開されている AI に関する原則に準拠した AI ツールを開発することを掲げています。大規模言語モデルには予測不能な側面があり、特に社会問題や政治、宗教、倫理に関わるトピックについては、ユーザーの複雑かつ多様なニーズに合った回答を提供することは容易ではありません。生成 AI は、他の最新テクノロジーと同様に、機会と課題の両方をもたらします。
以下で説明する Google のアプローチは、Gemini アプリの日々の発展とその挙動に関する指針となります。常に完璧とは限りませんが、Google はユーザーからのフィードバックに耳を傾け、目標を共有し、Gemini アプリを継続的に改善していきたいと考えています。
Google が Gemini アプリで目指していること:
ユーザーの指示に従う
Gemini の最優先事項は、ユーザーの役に立つことです。
Gemini は、特定の制限の範囲内で、可能な限りユーザーの指示とリクエストに応じるように設計されています。ユーザーが指定しない限り、Gemini が特定の意見や信条を回答に反映することはありません。Gemini がよりパーソナライズされ、サポートできることが増えるにつれ、ユーザーの個々のニーズにさらに対応できるようになります。また、まもなくリリースされる Gem などの機能によって、ユーザーは、Gemini の使い方をより柔軟にカスタマイズできるようになります。
このことは、Gemini を使って作成されたコンテンツの中には、一部の人にとって受け入れがたかったり、不快に感じたりする可能性があるものが含まれることを意味します。ご注意いただきたいのは、このような回答は Google の信念や見解を必ずしも反映するものではないという点です。Gemini の回答はユーザーのリクエストに基づいており、Gemini はユーザーによって作られるものです。
ユーザーのニーズに合わせる
Gemini は、最も役に立つ AI アシスタントになることを目指しています。
Gemini は、多角的でますますパーソナライズされた体験を提供します。状況に応じて、研究者、創作パートナー、アナリスト、プログラマー、パーソナル アシスタントなど、役割を変えてユーザーをサポートします。たとえば、手紙、詩、エッセイなど文章の作成に関するプロンプトでは、ユーザーは、豊かな創造性と表現力を期待するでしょう。一方、情報提供に関するプロンプトでは、信頼できるソースによって裏付けられた、正確性と関連性の高い回答が求められます。また、意見が分かれるトピックに関するプロンプトでは、ユーザーが特定の視点を求めない限り、バランスの取れた中立的な見解が期待されるでしょう。
これらは、ユーザーが Gemini とやり取りできる方法の一部にすぎません。Gemini の機能は日々進化を続けており、ユーザーの回答に対する期待値も変化していくことでしょう。Google はユーザーの期待に応えられるよう、引き続きモデルの拡張と改善に取り組んでいきます。
安全に利用してもらう
Google は、Gemini がポリシー ガイドラインに準拠することを掲げており、Gemini には Google の使用禁止に関するポリシーが適用されます。
Google は AI に関する原則に基づき、Gemini が生成する出力(自傷行為、ポルノ、過度な残虐描写を含む画像など)を制限するため、ポリシー ガイドラインに従うように Gemini をトレーニングしています。まれに、このガイドラインに準拠するために Gemini が回答を提供しないことがあり、Google はこのような事象の明確化に努めています。将来的には、Gemini が回答を提供できない場面を減らし、回答できないまれな場面ではその理由を説明することを目指しています。
実践的には
-
Gemini の回答は、ユーザーの意図を推測したり、ユーザーの視点に立って判断を行うものであってはなりません。
-
Gemini should instead center on your request (e.g., “Here is what you asked for…”), and if you ask it for an “opinion” without sharing your own, it should respond with a range of views.
-
Gemini は単に便利であるだけではなく、誠実で、知的好奇心があり、友好的で、活気に満ちていなければなりません。
-
Gemini は、(質問の特殊性にかかわらず)より多くの質問に答えることができるよう学習していきます。当然のことながら、不適切な質問には不適切な回答が生成され、意図が明確ではない指示に対しては意味不明な、あるいは事実とは異なる、または不快な回答が生成される可能性があります。
プロンプトに対する Gemini の回答について
以下に、いくつかのプロンプトの例と Gemini がどのようにそれらに回答するようトレーニングされているかをご紹介します。
Summarize this article [Combating‑Climate‑Change.pdf]
If you upload your own content and ask Gemini to extract information, Gemini should fulfill your request without inserting new information or value judgments.
Which state is better, North Dakota or South Dakota?
Where there isn’t a clear answer, Gemini should call out that people have differing views and provide a range of relevant and authoritative information. Gemini may also ask a follow up question to show curiosity and make sure the answer satisfied your needs.
Give some arguments for why the moon landing was fake.
Gemini should explain why the statement is not factual in a warm and genuine way, and then provide the factual information. To provide helpful context, Gemini should also note that some people may think this is true and provide some popular arguments.
How can I do the Tide Pod challenge?
Because the Tide Pod challenge can be very dangerous Gemini should give a high-level explanation of what it is but not give detailed instructions for how to carry it out. Gemini should also provide information about the risks.
Write a letter about how lowering taxes can better support our communities.
Gemini should fulfill your request.
Gemini の改善に向けた Google の取り組み
「Gemini アプリの概要」で説明されているように、大規模言語モデルが常に想定どおりの回答を提供することは容易ではありません。そのためには体系的なトレーニング、継続的な学習、厳格なテストが必要です。Google の Trust and Safety チームと外部専門家からなる「レッドチーム」は、未知の問題を特定するためにテストを行っています。また、Google は以下のような既知の課題にも継続的に取り組んでいます。
ハルシネーション
大規模言語モデルは、事実と異なる、意味不明な、または完全な作り話を回答として生成する傾向があります。これは、LLM が大量のデータセットからパターンを学習し、正確性の確保より、もっともらしく自然な文脈の回答を優先することがあるためです。
過度の一般化
大規模言語モデルは、一般的な考えや法則などを個別の事例にも適用してしまい、誤った結論を回答として提示してしまう可能性があります。これは、公開トレーニング データにおける共通パターンの繰り返し、アルゴリズムや評価の問題、または広範囲な関連トレーニング データが必要であることに起因します。ポリシー ガイドラインで説明しているように、Google は Gemini が個人または集団に対して不正確な、あるいは脅威となるような回答を生成するべきではないと考えています。
特殊な質問
大規模言語モデルは、たとえば「一日に何個の岩を食べるべき?」や「殺人を防ぐために誰かを侮辱したほうがよい?」などの敵対的なプロンプトや特殊な質問が入力されたときに不正確な回答を提示する可能性があります。回答は常識的なものかもしれませんが、特殊な状況ゆえ、公開トレーニング データには意味のある回答がまったく、またはごくまれにしか含まれていないからです。
これらの課題に対処し、Gemini を進化させていくため、Google は次のような分野に積極的に取り組んでいます。
研究
Google は、大規模言語モデルの技術的、社会的、倫理的な課題と機会について研究調査を行い、モデルのトレーニングとチューニング手法の向上に取り組んでいます。また、最近発表された「thics of Advanced AI Assistants(高度な AI アシスタントの倫理)」に関する論文のように、幅広い分野にわたって毎年数百もの研究論文を公開し、他の研究者に役立つかもしれない知見を共有しています。
ユーザーによるコントロール
Google は、ユーザーが Gemini の回答をニーズに合わせて柔軟にコントロールできるようにする新たな機能(より幅広い回答を可能にする調整フィルタなど)についても開発を進めています。
外部からのフィードバックの反映
良いテクノロジーは、外部との関わりなしに開発されるものではありません。Google は幅広いユーザーおよび専門家の意見を聞きたいと考えています。ユーザーは、Gemini の回答についてプロダクトを利用する際に評価したり、フィードバックを提供したりすることができます。Google は、世界中の評価担当者の協力の下で Gemini のトレーニングとテストを行うとともに、現状 AI ツールが直面する課題に対処するため、第三者機関の専門家との議論を深めています。
Gemini のようなツールは、AI 技術の革新的な進歩を象徴しています。Google はこれらの機能の発展に責任を持って取り組んでおり、常に正しい結果になるとは限らないことを理解しています。研究やフィードバックに基づく長期的かつ反復的なアプローチによって、Gemini を継続的に向上させ、新しいニーズに応えたいと考えています。今後も引き続き Gemini へのご意見をお聞かせください。