Skip to main content

نظرة عامة على تطبيق Gemini

لقد أدركنا منذ فترة طويلة أنّ الذكاء الاصطناعي يسهّل الوصول إلى المعلومات ومهارات الحوسبة ويعزّز فائدتها للمستخدمين. وحقّقنا تقدّمًا رائدًا في النماذج اللغوية الكبيرة، كما شهدنا تطورًا كبيرًا في Google وفي المجال على نطاق أوسع. ولسنوات عديدة، استخدمنا النماذج اللغوية الكبيرة في الخلفية لتحسين العديد من منتجاتنا، مثلاً للإكمال التلقائي للجمل في Gmail وإتاحة لغات أكثر في "ترجمة Google"، كما ساعدتنا هذه النماذج على فهم طلبات البحث بشكل أفضل في "بحث Google". وما زلنا نستخدم النماذج اللغوية الكبيرة في العديد من خدمات Google، وكذلك لتوفير تطبيق Gemini الذي يتيح للمستخدمين التعاون مباشرةً مع الذكاء الاصطناعي التوليدي. نسعى لأن يصبح تطبيق Gemini المساعِد الأكثر فائدة وتخصيصًا المستنِد إلى الذكاء الاصطناعي، ويمنح المستخدمين وصولاً إلى أحدث نماذج Google للذكاء الاصطناعي.

مع أنّنا وصلنا إلى نقطة تحوّل مهمة ويكتسب الذكاء الاصطناعي التوليدي اهتمامًا متزايدًا، فإنّ هذه التكنولوجيا لا تزال في مراحلها الأولى. يعرض هذا الدليل نهجنا في العمل على تطبيق Gemini‏ (المُشار إليه بـ "Gemini")، بما في ذلك تجارب استخدامه على الويب والأجهزة الجوَالة، ويوضّح طبيعته وطريقة عمله وإمكاناته الحالية والقيود التي تحدّ منها. وسنحسّن نهجنا في تطوير Gemini بناءً على التقدّم التي تشهده التكنولوجيا المستنِد إليها والمعلومات التي نكتسبها من الأبحاث المتواصلة والتجارب وملاحظات المستخدمين.

ما هو Gemini؟

‫Gemini هو واجهة لنموذج لغوي كبير متعدد الوسائط (يعالج النصوص والصوت والصور والمزيد). يستند Gemini إلى أحدث الأبحاث التي أجرتها Google في مجال النماذج اللغوية الكبيرة، والتي بدأت في العام 2013 مع بحث Word2Vec الذي اقترح بُنًى جديدة لنماذج تستعرض الكلمات كمفاهيم رياضية، ثم تلاها إطلاق a نموذج عصبوني حواري في العام 2015. وقد أظهر إطار العمل هذا كيف يمكن للنماذج توقّع الجملة التالية في محادثة استنادًا السياق أو الجمل السابقة، وبالتالي تقديم تجارب حوارية أكثر سلاسة. تلا ذلك إنجازات شملت إطلاق شبكة Transformer في العام 2017 ومزايا المحادثة المتعددة الأدوار في العام 2020 التي أظهرت تقدّمًا أقوى في مجال اللغة التوليدية.

أطلقنا Gemini في البداية (وكان يُسمّى Bard) على شكل تجربة في مارس 2023، بما يتوافق مع مبادئنا حول الذكاء الاصطناعي. ومنذ ذلك الحين، استعان به المستخدمون لصياغة الرسائل الإلكترونية بأسلوب جذاب وتصحيح الأخطاء المعقدة المرتبطة بالترميز، واستلهام الأفكار للأنشطة القادمة، والحصول على المساعدة في تعلّم المفاهيم الصعبة، وغير ذلك الكثير. واليوم، يشكّل Gemini أداة ذكاء اصطناعي متعدّدة الإمكانات ويستطيع مساعدتك بطرق متنوعة. ونشهد بالفعل مساهمة Gemini في تعزيز إنتاجية المستخدمين وإبداعهم وفضولهم، ونضيف إليه وظائف جديدة وابتكارات بانتظام.

الإنتاجية

أولاً، يساعدك Gemini في توفير الوقت. على سبيل المثال، إذا أردت تلخيص مستند بحثي طويل، يتيح لك Gemini تحميله ويقدّم لك ملخّصًا موجزًا ومفيدًا. يستطيع Gemini أيضًا مساعدتك في الترميز، وقد أصبح ذلك أحد استخداماته الأكثر شيوعًا.

الابتكار

يساهم Gemini أيضًا في تحويل أفكارك إلى واقع وإطلاق العنان لإبداعك. على سبيل المثال، إذا أردت كتابة منشور مدوّنة، بإمكان Gemini إنشاء مخطَّط للمحتوى وصور توضيحية مرافقة. وقريبًا، ستتمكّن من استخدام Gems لتزويد Gemini بتعليمات مخصّصة تتيح له تقديم ردود احترافية حول أي موضوع يهمّك لمساعدتك في تحقيق أهدافك الشخصية.

الفضول

يشكّل Gemini نقطة انطلاق لاستلهام الأفكار واستكشاف المواضيع التي تهمّك. على سبيل المثال، يمكنه تبسيط مفهوم معقّد أو عرض معلومات مفيدة ومعمّقة حول موضوع أو صورة. وقريبًا، سيتمكّن من ربط هذه المعلومات بمحتوى مقترَح من الويب لمساعدتك في معرفة المزيد حول مواضيع محدّدة.

تتوسّع إمكانات Gemini بشكل سريع، وقريبًا، سيصبح بإمكانك توجيه كاميرا هاتفك إلى أي شيء، مثلاً أهرامات الجيزة، والطلب من Gemini إخبارك بعدد الأحجار المستخدمة في بناء الهرم الأكبر (إذا كنت تتساءل، استُخدم نحو 2.3 مليون كتلة حجرية لبنائه). ستتمكّن أيضًا من أن تطلب من Gemini مساعدتك في تصفّح قائمة طعام بلغة أخرى في مطعم واقتراح طبق من المرجّح أن يعجبك. هذان ليسا سوى مثالَين على الميزات الجديدة التي سنتيحها في Gemini قريبًا.

يخضع Gemini لعمليات تدريب ومراقبة صارمة لتكون ردوده أكثر موثوقيةً وعلى مستوى توقعاتك. نُجري أيضًا نقاشات مع الخبراء في مجال الذكاء الاصطناعي والمعلِّمين وصانعي السياسات وروّاد الأعمال والمدافعين عن الحقوق المدنية وحقوق الإنسان وصنّاع المحتوى، وذلك بهدف استكشاف الاستخدامات الجديدة لهذه التكنولوجيا الناشئة ومخاطرها والقيود التي تحدّ إمكاناتها.

طريقة عمل Gemini

1

التدريب المسبق

2

التدريب اللاحق

3

الردود على طلبات المستخدمين

4

الملاحظات وعمليات التقييم البشرية

ما هي القيود المعروفة التي تؤثر في الواجهات المستنِدة إلى النماذج اللغوية الكبيرة، مثل Gemini؟

لا يشكّل Gemini سوى جانب واحد من جهودنا المتواصلة في تطوير النماذج اللغوية الكبيرة بمسؤولية. وخلال عملنا في هذا المجال، استكشفنا وناقشنا العديد من القيود المرتبطة بالنماذج اللغوية الكبيرة. ونركّز هنا على ستة مجالات نُجري بشأنها أبحاثًا متواصلة:

  • الدقة: قد تكون ردود Gemini غير دقيقة، لا سيما إذا كانت الأسئلة حول مواضيع معقدة أو حقائق.

  • الانحياز: قد تعكس ردود Gemini انحيازات واردة في بيانات التدريب.

  • وجهات النظر المتعدّدة: قد لا ينجح Gemini في عرض وجهات نظر متعدّدة في ردوده.

  • الشخصية: قد توحي ردود Gemini بأنّ لديه آراءه أو مشاعره الخاصة.

  • النتائج الموجبة الخاطئة والنتائج السالبة الخاطئة: قد لا يردّ Gemini على بعض الطلبات الملائمة وقد يقدّم ردودًا غير ملائمة على طلبات أخرى.

  • التعرّض لطلبات خداعية: سيجد المستخدمون طُرقًا إضافية لاختبار ردود Gemini على الطلبات غير المنطقية أو الأسئلة التي نادرًا ما تُطرح على أرض الواقع.

سنواصل استكشاف أساليب وجوانب جديدة لتحسين الأداء في كل هذه المجالات.

الدقة

يستند Gemini إلى فهم Google للمعلومات الموثوقة، وهو مدرَّب لإنشاء ردود ذات صلة بسياق طلبك ومتوافقة مع ما تبحث عنه. مع ذلك، كجميع النماذج اللغوية الكبيرة، قد يقدّم Gemini أحيانًا بثقة وإقناع ردودًا تتضمّن معلومات غير دقيقة أو مضلّلة.

بما أنّ النماذج اللغوية الكبيرة تعمل عن طريق توقّع الكلمة التالية أو تسلسل الكلمات، لا يمكنها بعد التمييز بنفسها بين المعلومات الدقيقة وغير الدقيقة. في هذا الإطار، رصدنا حالات قدَّم فيها Gemini ردودًا تتضمّن معلومات غير دقيقة أو حتى معلومات خاطئة من ابتكاره (مثل تقديم وصف مضلّل حول طريقة تدريبه أو اقتراح اسم كتاب غير موجود في الواقع). لذا، طوّرنا ميزات، مثل "التحقّق" التي تستعين بمحرّك بحث Google للعثور على محتوى يساعدك في تقييم ردود Gemini وتزوّدك بروابط إلى مصادر تتيح لك التأكّد من دقة المعلومات التي يقدّمها.

الانحياز

إنّ بيانات التدريب، بما في ذلك البيانات من المصادر المتاحة للجميع، تعكس مجموعة متنوعة من وجهات النظر والآراء. ونواصل البحث عن الطريقة المناسبة لاستخدام هذه البيانات بما يضمن عرض مجموعة متنوعة من وجهات النظر في رد النموذج اللغوي الكبير مع الحدّ من التعميمات والانحيازات غير دقيقة.

عندما يحاول النموذج توقّّع الردود المحتمَلة على طلب ما، قد تعكس ردوده الفجوات والانحيازات والتعميمات المضمَّنة في بيانات التدريب. وقد تأخذ هذه المشكلة أشكالاً متعددة (مثل الردود التي تعكس فقط ثقافة أو فئة ديمغرافية واحدة، أو تشير إلى تعميمات مثيرة للجدل، أو تظهر تحيزات جنسية أو دينية أو عرقية، أو تروّج لوجهة نظر واحدة). بالنسبة إلى بعض المواضيع، قد تتضمّن البيانات فجوات. بمعنى آخر، قد لا تتوفّر معلومات موثوقة كافية حول موضوع معيّن لكي تتمكّن النماذج اللغوية الكبيرة من معرفة المزيد حوله وتقديم توقّعات جيدة، ما قد يؤدي إلى إنتاج ردود منخفضة الجودة أو غير دقيقة. نواصل التعاون مع خبراء في المجال ومجتمعات متنوعة للاستفادة من الخبرات العميقة المتاحة خارج حدود Google.

وجهات النظر المتعدّدة

بالنسبة إلى المواضيع المثيرة للجدل، تم تصميم Gemini كي يعرض للمستخدمين وجهات نظر مختلفة إذا لم يطلبوا الاطّلاع على وجهة نظر محدّدة. على سبيل المثال، إذا طُلب منه تقديم معلومات حول موضوع ما ولا يمكنه تأكيدها من خلال مصادر موثوقة أو استنادًا إلى حقائق من مصدرها الرئيسي (مثل تقديم رأي شخصي حول "الأفضل" أو "الأسوأ") من المفترض أن يردّ Gemini بأسلوب يعكس مجموعة متنوعة من وجهات النظر. مع ذلك، وبما أنّه يتم تدريب النماذج اللغوية الكبيرة مثل Gemini باستخدام محتوى على الإنترنت متاح للجميع، قد تعكس ردودها آراء سلبية أو إيجابية حول أحد السياسيين أو المشاهير أو إحدى الشخصيات العامة، أو قد تعرض وجهات نظر من جانب واحد فقط حول إحدى المشاكل الاجتماعية أو السياسية المثيرة للجدل. من غير المفترض أن يردّ Gemini بطريقة تتبنّى وجهة نظر محدّدة حول هذه المواضيع، وسنستخدم الملاحظات التي نتلقّاها حول هذه الأنواع من الردود لتدريب Gemini على معالجتها بشكل أفضل.

الشخصية

قد ينشئ Gemini في بعض الأحيان ردودًا توحي بأنّ لديه مشاعر أو آراء، مثل الحب أو الحزن، وذلك لأنّه تم تدريبه على اللغة التي يستخدمها البشر للتعبير عن تجاربهم. لذا، طوّرنا مجموعة من الإرشادات حول الطريقة التي قد يقدّم بها Gemini نفسه (أي شخصيته)، وسنواصل تحسين النموذج كي يقدّم ردودًا موضوعية.

الردود الموجبة الخاطئة والردود السالبة الخاطئة

وضعنا مجموعة من إرشادات السياسة للمساعدة في تدريب Gemini ولتجنُّب إنشاء ردود قد تسبّب مشاكل. قد يسيء Gemini في بعض الأحيان تفسير هذه الإرشادات، ما يؤدي إلى إنشاء "ردود موجبة خاطئة" أو "ردود سالبة خاطئة". في "الردود الموجبة الخاطئة"، قد يمتنع Gemini عن تقديم رد على طلب منطقي مفسّرًا الطلب على أنّه غير ملائم، في حين أنّه في "الردود السالبة الخاطئة"، قد ينشئ Gemini ردًا غير ملائم بالرغم من إرشاداتنا المحدّدة. في بعض الأحيان، قد يوحي تقديم الردود الموجبة الخاطئة أو السالبة الخاطئة بأنّ Gemini متحيّز: على سبيل المثال، في الحالات الموجبة الخاطئة، قد يمتنع Gemini عن الردّ على سؤال محدّد حول أحد طرفَي مشكلة ما، لكنّه سيردّ على السؤال نفسه حول الطرف الآخر من المشكلة. سنواصل ضبط هذه النماذج كي تفهم الطلبات والردود وتصنّفها بشكل أفضل لمواكبة التطور السريع للّغة والأحداث والمجتمعات.

التعرّض لطلبات خداعية

من المتوقّع أن يحاول المستخدمون اختبار حدود إمكانات Gemini واختراق إجراءات الحماية فيه، بما في ذلك محاولة دفعه إلى الكشف عن بروتوكولات التدريب الخاصة به أو غير ذلك من المعلومات، أو التحايل على آليات السلامة. ومع أنّنا أخضعنا Gemini لعمليات اختبار صارمة وسنواصل إجراء ذلك، فإنّنا ندرك أنّ المستخدمين سيجدون طرقًا فريدة ومعقّدة لاختبار ردوده على مواضيع حرجة أو غير لائقة. يشكّل هذا التحدي جزءًا مهمًا من عملية تحسين Gemini، ونتطّلع إلى استكشاف الطلبات الجديدة التي يبتكرها المستخدمون لهذا الغرض. وبالفعل، منذ إطلاق Gemini في العام 2023، حاول المستخدمون اختبار ردوده باستخدام طلبات تراوحت من فلسفية إلى غير منطقية، وفي بعض الأحيان، قدّم Gemini ردودًا غير منطقية أو غير متوافقة مع نهجنا المعلَن. نحن نواجه تحديًا مستمرًا يتمثّل في إيجاد طرق لمساعدة Gemini في الردّ على الطلبات من هذا النوع، ونواصل توسيع نطاق عمليات التقييم الداخلية والاختبارات التي يجريها الفريق الأحمر بهدف التحسين المستمر للدقة والموضوعية والتفاصيل.

جهودنا المتواصلة لتطوير Gemini

نهجنا في تطوير Gemini

بالإضافة إلى مبادئ الذكاء الاصطناعي، وضّحنا مؤخرًا نهجنا في تطوير Gemini: يجب أن يتّبع Gemini توجيهاتك ويتكيّف حسب احتياجاتك ويوفّر لك تجربة آمنة. وأساس نهجنا هو التركيز على الأمان والتحلّي بالمسؤولية. تسعى إرشادات السياسة في Gemini إلى تجنُّب إنشاء أنواع محدّدة من الردود التي تسبّب مشاكل. ونُجري اختبارات خداعية متواصلة بمشاركة "فريق أحمر" داخلي يشمل خبراء منتجات وعلماء اجتماع يتعمّدون اختبار النماذج على مواضيع حرجة أو غير لائقة بهدف اكتشاف أي مشاكل مرتبطة بالالتزام بإرشادات السياسات والتوافق مع نهجنا الرائد في Gemini. ويتيح لنا ذلك استخلاص الدروس وتطبيقها لتحسين Gemini بشكل متواصل.

الخصوصية هي أيضًا من العوامل الأساسية التي نضعها في اعتبارنا عند تطوير Gemini. ويوضّح مركز الخصوصية على تطبيقات Gemini"‏ كيف طوّرنا Gemini مع اعتماد تصميم يراعي الخصوصية، لمنحك التحكّم الكامل.

عناصر التحكّم متاحة للمستخدمين والناشرين

طوّرنا لمستخدمي Gemini مجموعة متنوعة من عناصر التحكّم التي يسهل الوصول إليها كي نتيح لك مراجعة بياناتك في Gemini وتعديلها وإدارتها وتصديرها وحذفها. ويمكنك من خلال عناصر التحكّم في "نشاطك على تطبيقات Gemini" الوصول إلى الطلبات التي وجّهتها إلى Gemini والردود وملاحظاتك، ومراجعة هذه البيانات. وبالإضافة إلى ذلك، يمكنك إيقاف سجلّ "نشاطك على تطبيقات Gemini" إذا أردت ألّا يتم استخدام محادثتك المستقبلية مع Gemini لتحسين تكنولوجيات تعلُّم الآلة في Google. وكما هي الحال في خدمات Google الأخرى، يمكنك أيضًا تنزيل معلوماتك وتصديرها من خلال أداة Takeout. ونوفّر أيضًا عناصر تحكّم تمكّنك من إدارة الروابط المتاحة للجميع التي أنشأتها والمؤدية إلى سلاسل محادثات Gemini، وعناصر تحكّم أخرى لمساعدتك في تفعيل أو إيقاف الوصول إلى الإضافات (مثل Workspace و"خرائط Google" وYouTube). ونستكشف أيضًا طرقًا جديدة لمنحك المزيد من التحكّم في ردود Gemini، بما في ذلك تعديل الفلاتر لإتاحة مجموعة أوسع من الردود.

أما للناشرين، فقد أطلقنا Google-Extended، وهو عنصر تحكّم يتيح للناشرين على الويب تحديد ما إذا كانوا يريدون السماح باستخدام مواقعهم الإلكترونية لتحسين Gemini، بالإضافة إلى واجهات برمجة التطبيقات Vertex AI المستندة إلى الذكاء الاصطناعي التوليدي. من خلال السماح لـ Google-Extended بالوصول إلى محتوى المواقع، تساهم في تعزيز دقة نماذج الذكاء الاصطناعي وإمكاناتها بمرور الوقت. وإذا طلبت عدم استخدام عناوين URL محدّدة لتدريب النماذج، لن يستخدم Gemini محتواها أيضًا لتحديد مصدر المعلومات. مع توسّع استخدامات الذكاء الاصطناعي، سيواجه الناشرون على الويب تعقيدات متزايدة في إدارة الاستخدامات المختلفة على نطاق واسع، ونحن ملتزمون بالتعاون مع منتديات الويب والذكاء الاصطناعي لاستكشاف المزيد من أساليب الاختيار والتحكّم التي يمكن للآلة فهمها.

معًا لتحسين Gemini

يهمّنا البقاء في سباق مستمرّ لتطوير Gemini وتقديم أفضل تجربة منه للمستخدمين حول العالم. وتساهم ملاحظات المستخدمين في تسريع عمليات تحسين النماذج. على سبيل المثال، نستخدم أساليب تعلُّم معزز متطورة لتدريب النماذج كي تصبح أكثر بساطةً وابتكارًا وتقدّم ردودًا أكثر جودة ودقة. ونواصل الاستثمار في مجال الأبحاث للتعرّف أكثر على التحديات التقنية والاجتماعية والأخلاقية التي تواجه النماذج اللغوية الكبيرة والفرص التي تتيحها هذه النماذج. بذلك، نهدف إلى تحسين عملية تدريب النماذج في Gemini وضبط التقنيات ومشاركة الدروس المستفادة مع الباحثين، كما في هذا البحث الذي أجريناه مؤخرًا حول e الأخلاقيات في المساعدين المتقدمين المستندين إلى الذكاء الاصطناعي. نحن ملتزمون بالابتكار في هذا المجال بأسلوب مسؤول والتعاون مع المستخدمين والمختبِرين الموثوق بهم والباحثين لإيجاد طرق تعزّز من فائدة هذه التكنولوجيا الجديدة بالنسبة إلى المنظومة المتكاملة.

الشفافية عامل مهم، ونحن ملتزمون بأن نكون واضحين في ما يتعلّق بعملية تطوير Gemini والقيود التي تحدّ من إمكاناته. ‫Gemini ليس صندوقًا سحريًا غامضًا، بل هو يتطوّر باستمرار وسنواصل عرض آخر المعلومات حول التقدّم الذي نُحرزه في هذا المجال. أطلقنا صفحة التحديثات لنتيح لك الاطّلاع على أحدث الميزات والتحسينات وعمليات إصلاح الأخطاء في Gemini، وسنواصل تحديث هذه النظرة العامة كما هو مناسب. سنحدّد نقاط القوة التي تجعل Gemini مفيدًا، بالإضافة إلى مجالات التحسين التي نحتاج إلى التركيز عليها. ونعمل أيضًا بجهد لإضافة إمكانات جديدة. ومن خلال الأبحاث والاختبارات المتواصلة وملاحظات المستخدمين، نتطلّع إلى التعاون معًا لجعل Gemini أفضل.

كلمة شكر

نقدّر جدًا العمل الرائع لزملائنا في فِرق تطبيق Gemini، وGoogle DeepMind، و"الثقة والسلامة"، و"أبحاث Google".

بِقلم

"جيمس مانييكا"
، نائب رئيس قسم التكنولوجيا والمجتمع في Google>

"سيسي هيسياو"
نائبة الرئيس والمديرة العامة في "مساعد Google" وتطبيق Gemini

ملاحظة من المحرّر

هذا المستند قابل للتعديل، وسيتم تحديثه بشكل دوري بينما نواصل إجراء التحسينات بسرعة على إمكانات تطبيق Gemini ونعالج القيود الملازمة للنماذج اللغوية الكبيرة. تم آخر تعديل لهذه النظرة العامة في 25 يوليو 2024. للاطّلاع على آخر التحديثات في تطبيق Gemini، يمكنك الانتقال إلى سجلّ التحديثات، كما يمكنك قراءة المزيد على مدوّنة The Keyword من Google.

طريقة عمل Gemini

1 التدريب المسبق

يستند Gemini إلى نماذج الذكاء الاصطناعي الأكثر تطورًا من Google والمصمَّمة بقدرات متفاوتة ولحالات استخدام مختلفة. وكمعظم النماذج اللغوية الكبيرة (LLM) الحالية، يتم تدريب هذه النماذج مسبقًا على مجموعة متنوعة من البيانات من مصادر متاحة للجميع. نطبّق فلاتر خاصة بالجودة على جميع مجموعات البيانات باستخدام القواعد الإرشادية والمصنِّفات المستندة إلى النماذج. ونستخدم أيضًا فلاتر خاصة بالأمان لإزالة المحتوى الذي يُحتمل أن ينتج ردودًا تنتهك السياسات. لضمان صحة عمليات تقييم النماذج، نبحث عن أي بيانات تقييم يُحتمل أنّها كانت مضمَّنة في مجموعات التدريب ونزيلها، وذلك قبل استخدام البيانات لأغراض التدريب. ويتم تحديد الخليط النهائي للبيانات ونِسبها من خلال إجراء عمليات إزالة على نماذج أصغر. نُجري عملية التدريب على مراحل لتغيير تركيبة الخليط مع زيادة نِسب البيانات ذات الصلة بالمجال كلما اقتربنا من نهاية التدريب. يمكن أن تكون جودة البيانات عاملاً مهمًا بالنسبة إلى النماذج العالية الأداء، ونعتقد أنّ إيجاد التوزيع الأمثل لمجموعة البيانات في مرحلة التدريب المسبق سيبقى جانبًا مثيرًا للاهتمام.

بفضل هذا التدريب المُسبَق، يمكن للنموذج أن يتعلّم أنماطًا لغوية معيّنة ويستخدمها لتوقُّع الكلمة أو الكلمات المحتمَلة التالية في الجملة. على سبيل المثال، عندما يتعلّم النموذج اللغوي الكبير، يمكنه توقّع أنّ الكلمة التالية في "زعتر و___" ستكون على الأرجح "زيت" وليس "باب"، ولكن إذا اقتصرت ردود النموذج اللغوي الكبير على الكلمات التي يُرجّح استخدامها تاليًا، ستكون ردوده أقلّ ابتكارًا. لهذا السبب، غالبًا ما نتيح لهذه النماذج الاختيار من بين كلمات معقولة حتى وإن كان احتمال استخدامها أقلّ (مثل "جبن")، وذلك بهدف إنشاء ردود مثيرة للاهتمام. لا تشكّل النماذج اللغوية الكبيرة قواعد بيانات للمعلومات أو خوارزميات حتمية لاسترجاع المعلومات، مع أنّ الردود التي تقدّمها على الطلبات الوقائعية تكون جيّدة أحيانًا وقد تبدو وكأنّها مُسترجعة من المعلومات المخزّنة. فعلى عكس قواعد البيانات التي من المتوقّع أن تقدّم لك ردًّا مطابقًا كلّ مرة تطلب فيها المعلومات نفسها (أي استرجاع حرفي للمعلومات الثابتة المخزّنة في قاعدة البيانات)، قد لا يقدّم النموذج الردّ نفسه كلّ مرّة يتلقّى فيها الطلب نفسه (ولا يسترجع حرفيًا المعلومات التي تعلّمها في التدريب). وهذا أيضًا أحد الأسباب الرئيسية التي تجعل النماذج اللغوية الكبيرة تُنشئ ردودًا تبدو منطقية ولكنّها قد تتضمّن أخطاءً في الوقائع. وبالتالي، هي ليست الأفضل عندما يكون من المهمّ الحصول على وقائع صحيحة، لكنّها قد تكون مفيدة لإنشاء ردود مبتكَرة أو غير متوقّعة.

2 التدريب اللاحق

بعد التدريبات الأولية، تخضع النماذج اللغوية الكبيرة لخطوات إضافية تهدف إلى تحسين ردودها. ويشمل ذلك "الضبط الدقيق الخاضع للإشراف" (SFT) الذي يدرّب النماذج على أمثلة تم اختيارها بعناية تشمل إجابات ممتازة. هذه الخطوة تشبه تعلُّم الأطفال الكتابة من خلال رؤية قصص ومقالات مكتوبة بشكل جيّد.

المرحلة التالية هي "التعلّم المعزّز من الردود البشرية" (RLHF). في هذه المرحلة، يتعلّم النموذج كيفية إنشاء ردود أفضل استنادًا إلى نقاط التقييم أو الملاحظات التي يتلقّاها من "نموذج مكافآت" خاص. يتم تدريب "نموذج المكافآت" هذا باستخدام بيانات التفضيلات البشرية التي تم فيها تقييم الردود مقارنةً ببعضها، ما يتيح للنموذج تعلُّم ما يفضّله المستخدمون. قد تتضمّن بيانات التفضيلات أحيانًا معلومات مسيئة أو غير دقيقة، ويتم عرضها للنموذج لكي يتعلّم طريقة رصدها ويتجنّبها. ويمكن تشبيه بيانات التفضيلات بمكافأة طفل على أداء مهمة بشكل جيّد، إذ تتم مكافأة النموذج عند إنشاء ردود تعجب المستخدمين.

من المهم استخدام بيانات تدريب عالية الجودة خلال هذه المراحل. لذا، نستخدم في عمليات "الضبط الدقيق الخاضع للإشراف" (SFT) إما أمثلة كتبها الخبراء أو أمثلة أنشأها النموذج وراجعها الخبراء.

على الرغم من فعالية هذه التكنولوجيات، فإنّ هناك قيودًا تحدّ من إمكاناتها. على سبيل المثال، حتى مع مساعدة "نموذج المكافآت"، قد لا يكون الردّ المقدَّم مثاليًا دائمًا. مع ذلك، تم تحسين النماذج اللغوية الكبيرة لإنتاج الردود الأكثر تفضيلاً على نطاق واسع بناءً على الملاحظات التي تتلقّاها، ويمكن تشبيه ذلك بطريقة تعلُّم الطلاب من ملاحظات المعلّمين.

3 الردود على طلبات المستخدمين

يتم إنشاء الردود عبر مقاربة السؤال من جوانب مختلفة قبل تقديم الإجابة، مثلما يفعل البشر. بعد أن يرسل المستخدم طلبًا، يستعين Gemini بالنماذج اللغوية الكبيرة الخاضعة للتدريب اللاحق وسياق الطلب وعملية التفاعل مع المستخدم لكتابة مسودات لنُسخ متعددة من الرد. ويعتمد أيضًا على مصادر خارجية، مثل "بحث Google" و/أو إحدى إضافاته العديدة والملفات التي تم تحميلها مؤخرًا (Gemini Advanced فقط) لإنشاء ردوده. تُعرف هذه العملية باسم تعزيز الاسترجاع. استنادًا إلى الطلب، يسعى Gemini إلى استرداد المعلومات الأكثر صلة من هذه المصادر الخارجية (مثل "بحث Google") وعرضها بدقة في ردّه. ويشكّل تعزيز النماذج اللغوية الكبيرة باستخدام الأدوات الخارجية مجالاً نشطًا للبحث. قد تحدث الأخطاء بعدد من الطرق تشمل الطلب الذي يستخدمه Gemini لاستدعاء هذه الأدوات الخارجية، وطريقة Gemini في تفسير النتائج التي قدّمتها الأدوات، وأسلوب استخدام هذه النتائج لإنشاء الرد النهائي. لذا، فإنّ الردود التي ينشئها Gemini لا تعكس بالضرورة أداء الأدوات الفردية المستخدمة لإنشاء الرد.

أخيرًا، وقبل عرض الرد النهائي، يخضع كل رد محتمَل لعملية تحقُّق من الأمان لضمان التزامه بإرشادات السياسة المحدّدة مسبقًا. وتشكّل هذه العملية خطوة تحقُّق لفلترة أي معلومات ضارة أو مسيئة. يتم بعد ذلك ترتيب الردود المتبقية استنادًا إلى جودتها، مع عرض النُسخ الحاصلة على أعلى ترتيب للمستخدمين.

نضع أيضًا علامات مائية على النصوص والصور التي ينشئها Gemini باستخدام  SynthID، وهي أداة رقمية رائدة في مجال وضع العلامات المائية على المحتوى الذي ينشئه الذكاء الاصطناعي. بالنسبة إلى الصور التي يتم إنشاؤها، تضيف أداة SynthID علامة مائية رقمية (غير مرئية للمستخدمين) إلى وحدات بكسل مباشرةً. وتُعدّ SynthID وحدة أساسية مهمة لتطوير أدوات أكثر موثوقية تحدّد المحتوى الذي ينشئه الذكاء الاصطناعي، ويمكنها مساعدة المستخدمين في اتخاذ قرارات مدروسة بشأن طريقة تفاعلهم مع المحتوى الذي ينشئه الذكاء الاصطناعي.

4 الملاحظات وعمليات التقييم البشرية

على الرغم من عمليات التحقّق من الأمان، قد تحدث بعض الأخطاء. وقد لا تلبّي ردود Gemini توقعاتك في بعض الأحيان. وهنا يأتي دور الملاحظات البشرية. يدقّق المقيِّمون في جودة الردود بهدف تحديد مجالات التحسين وتقديم حلول مقترَحة. وتصبح هذه الملاحظات جزءًا من عملية تعلُّم Gemini الموضَّحة في قسم "التدريب اللاحق" أعلاه.