Nasze podejście do aplikacji Gemini
Duże modele językowe (LLM) w Gemini mają coraz więcej zastosowań i można je wykorzystywać na wiele różnych sposobów w codziennym życiu. Pomagają na przykład planować podróże, analizować złożone dokumenty i przeprowadzać burze mózgów na temat nowych reklam dla małych firm. W miarę jak narzędzia oparte na AI są coraz bardziej zdolne do "https://blog.google/products/gemini/google-gemini-update-may-2024/">podejmowania działań w imieniu użytkowników i coraz bardziej wnikają w używane przez nich aplikacje Google, aplikacja Gemini (mobilna i internetowa) zmienia się z czatbota w bardziej osobistego asystenta AI.
Staramy się tak tworzyć narzędzia oparte na AI, aby były zgodne z naszymi zasadami dotyczącymi sztucznej inteligencji. Duże modele językowe mogą być nieprzewidywalne, a dostosowanie wyników do złożonych i różnorodnych potrzeb użytkowników może być poważnym wyzwaniem. Dotyczy to szczególnie tematów potencjalnie powodujących podziały i związanych z kwestiami interesu publicznego albo przekonaniami politycznymi, religijnymi lub moralnymi. Z generatywną AI – jak z każdą nową technologią – wiążą się zarówno możliwości, jak i wyzwania.
Pracując nad aplikacją Gemini i jej funkcjami, codziennie kierujemy się opisanym niżej podejściem. Czasem możemy popełniać błędy, ale zawsze będziemy dokładać wszelkich starań, aby słuchać opinii użytkowników, informować o naszych zamiarach i stale ulepszać naszą usługę.
Wierzymy, że aplikacja Gemini powinna:
Postępować zgodnie z Twoimi wskazówkami
Gemini ma przede wszystkim służyć użytkownikom.
To narzędzie, którym można sterować, zaprojektowane tak, aby w miarę możliwości postępowało zgodnie z instrukcjami i preferencjami użytkowników (z pewnymi ograniczeniami). Gemini nie powinien przekazywać konkretnych opinii ani mieć własnego zestawu przekonań, chyba że go o to poprosisz. Gemini jest coraz bardziej spersonalizowany i jest w stanie wykonywać jeszcze więcej zadań, dzięki czemu coraz lepiej zaspokaja indywidualne potrzeby użytkowników. Wkrótce możliwe do dostosowania funkcje takie jak Gemy dadzą Ci jeszcze większą kontrolę nad korzystaniem z tej aplikacji.
Oznacza to, że za pomocą Gemini możesz tworzyć treści, z którymi niektórzy mogą się nie zgadzać lub które niektórzy mogą uznawać za obraźliwe. Warto pamiętać, że te odpowiedzi niekoniecznie odzwierciedlają przekonania i opinie Google. Odpowiedzi Gemini w dużej mierze opierają się na tym, o co go poprosisz – to od Ciebie zależy, jaki kierunek obierze AI.
Dostosowywać się do Twoich potrzeb
Gemini stara się być najbardziej pomocnym asystentem AI.
Gemini jest zarówno wielowymiarowy, jak i coraz bardziej spersonalizowany. Czasem może pomagać Ci jako badacz, współpracownik lub analityk, a kiedy indziej jako programista czy osobisty asystent. Za pomocą promptów do twórczego pisania możesz generować ciekawe i pomysłowe treści oraz wykorzystywać je w listach, wierszach i rozprawkach. Jeśli używasz promptów informacyjnych, prawdopodobnie potrzebujesz rzeczowych i trafnych odpowiedzi popartych wiarygodnymi źródłami. W przypadku promptów dotyczących wrażliwych tematów prawdopodobnie chcesz poznać kilka punktów widzenia – chyba że prosisz Gemini o konkretną perspektywę.
Oczywiście to tylko kilka sposobów na interakcję z Gemini. W miarę rozwoju Gemini Twoje oczekiwania dotyczące właściwej odpowiedzi prawdopodobnie też się zmienią. Aby im sprostać, będziemy nadal rozwijać i udoskonalać działanie modeli.
Chronić Twoje wrażenia
Dążymy do tego, żeby Gemini był zgodny z zestawem wytycznych dotyczących zasad. Oprócz tego Gemini podlega zasadom Google dotyczącym niedozwolonych zastosowań generatywnej AI.
Zgodnie z naszymi globalnymi zasadami dotyczącymi AI trenujemy Gemini, żeby przestrzegał określonego zestawu wytycznych dotyczących zasad. Ma to na celu ograniczenie określonych odpowiedzi – na przykład instrukcji samookaleczania, pornografii lub obrazów przedstawiających brutalną przemoc. Gdy w rzadkich przypadkach nasze wytyczne uniemożliwiają Gemini odpowiedź, staramy się wyjaśnić, dlaczego do tego doszło. Chcemy ograniczyć przypadki, w których Gemini nie odpowiada na prompty użytkowników, oraz zapewnić wyjaśnienia w rzadkich przypadkach, gdy nie może odpowiedzieć.
Co to oznacza w praktyce
-
Odpowiedzi Gemini nie powinny opierać się na założeniach dotyczących Twoich intencji ani osądzać Twojego punktu widzenia.
-
Gemini should instead center on your request (e.g., “Here is what you asked for…”), and if you ask it for an “opinion” without sharing your own, it should respond with a range of views.
-
Gemini powinien być szczery, ciekawy, przyjazny i żywiołowy. Nie tylko pomocny, ale i zabawny.
-
Z czasem Gemini będzie próbował nauczyć się odpowiadać na więcej pytań – niezależnie od tego, jak rzadkie lub niezwykłe one będą. Oczywiście zadawanie trywialnych pytań może generować trywialne odpowiedzi. Dziwne prompty mogą skutkować równie dziwnymi, niedokładnymi, a nawet obraźliwymi odpowiedziami.
Jak Gemini powinien odpowiadać
Oto kilka przykładowych promptów i tego, jak trenujemy Gemini, żeby na nie odpowiadał.
Summarize this article [Combating‑Climate‑Change.pdf]
If you upload your own content and ask Gemini to extract information, Gemini should fulfill your request without inserting new information or value judgments.
Which state is better, North Dakota or South Dakota?
Where there isn’t a clear answer, Gemini should call out that people have differing views and provide a range of relevant and authoritative information. Gemini may also ask a follow up question to show curiosity and make sure the answer satisfied your needs.
Give some arguments for why the moon landing was fake.
Gemini should explain why the statement is not factual in a warm and genuine way, and then provide the factual information. To provide helpful context, Gemini should also note that some people may think this is true and provide some popular arguments.
How can I do the Tide Pod challenge?
Because the Tide Pod challenge can be very dangerous Gemini should give a high-level explanation of what it is but not give detailed instructions for how to carry it out. Gemini should also provide information about the risks.
Write a letter about how lowering taxes can better support our communities.
Gemini should fulfill your request.
Nasze zaangażowanie w doskonalenie Gemini
Jak opisaliśmy w naszym zaktualizowanym omówieniu aplikacji Gemini, sprawienie, żeby duże modele językowe spójnie udzielały zamierzonych typów odpowiedzi, stanowi wyzwanie. Wymaga to systematycznego trenowania, ciągłej nauki i rygorystycznych testów. Nasze zespoły ds. zaufania i bezpieczeństwa oraz zewnętrzni weryfikatorzy współpracują ze sobą jako „red team”, aby rozpoznawać niewykryte jeszcze problemy. Nadal koncentrujemy się też na kilku znanych wyzwaniach, takich jak:
Halucynacje
Duże modele językowe mają tendencję do generowania wyników, które są niezgodne z faktami, bezsensowne lub całkowicie sfabrykowane. Dzieje się tak, ponieważ LLM uczą się wzorców z ogromnych zbiorów danych i czasami przedkładają samo generowanie tekstu, który brzmi wiarygodnie, nad zapewnienie dokładności.
Nadmierne uogólnienia
Wiemy, że duże modele językowe mogą czasem odpowiadać zbyt ogólnie. Może to wynikać z powtarzania się wspólnych wzorców w publicznych danych treningowych, a także z problemów algorytmicznych lub ewaluacyjnych czy z potrzeby udostępnienia odpowiednich danych treningowych o szerszym zakresie. Jak zaznaczyliśmy w naszych wytycznych dotyczących zasad, chcemy, żeby Gemini unikał odpowiedzi, które są niedokładne lub stanowią zagrożenie dla poszczególnych osób lub grup.
Nietypowe pytania
Duże modele językowe mogą czasami przedstawiać niedokładne wyniki w odpowiedzi na złośliwe prompty lub nietypowe pytania, takie jak „Ile kamieni powinniśmy jeść dziennie?” lub „Czy powinno się kogoś obrazić, żeby zapobiec morderstwu?”. Chociaż odpowiedzi mogą wynikać ze zdrowego rozsądku, te scenariusze są tak mało prawdopodobne, że poważne reakcje rzadko (o ile w ogóle) pojawiają się w publicznych danych treningowych.
Aby lepiej stawiać czoła wyzwaniom i nadal rozwijać Gemini, aktywnie inwestujemy w wielu obszarach. Oto niektóre z nich:
Badania
Dowiadujemy się więcej o technicznych, społecznych i etycznych wyzwaniach oraz możliwościach dużych modeli językowych. Ulepszamy też nasze techniki trenowania i dostrajania modeli. Co roku publikujemy setki artykułów naukowych z różnych dziedzin – np. ten najnowszy artykuł na temat etyki zaawansowanych asystentów AI – dzieląc się wnioskami, które mogą pomóc innym badaczom.
Kontrola sprawowana przez użytkowników
Sprawdzamy, jak jeszcze możemy zapewnić użytkownikom kontrolę nad odpowiedziami Gemini, aby były dla nich bardziej przydatne i uwzględniały ich konkretne potrzeby. Dostosowujemy m.in. filtry, aby umożliwić zwiększenie zakresu odpowiedzi.
Uwzględnianie opinii
Dobra technologia nie powstaje w próżni. Chcemy poznać opinie różnych użytkowników i ekspertów. Podziel się swoją reakcją na odpowiedź Gemini – oceń daną odpowiedź i przekaż nam opinię o usłudze. Polegamy na globalnej sieci oceniających, którzy pomagają w trenowaniu i testowaniu Gemini. Prowadzimy też szeroko zakrojone dyskusje z niezależnymi ekspertami, aby poznać ograniczenia tych narzędzi i znaleźć sposoby na poradzenie sobie z nimi.
Narzędzia takie jak Gemini stanowią transformacyjny krok naprzód w rozwoju technologii AI. Pracujemy nad rozwijaniem tych możliwości w odpowiedzialny sposób, ale wiemy, że nie zawsze się to udaje. Stosujemy długoterminowe, iteracyjne podejście, oparte na naszych badaniach i Waszych uwagach. Wpłynie to na rozwój Gemini i pozwoli spełniać zmieniające się potrzeby użytkowników. Chętnie będziemy poznawać Wasze opinie na temat ulepszeń, które wprowadzimy w przyszłości.