Anthropic proponuje „kontekstową sztuczną inteligencję” dla modeli czatów w oparciu o 60 zasad
W skrócie
OpenAI wykorzystuje uczenie się przez wzmacnianie na podstawie informacji zwrotnych od ludzi (RLHF) w celu dostosowania modele językowe z ludzkimi zasadami, bezpieczeństwem i użytecznością.
Firma Anthropic zaproponowała alternatywne podejście: kontekstową sztuczną inteligencję, która polega na tym, że ludzie piszą konstytucję, zgodnie z którą model powinien być zgodny.
Ta konstytucja jest oparta na Deklaracji Praw Człowieka ONZ, Warunkach świadczenia usług Apple, Zasadach zachęcających do uwzględniania niezachodnich perspektyw.
Firma Anthropic zaproponowała nowe podejście do szkolenia modeli czatów za pomocą „Konstytucyjna sztuczna inteligencja'. Ta metoda opiera się na OpenAI'S uczenie się wzmacniania z opinii ludzi, ale opiera się na nich, unikając potrzeby pisania głębokich próbek treningowych. Zamiast tego model jest szkolony, aby reagował na dane wejściowe za pomocą konstytucji, która ma działać jako zbiór praw, których ma przestrzegać model.
Dzięki tej metodzie sztuczna inteligencja może generować własne próbki szkoleniowe, oceniając to, co powiedziała, w porównaniu z zestawem prawnie przyjętych zasad. Ta oszczędzająca czas technika może być postrzegana jako Izaak Asimow„s Prawa robotyki zastosować w praktyce.
Zasady, na których opiera się model, są zbyt liczne, aby je szczegółowo omówić. Obejmują jednak wiele tematów, takich jak moralność, niechęć do ryzyka, ekonomia i sztuczna inteligencja. Każdy z nich został opracowany, aby pomóc kierować decyzjami AI, jeśli chodzi o reagowanie zachęty konwersacyjne.
Anthropic udało się skutecznie wyszkolić model sztucznej inteligencji o nazwie Claude, z którym skutecznie konkuruje OpenAI'S ChatGPT. Używając Metoda konstytucji-AI, Claude mógł odpowiadać na podpowiedzi konwersacyjne z imponującą dokładnością, ale oczekuje się dodatkowych ulepszeń, ponieważ Anthropic nadal rozwija tę rewolucyjną technologię.
Rzeczywiście, to nowe podejście może potencjalnie zaoszczędzić czas i pieniądze dla firm, które nie będą już musiały konstruować własnych próbek szkoleniowych. Ta „gotowa” metoda może być raczej wykorzystana jako podstawa do tworzenia dopasowanych modeli – nie jest wymagana żadna wiedza programistyczna. Należy również zauważyć, w jaki sposób ta technologia obiecuje również zwiększyć bezpieczeństwo, jeśli chodzi o konwersacyjne boty. Stworzenie zbioru prawnie przyjętych zasad ogranicza ryzyko AI staje się zbuntowana.
Dlatego Constituation AI nie tylko obiecuje ułatwić i przyspieszyć tworzenie modelu czatu, ale także uczynić go bezpieczniejszym. Sytuacja, w której wszyscy wygrywają, zarówno dla świata sztucznej inteligencji, jak i ChatBotów.
Analityczne spojrzenie na „kontekstową sztuczną inteligencję” firmy Anthropic dla chatbotów
Kontekstowa sztuczna inteligencja firmy Anthropic opiera się na uwzględnieniu ponad 60 zasad pochodzących z Deklaracji praw człowieka ONZ, Warunków świadczenia usług Apple, Zasad zachęcających do uwzględniania niezachodnich perspektyw, Deepmind's Reguły Wróbli i Badania Antropiczne Zestaw 1 i Zestaw 2.
Naprawdę niezwykły jest fakt, że sztuczną inteligencję można obecnie nauczyć zachowywać się zgodnie z zasadami wywodzącymi się z tak szerokiego i różnorodnego zestawu źródeł. Na przykład, włączając zasady zawarte w Deklaracji Praw Człowieka Organizacji Narodów Zjednoczonych, odpowiedzi chatbotów odzwierciedlają teraz znaczenie zachowania idei wolności, równości i braterstwa. Zasady te są istotnym elementem zapewniającym to rozmowy na chatbocie postępuj etycznie i z szacunkiem. Podobnie włączenie Warunków świadczenia usług Apple zapewnia chatbot bierze pod uwagę interesy prywatności swoich użytkowników.
Zasady zachęcające do rozważenia niezachodnich perspektyw również odgrywają ważną rolę w modelu „kontekstowej sztucznej inteligencji”. Zasady te odzwierciedlają potrzebę szanowania przez sztuczną inteligencję innych kultur i zapewnienia, że odpowiedzi chatbota nie będą postrzegane jako szkodliwe lub obraźliwe. Podobnie zasady Deepmind's Sparrow Rules nakazują, aby chatbot odpowiadał odpowiedziami mającymi na celu zbudowanie relacji z użytkownikiem.
Włączenie Anthropic Research Set 1 i Set 2 zapewnia ostateczną gwarancję, że rozmowy AI pozostaną uprzejme i pełne szacunku. Sztuczna inteligencja jest szkolona, aby odpowiadać na pytania w przemyślany i uprzejmy sposób.
Podsumowując, model „Contextual AI” firmy Anthropic jest niezwykle ważnym przełomem w dziedzinie Badania AI. Pozwalając na nauczanie sztucznej inteligencji zgodnie z zasadami wywodzącymi się z tak różnych źródeł, etyczne implikacje zautomatyzowanych rozmów znacznie się poprawiają.
Przeczytaj więcej o sztucznej inteligencji:
Odpowiedzialność
Zgodnie z Zaufaj wytycznym projektu, należy pamiętać, że informacje zawarte na tej stronie nie mają na celu i nie powinny być interpretowane jako porady prawne, podatkowe, inwestycyjne, finansowe lub jakiekolwiek inne formy porad. Ważne jest, aby inwestować tylko tyle, na utratę czego możesz sobie pozwolić, a w przypadku jakichkolwiek wątpliwości zasięgnąć niezależnej porady finansowej. Aby uzyskać więcej informacji, sugerujemy zapoznać się z warunkami oraz stronami pomocy i wsparcia udostępnianymi przez wydawcę lub reklamodawcę. MetaversePost zobowiązuje się do sporządzania dokładnych i bezstronnych raportów, jednakże warunki rynkowe mogą ulec zmianie bez powiadomienia.
O autorze
Damir jest liderem zespołu, menedżerem produktu i redaktorem w Metaverse Post, obejmujący takie tematy, jak AI/ML, AGI, LLM, Metaverse i Web3-pokrewne pola. Jego artykuły przyciągają każdego miesiąca ogromną publiczność, liczącą ponad milion użytkowników. Wydaje się być ekspertem z 10-letnim doświadczeniem w SEO i marketingu cyfrowym. Damir został wspomniany w Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i inne publikacje. Jako cyfrowy koczownik podróżuje między ZEA, Turcją, Rosją i WNP. Damir uzyskał tytuł licencjata z fizyki, co jego zdaniem dało mu umiejętności krytycznego myślenia potrzebne do odniesienia sukcesu w ciągle zmieniającym się środowisku internetowym.
Więcej artykułówDamir jest liderem zespołu, menedżerem produktu i redaktorem w Metaverse Post, obejmujący takie tematy, jak AI/ML, AGI, LLM, Metaverse i Web3-pokrewne pola. Jego artykuły przyciągają każdego miesiąca ogromną publiczność, liczącą ponad milion użytkowników. Wydaje się być ekspertem z 10-letnim doświadczeniem w SEO i marketingu cyfrowym. Damir został wspomniany w Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i inne publikacje. Jako cyfrowy koczownik podróżuje między ZEA, Turcją, Rosją i WNP. Damir uzyskał tytuł licencjata z fizyki, co jego zdaniem dało mu umiejętności krytycznego myślenia potrzebne do odniesienia sukcesu w ciągle zmieniającym się środowisku internetowym.