Raport aktualności SMW Technologia
10 maja 2023 r.

Anthropic proponuje „kontekstową sztuczną inteligencję” dla modeli czatów w oparciu o 60 zasad

W skrócie

OpenAI wykorzystuje uczenie się przez wzmacnianie na podstawie informacji zwrotnych od ludzi (RLHF) w celu dostosowania modele językowe z ludzkimi zasadami, bezpieczeństwem i użytecznością.

Firma Anthropic zaproponowała alternatywne podejście: kontekstową sztuczną inteligencję, która polega na tym, że ludzie piszą konstytucję, zgodnie z którą model powinien być zgodny.

Ta konstytucja jest oparta na Deklaracji Praw Człowieka ONZ, Warunkach świadczenia usług Apple, Zasadach zachęcających do uwzględniania niezachodnich perspektyw.

Firma Anthropic zaproponowała nowe podejście do szkolenia modeli czatów za pomocą „Konstytucyjna sztuczna inteligencja'. Ta metoda opiera się na OpenAI'S uczenie się wzmacniania z opinii ludzi, ale opiera się na nich, unikając potrzeby pisania głębokich próbek treningowych. Zamiast tego model jest szkolony, aby reagował na dane wejściowe za pomocą konstytucji, która ma działać jako zbiór praw, których ma przestrzegać model.

Anthropic proponuje „kontekstową sztuczną inteligencję” dla modeli czatów w oparciu o 60 zasad
anthropic.com
Polecamy: Dawny-OpenAI pracownicy założyli Anthropic, firmę, która przyciągnęła finansowanie w wysokości ponad 700 milionów dolarów

Dzięki tej metodzie sztuczna inteligencja może generować własne próbki szkoleniowe, oceniając to, co powiedziała, w porównaniu z zestawem prawnie przyjętych zasad. Ta oszczędzająca czas technika może być postrzegana jako Izaak Asimow„s Prawa robotyki zastosować w praktyce.

Zasady, na których opiera się model, są zbyt liczne, aby je szczegółowo omówić. Obejmują jednak wiele tematów, takich jak moralność, niechęć do ryzyka, ekonomia i sztuczna inteligencja. Każdy z nich został opracowany, aby pomóc kierować decyzjami AI, jeśli chodzi o reagowanie zachęty konwersacyjne.

Anthropic udało się skutecznie wyszkolić model sztucznej inteligencji o nazwie Claude, z którym skutecznie konkuruje OpenAI'S ChatGPT. Używając Metoda konstytucji-AI, Claude mógł odpowiadać na podpowiedzi konwersacyjne z imponującą dokładnością, ale oczekuje się dodatkowych ulepszeń, ponieważ Anthropic nadal rozwija tę rewolucyjną technologię.

Korzystając z zestawu zasad i kilku przykładów procesów, model uczy się, jak oceniać i korygować własne odpowiedzi w pierwszej fazie. Drugi etap polega na szkoleniu modelu za pomocą uczenia się przez wzmacnianie, ale zamiast danych wejściowych pochodzących od ludzi, wykorzystuje informacje zwrotne generowane przez sztuczną inteligencję w oparciu o zestaw zasad, aby wybrać łagodniejszy wynik.

Rzeczywiście, to nowe podejście może potencjalnie zaoszczędzić czas i pieniądze dla firm, które nie będą już musiały konstruować własnych próbek szkoleniowych. Ta „gotowa” metoda może być raczej wykorzystana jako podstawa do tworzenia dopasowanych modeli – nie jest wymagana żadna wiedza programistyczna. Należy również zauważyć, w jaki sposób ta technologia obiecuje również zwiększyć bezpieczeństwo, jeśli chodzi o konwersacyjne boty. Stworzenie zbioru prawnie przyjętych zasad ogranicza ryzyko AI staje się zbuntowana.

Dlatego Constituation AI nie tylko obiecuje ułatwić i przyspieszyć tworzenie modelu czatu, ale także uczynić go bezpieczniejszym. Sytuacja, w której wszyscy wygrywają, zarówno dla świata sztucznej inteligencji, jak i ChatBotów.

Analityczne spojrzenie na „kontekstową sztuczną inteligencję” firmy Anthropic dla chatbotów

Kontekstowa sztuczna inteligencja firmy Anthropic opiera się na uwzględnieniu ponad 60 zasad pochodzących z Deklaracji praw człowieka ONZ, Warunków świadczenia usług Apple, Zasad zachęcających do uwzględniania niezachodnich perspektyw, Deepmind's Reguły Wróbli i Badania Antropiczne Zestaw 1 i Zestaw 2.

Naprawdę niezwykły jest fakt, że sztuczną inteligencję można obecnie nauczyć zachowywać się zgodnie z zasadami wywodzącymi się z tak szerokiego i różnorodnego zestawu źródeł. Na przykład, włączając zasady zawarte w Deklaracji Praw Człowieka Organizacji Narodów Zjednoczonych, odpowiedzi chatbotów odzwierciedlają teraz znaczenie zachowania idei wolności, równości i braterstwa. Zasady te są istotnym elementem zapewniającym to rozmowy na chatbocie postępuj etycznie i z szacunkiem. Podobnie włączenie Warunków świadczenia usług Apple zapewnia chatbot bierze pod uwagę interesy prywatności swoich użytkowników.

Zasady zachęcające do rozważenia niezachodnich perspektyw również odgrywają ważną rolę w modelu „kontekstowej sztucznej inteligencji”. Zasady te odzwierciedlają potrzebę szanowania przez sztuczną inteligencję innych kultur i zapewnienia, że ​​odpowiedzi chatbota nie będą postrzegane jako szkodliwe lub obraźliwe. Podobnie zasady Deepmind's Sparrow Rules nakazują, aby chatbot odpowiadał odpowiedziami mającymi na celu zbudowanie relacji z użytkownikiem.

Włączenie Anthropic Research Set 1 i Set 2 zapewnia ostateczną gwarancję, że rozmowy AI pozostaną uprzejme i pełne szacunku. Sztuczna inteligencja jest szkolona, ​​aby odpowiadać na pytania w przemyślany i uprzejmy sposób.

Podsumowując, model „Contextual AI” firmy Anthropic jest niezwykle ważnym przełomem w dziedzinie Badania AI. Pozwalając na nauczanie sztucznej inteligencji zgodnie z zasadami wywodzącymi się z tak różnych źródeł, etyczne implikacje zautomatyzowanych rozmów znacznie się poprawiają.

Przeczytaj więcej o sztucznej inteligencji:

Odpowiedzialność

Zgodnie z Zaufaj wytycznym projektu, należy pamiętać, że informacje zawarte na tej stronie nie mają na celu i nie powinny być interpretowane jako porady prawne, podatkowe, inwestycyjne, finansowe lub jakiekolwiek inne formy porad. Ważne jest, aby inwestować tylko tyle, na utratę czego możesz sobie pozwolić, a w przypadku jakichkolwiek wątpliwości zasięgnąć niezależnej porady finansowej. Aby uzyskać więcej informacji, sugerujemy zapoznać się z warunkami oraz stronami pomocy i wsparcia udostępnianymi przez wydawcę lub reklamodawcę. MetaversePost zobowiązuje się do sporządzania dokładnych i bezstronnych raportów, jednakże warunki rynkowe mogą ulec zmianie bez powiadomienia.

O autorze

Damir jest liderem zespołu, menedżerem produktu i redaktorem w Metaverse Post, obejmujący takie tematy, jak AI/ML, AGI, LLM, Metaverse i Web3-pokrewne pola. Jego artykuły przyciągają każdego miesiąca ogromną publiczność, liczącą ponad milion użytkowników. Wydaje się być ekspertem z 10-letnim doświadczeniem w SEO i marketingu cyfrowym. Damir został wspomniany w Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i inne publikacje. Jako cyfrowy koczownik podróżuje między ZEA, Turcją, Rosją i WNP. Damir uzyskał tytuł licencjata z fizyki, co jego zdaniem dało mu umiejętności krytycznego myślenia potrzebne do odniesienia sukcesu w ciągle zmieniającym się środowisku internetowym. 

Więcej artykułów
Damir Jałałow
Damir Jałałow

Damir jest liderem zespołu, menedżerem produktu i redaktorem w Metaverse Post, obejmujący takie tematy, jak AI/ML, AGI, LLM, Metaverse i Web3-pokrewne pola. Jego artykuły przyciągają każdego miesiąca ogromną publiczność, liczącą ponad milion użytkowników. Wydaje się być ekspertem z 10-letnim doświadczeniem w SEO i marketingu cyfrowym. Damir został wspomniany w Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i inne publikacje. Jako cyfrowy koczownik podróżuje między ZEA, Turcją, Rosją i WNP. Damir uzyskał tytuł licencjata z fizyki, co jego zdaniem dało mu umiejętności krytycznego myślenia potrzebne do odniesienia sukcesu w ciągle zmieniającym się środowisku internetowym. 

Apetyt instytucjonalny na ETFy Bitcoin rośnie w obliczu zmienności

Ujawnienia zawarte w zgłoszeniach 13F ujawniają, że znaczący inwestorzy instytucjonalni parają się funduszami ETF Bitcoin, co podkreśla rosnącą akceptację…

Dowiedz się więcej

Nadchodzi dzień wyroku: los CZ wisi na włosku, gdy amerykański sąd rozpatruje skargę Departamentu Sprawiedliwości

Changpeng Zhao stanie dziś przed amerykańskim sądem w Seattle wyrokiem skazującym.

Dowiedz się więcej
Dołącz do naszej innowacyjnej społeczności technologicznej
Czytaj więcej
Czytaj więcej
Injective łączy siły z AltLayer, aby zapewnić bezpieczeństwo ponownego stakowania w inEVM
Biznes Raport aktualności Technologia
Injective łączy siły z AltLayer, aby zapewnić bezpieczeństwo ponownego stakowania w inEVM
3 maja 2024 r.
Masa współpracuje z Tellerem, aby wprowadzić pulę pożyczek MASA, umożliwiającą zaciąganie pożyczek w USDC
rynki Raport aktualności Technologia
Masa współpracuje z Tellerem, aby wprowadzić pulę pożyczek MASA, umożliwiającą zaciąganie pożyczek w USDC
3 maja 2024 r.
Velodrome wprowadza wersję beta Superchain w nadchodzących tygodniach i rozszerza się na łańcuchy bloków warstwy 2 stosu OP
rynki Raport aktualności Technologia
Velodrome wprowadza wersję beta Superchain w nadchodzących tygodniach i rozszerza się na łańcuchy bloków warstwy 2 stosu OP
3 maja 2024 r.
CARV ogłasza partnerstwo z firmą Aethir w celu decentralizacji warstwy danych i dystrybucji nagród
Biznes Raport aktualności Technologia
CARV ogłasza partnerstwo z firmą Aethir w celu decentralizacji warstwy danych i dystrybucji nagród
3 maja 2024 r.
CRYPTOMERIA LABS PTE. SP. Z O.O.