AI Wiki Technologia
18 maja 2023 r.

10 najlepszych AI i ChatGPT Ryzyka i zagrożenia w 2023 roku

Dzięki postępom w zakresie sztucznej inteligencji (AI) i technologii chatbotów coraz więcej firm poszukuje rozwiązań zautomatyzowanej obsługi klienta, aby poprawić jakość obsługi klienta i obniżyć koszty ogólne. Chociaż wykorzystanie modeli sztucznej inteligencji i rozwiązań chatbotów przynosi wiele korzyści, nadal istnieją różne zagrożenia i niebezpieczeństwa związane z technologią, zwłaszcza że stają się one coraz bardziej wszechobecne i zintegrowane z naszym codziennym życiem w nadchodzącej dekadzie.

W tym tygodniu wszyscy w Senacie USA słuchali, jak Sam Altman mówił o regulacjach i zagrożeniach związanych z modelami sztucznej inteligencji. Oto podstawowe podsumowanie:

Broń biologiczna

Broń biologiczna
@Midjourney

Wykorzystanie sztucznej inteligencji (AI) w rozwoju broni biologicznej przedstawia niebezpiecznie metodyczny i skuteczny sposób tworzenia potężnej i śmiercionośnej broni masowego rażenia. ChatGPT boty to wspomagani przez sztuczną inteligencję asystenci konwersacyjni, którzy są w stanie prowadzić realistyczne rozmowy z ludźmi. Troska o ChatGPT botów polega na tym, że można je wykorzystać do rozpowszechniania fałszywych informacji i manipulowania umysłami w celu wywierania wpływu opinia publiczna.

Ostrzegłem przed możliwym niewłaściwym wykorzystaniem sztucznej inteligencji w tworzeniu broni biologicznej i podkreśliłem potrzebę regulacji, aby zapobiec takim scenariuszom.

Sam Altman

Regulacje są kluczowym elementem zapobiegania niewłaściwemu wykorzystaniu sztucznej inteligencji i ChatGPT botów w opracowywaniu i wdrażaniu broni biologicznej. Rządy muszą opracować krajowe plany działania w celu rozwiązania problemu potencjalnego niewłaściwego wykorzystania technologii, a przedsiębiorstwa powinny ponosić odpowiedzialność za wszelkie potencjalne niewłaściwe wykorzystanie ich AI i ChatGPT boty. Organizacje międzynarodowe powinny inwestować w inicjatywy, które koncentrują się na szkoleniu, monitorowaniu i edukowaniu sztucznej inteligencji oraz ChatGPT boty.

Utrata pracy

Utrata pracy
@Midjourney

Potencjalna utrata pracy z powodu sztucznej inteligencji i ChatGPT w 2023 r. ma być trzy razy większa niż w 2020 r. AI i ChatGPT może prowadzić do zwiększonej niepewności w miejscu pracy, względów etycznych i psychologicznego wpływu na pracowników. sztuczna inteligencja i ChatGPT może służyć do monitorowania zachowań i działań pracowników, umożliwiając pracodawcom szybkie podejmowanie decyzji bez konieczności angażowania personelu. Dodatkowo AI i ChatGPT może powodować niesprawiedliwe i stronnicze decyzje, które mogą prowadzić do finansowej, społecznej i emocjonalnej niepewności w miejscu pracy.

Podkreśliłem, że rozwój sztucznej inteligencji może doprowadzić do znacznej utraty miejsc pracy i zwiększenia nierówności.

Sam Altman

Rozporządzenie AI

Rozporządzenie AI
@Midjourney

W tym artykule omówiono potencjalne ryzyko i niebezpieczeństwa związane z AI i ChatGPT rozporządzenia w 2023 r. AI i ChatGPT Techniki mogą być wykorzystywane do wykonywania potencjalnie szkodliwych działań, takich jak profilowanie osób na podstawie ich zachowań i działań. Brak odpowiedniego Regulacja AI może prowadzić do niezamierzonych konsekwencji, takich jak naruszenie danych lub dyskryminacja. Regulacje dotyczące sztucznej inteligencji mogą pomóc ograniczyć to ryzyko poprzez ustanowienie rygorystycznych wytycznych, które to zapewnią ChatGPT systemy nie są wykorzystywane w złośliwy sposób. Wreszcie AI i ChatGPT może stać się czynnikiem kontrolującym nasze życie, kontrolującym przepływ ruchu i rynki finansowe, a nawet być wykorzystywanym do wpływania na nasze życie polityczne i społeczne. Aby zapobiec tego rodzaju nierównowadze mocy, należy wdrożyć surowe przepisy.

Zasugerowaliśmy utworzenie nowej agencji do licencjonowania i regulować AI działań, jeśli ich możliwości przekroczą określony próg.

Sam Altman

Standardy bezpieczeństwa

Standardy bezpieczeństwa
@Midjourney

Technologie sztucznej inteligencji i chatbotów powodują postęp w sposobie, w jaki zarządzamy naszym codziennym życiem. W miarę jak te technologie stają się coraz bardziej zaawansowane, mają potencjał, by stać się autonomicznymi i samodzielnie podejmować decyzje. Aby temu zapobiec, standardy bezpieczeństwa należy ustalić, które modele te muszą spełniać, zanim będą mogły zostać wdrożone. Jednym z głównych standardów bezpieczeństwa zaproponowanych przez Altmana w 2023 roku jest test samoreplikacji, który miałby zapewnić, że model AI nie będzie mógł się samoreplikować bez autoryzacji. Drugim standardem bezpieczeństwa zaproponowanym przez Altmana w 2023 r. jest test na eksfiltrację danych, który miałby zapewnić, że modele AI nie będą w stanie eksfiltrować danych z systemu bez autoryzacji. Rządy na całym świecie zaczęły działać w celu ochrony obywateli przed potencjalnymi zagrożeniami.

Musimy wdrożyć standardy bezpieczeństwa, które modele AI muszą spełniać przed wdrożeniem, w tym testy samoreplikacji i eksfiltracji danych.

Sam Altman

Niezależne audyty

Niezależne audyty
@Midjourney

W 2023 roku potrzeba niezależnych audytów technologii AI i LLM staje się coraz ważniejsza. Sztuczna inteligencja stwarza różne zagrożenia, takie jak nienadzorowane algorytmy uczenia maszynowego, które mogą zmieniać, a nawet usuwać dane mimowolnie, a cyberataki coraz częściej wymierzone są w sztuczną inteligencję i ChatGPT. Modele tworzone przez sztuczną inteligencję zawierają uprzedzenia, które mogą prowadzić do praktyk dyskryminacyjnych. Niezależny audyt powinien obejmować przegląd modeluje AI jest przeszkolony, projekt algorytmu i dane wyjściowe modelu, aby upewnić się, że nie wyświetla stronniczego kodowania ani wyników. Dodatkowo audyt powinien obejmować przegląd polityk bezpieczeństwa i procedur stosowanych do ochrony dane użytkownika i zapewnić bezpieczne środowisko.

Przeprowadzane są niezależne audyty, aby upewnić się, że modele AI spełniają ustalone standardy bezpieczeństwa.

Sam Altman

Bez niezależnego audytu firmy i użytkownicy są narażeni na potencjalnie niebezpieczny i kosztownych zagrożeń, których można było uniknąć. Bardzo ważne jest, aby wszystkie firmy korzystające z tej technologii przeszły niezależny audyt przed wdrożeniem, aby upewnić się, że technologia jest bezpieczna i etyczna.

AI jako narzędzie

AI jako narzędzie
@Midjourney

Sztuczna inteligencja rozwinęła się wykładniczo i postępy jak GPT-4 doprowadziły do ​​bardziej realistycznych i wyrafinowanych interakcji z komputerami. Altman podkreślił jednak, że sztuczną inteligencję należy postrzegać jako narzędzia, a nie czujące istoty. GPT-4 to model przetwarzania języka naturalnego, który może generować treści prawie nie do odróżnienia od treści pisanych przez człowieka, odbierając autorom część pracy i umożliwiając użytkownikom korzystanie z technologii w sposób bardziej ludzki.

AI, zwłaszcza zaawansowane modele, takie jak GPT-4powinny być postrzegane jako narzędzia, a nie czujące istoty.

Sam Altman

Jednak Sam Altman ostrzega, że ​​zbyt duży nacisk na sztuczną inteligencję jako coś więcej niż tylko narzędzie może prowadzić do nierealistycznych oczekiwań i fałszywych przekonań na temat jej możliwości. Wskazuje również, że sztuczna inteligencja nie jest pozbawiona implikacji etycznych i że nawet jeśli zaawansowane poziomy sztucznej inteligencji można wykorzystać w dobrym celu, nadal można ją wykorzystać w złych celach, prowadząc do niebezpiecznego profilowania rasowego, naruszenia prywatności, a nawet zagrożenia bezpieczeństwa. Altman podkreśla, jak ważne jest zrozumienie, że sztuczna inteligencja to tylko narzędzie i że powinno być postrzegane jako narzędzie przyspieszające postęp ludzkości, a nie zastępujące ludzi.

Świadomość AI

Świadomość AI
@Midjourney

Debata na temat sztucznej inteligencji i tego, czy może ona osiągnąć świadomą świadomość, narasta. Wielu badaczy twierdzi, że maszyny nie są w stanie doświadczać stanów emocjonalnych, umysłowych ani świadomych, pomimo ich złożonej architektury obliczeniowej. Niektórzy badacze akceptują możliwość osiągnięcia przez AI świadomości. Głównym argumentem przemawiającym za tą możliwością jest to, że sztuczna inteligencja jest zbudowana na programach, które ją umożliwiają replikowanie pewne procesy fizyczne i umysłowe występujące w ludzkim mózgu. Jednak głównym kontrargumentem jest to, że sztuczna inteligencja nie ma żadnej prawdziwej inteligencji emocjonalnej.

Chociaż sztuczna inteligencja powinna być postrzegana jako narzędzie, zdaję sobie sprawę z toczącej się w społeczności naukowej debaty na temat potencjalnej świadomości sztucznej inteligencji.

Sam Altman

Wielu badaczy sztucznej inteligencji zgadza się, że nie ma naukowych dowodów sugerujących, że sztuczna inteligencja jest w stanie osiągnąć świadomą świadomość w taki sam sposób, jak człowiek. Elon Musk, jeden z najgłośniejszych zwolenników tego punktu widzenia, uważa, że ​​zdolność sztucznej inteligencji do naśladowania biologicznych form życia jest bardzo ograniczona i należy położyć większy nacisk na uczenie maszyn wartości etycznych.

Aplikacje wojskowe

Aplikacje wojskowe
@Midjourney

Sztuczna inteligencja w kontekście wojskowym szybko się rozwija i może poprawić sposób, w jaki siły zbrojne prowadzą działania wojenne. Naukowcy obawiają się, że sztuczna inteligencja w wojsku może stwarzać szereg problemów etycznych i związanych z ryzykiem, takich jak nieprzewidywalność, nieobliczalność i brak przejrzystości.

Dostrzegam potencjał wykorzystania sztucznej inteligencji w zastosowaniach wojskowych, takich jak autonomiczne drony, i wzywam do tego przepisy do rządzenia takie użycie.

Sam Altman

Systemy sztucznej inteligencji są podatne na złośliwe ataki, które mogą przeprogramować systemy lub zinfiltrować systemy, co może prowadzić do katastrofalnych skutków. Aby rozwiązać te problemy dotyczy, społeczność międzynarodowa zrobiła pierwszy krok w postaci swojej Międzynarodowej konwencji o niektórych rodzajach broni konwencjonalnej z 1980 r., która wprowadza pewne zakazy używania niektórych rodzajów broni. Eksperci AI opowiadali się za utworzeniem międzynarodowego komitetu, który nadzorowałby takie procesy, jak ocena, szkolenie i wdrażanie sztucznej inteligencji w zastosowaniach wojskowych.

AGI

AGI
@Midjourney

Technologia sztucznej inteligencji staje się coraz bardziej zaawansowana i wszechobecna, dlatego ważne jest zrozumienie potencjalnych zagrożeń stwarzanych przez agentów i systemy sztucznej inteligencji. Pierwszym i najbardziej oczywistym ryzykiem związanym z agentami AI jest niebezpieczeństwo przechytrzenia ludzi przez maszyny. Agenci AI mogą z łatwością prześcignąć swoich twórców, przejmując podejmowanie decyzji, procesy automatyzacji i inne zaawansowane zadania. Ponadto automatyzacja oparta na sztucznej inteligencji może zwiększyć nierówności, ponieważ zastępuje ludzi w środowisku rynek pracy.

Ostrzegam, że potężniejsze i bardziej złożone systemy sztucznej inteligencji mogą być bliższe rzeczywistości, niż wielu sądzi, i podkreślam potrzebę gotowości i środków zapobiegawczych.

Sam Altman

Algorytmy sztucznej inteligencji i ich wykorzystanie w złożonym procesie decyzyjnym budzi obawy związane z brakiem przejrzystości. Organizacje mogą złagodzić ryzyko związanych z agentami sztucznej inteligencji poprzez aktywne zapewnianie, że sztuczna inteligencja jest rozwijana w sposób etyczny, wykorzystując dane zgodne z normami etycznymi oraz poddając algorytmy rutynowym testom, aby upewnić się, że nie są stronnicze i odpowiadają za użytkowników i dane.

Wnioski

Altman stwierdził również, że chociaż możemy nie być w stanie zarządzać Chinami, musimy z nimi negocjować. Proponowane kryteria oceny i regulujące modele AI obejmują zdolność do syntezy próbek biologicznych, manipulowanie przekonaniami ludzi, ilość zużytej mocy obliczeniowej i tak dalej.

Znaczącym tematem jest to, że Sam powinien mieć „związki” z państwem. Mamy nadzieję, że nie pójdą za przykładem Europy, o czym wspominaliśmy wcześniej.

Najczęściej zadawane pytania

Zagrożenia związane ze sztuczną inteligencją obejmują możliwość wykazywania przez systemy sztucznej inteligencji stronniczego lub dyskryminującego zachowania, złośliwego lub niewłaściwego wykorzystania lub nieprawidłowego działania w sposób wyrządzający szkody. Rozwój i wdrażanie technologii sztucznej inteligencji może stwarzać zagrożenie dla prywatności i bezpieczeństwa danych, a także dla bezpieczeństwa ludzi i systemów.

Pięć głównych zagrożeń związanych ze sztuczną inteligencją to: Utrata pracy, Zagrożenia bezpieczeństwa, Uprzedzenia lub dyskryminacja, Broń biologiczna i AGI.

Najbardziej niebezpiecznym aspektem sztucznej inteligencji jest jej potencjał do powodowania masowego bezrobocia.

Odpowiedzialność

Zgodnie z Zaufaj wytycznym projektu, należy pamiętać, że informacje zawarte na tej stronie nie mają na celu i nie powinny być interpretowane jako porady prawne, podatkowe, inwestycyjne, finansowe lub jakiekolwiek inne formy porad. Ważne jest, aby inwestować tylko tyle, na utratę czego możesz sobie pozwolić, a w przypadku jakichkolwiek wątpliwości zasięgnąć niezależnej porady finansowej. Aby uzyskać więcej informacji, sugerujemy zapoznać się z warunkami oraz stronami pomocy i wsparcia udostępnianymi przez wydawcę lub reklamodawcę. MetaversePost zobowiązuje się do sporządzania dokładnych i bezstronnych raportów, jednakże warunki rynkowe mogą ulec zmianie bez powiadomienia.

O autorze

Damir jest liderem zespołu, menedżerem produktu i redaktorem w Metaverse Post, obejmujący takie tematy, jak AI/ML, AGI, LLM, Metaverse i Web3-pokrewne pola. Jego artykuły przyciągają każdego miesiąca ogromną publiczność, liczącą ponad milion użytkowników. Wydaje się być ekspertem z 10-letnim doświadczeniem w SEO i marketingu cyfrowym. Damir został wspomniany w Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i inne publikacje. Jako cyfrowy koczownik podróżuje między ZEA, Turcją, Rosją i WNP. Damir uzyskał tytuł licencjata z fizyki, co jego zdaniem dało mu umiejętności krytycznego myślenia potrzebne do odniesienia sukcesu w ciągle zmieniającym się środowisku internetowym. 

Więcej artykułów
Damir Jałałow
Damir Jałałow

Damir jest liderem zespołu, menedżerem produktu i redaktorem w Metaverse Post, obejmujący takie tematy, jak AI/ML, AGI, LLM, Metaverse i Web3-pokrewne pola. Jego artykuły przyciągają każdego miesiąca ogromną publiczność, liczącą ponad milion użytkowników. Wydaje się być ekspertem z 10-letnim doświadczeniem w SEO i marketingu cyfrowym. Damir został wspomniany w Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i inne publikacje. Jako cyfrowy koczownik podróżuje między ZEA, Turcją, Rosją i WNP. Damir uzyskał tytuł licencjata z fizyki, co jego zdaniem dało mu umiejętności krytycznego myślenia potrzebne do odniesienia sukcesu w ciągle zmieniającym się środowisku internetowym. 

Hot Stories
Dołącz do naszego newslettera.
Najnowsze wieści

Apetyt instytucjonalny na ETFy Bitcoin rośnie w obliczu zmienności

Ujawnienia zawarte w zgłoszeniach 13F ujawniają, że znaczący inwestorzy instytucjonalni parają się funduszami ETF Bitcoin, co podkreśla rosnącą akceptację…

Dowiedz się więcej

Nadchodzi dzień wyroku: los CZ wisi na włosku, gdy amerykański sąd rozpatruje skargę Departamentu Sprawiedliwości

Changpeng Zhao stanie dziś przed amerykańskim sądem w Seattle wyrokiem skazującym.

Dowiedz się więcej
Dołącz do naszej innowacyjnej społeczności technologicznej
Czytaj więcej
Czytaj więcej
Morph przedstawia swoją sieć testową Holesky z optymistyczną integracją zkEVM, mechanizmem mostkowym i funkcjami zdecentralizowanej sieci sekwencera
Raport aktualności Technologia
Morph przedstawia swoją sieć testową Holesky z optymistyczną integracją zkEVM, mechanizmem mostkowym i funkcjami zdecentralizowanej sieci sekwencera
6 maja 2024 r.
Robinhood Crypto otrzymuje zawiadomienie Wells od Komisji Papierów Wartościowych i Giełd w związku z rzekomymi naruszeniami przepisów dotyczących papierów wartościowych
rynki Raport aktualności Technologia
Robinhood Crypto otrzymuje zawiadomienie Wells od Komisji Papierów Wartościowych i Giełd w związku z rzekomymi naruszeniami przepisów dotyczących papierów wartościowych
6 maja 2024 r.
QuickSwap wdraża się w sieci głównej X Layer i rozszerza sieć Polygon CDK wraz z uruchomieniem Citadel
Raport aktualności Technologia
QuickSwap wdraża się w sieci głównej X Layer i rozszerza sieć Polygon CDK wraz z uruchomieniem Citadel 
6 maja 2024 r.
Linia sieciowa warstwy 2 inicjuje żądanie tokenu ZERO firmy ZeroLend Airdrop Użytkownicy i inwestorzy
rynki Raport aktualności Technologia
Linia sieciowa warstwy 2 inicjuje żądanie tokenu ZERO firmy ZeroLend Airdrop Użytkownicy i inwestorzy
6 maja 2024 r.
CRYPTOMERIA LABS PTE. SP. Z O.O.