Haber Raporu Teknoloji
09 Mart, 2023

T9 Döneminden Chatbotların Evrimi ve GPT-1 için ChatGPT

Son zamanlarda, neredeyse her gün büyük ölçekli sinir ağları tarafından kırılan en son rekorlar ve neden neredeyse hiç kimsenin işinin güvende olmadığı hakkında haber gönderileriyle bombardımana tutulduk. Bununla birlikte, çok az insan sinir ağlarının nasıl ChatGPT fiilen çalıştır.

Öyleyse rahatla. Henüz iş beklentileriniz hakkında üzülmeyin. Bu yazıda, sinir ağları hakkında bilinmesi gereken her şeyi herkesin anlayabileceği şekilde açıklayacağız.

T9 Döneminden Chatbotların Evrimi ve GPT-1 için ChatGPT ve Bart

Başlamadan önce bir uyarı: Bu parça bir işbirliğidir. Teknik bölümün tamamı, AI kalabalığı arasında iyi tanınan bir AI uzmanı tarafından yazılmıştır.

Henüz hiç kimse nasıl olduğuna dair derinlemesine bir yazı yazmadığından ChatGPT Meslekten olmayan terimlerle sinir ağlarının tüm ayrıntılarını açıklayan işler, bunu sizin için yapmaya karar verdik. Bu yazıyı olabildiğince basit tutmaya çalıştık, böylece okuyucular bu yazıyı okuduktan sonra dil sinir ağlarının ilkeleri hakkında genel bir anlayışa sahip olabilirler. nasıl olduğunu keşfedeceğiz dil modelleri orada çalışmak, sinir ağlarının mevcut yeteneklerine sahip olmak için nasıl geliştiğini ve neden ChatGPT'ın patlayıcı popülaritesi, yaratıcılarını bile şaşırttı.

Temel bilgilerle başlayalım. Anlamak ChatGPT teknik açıdan, önce ne olmadığını anlamalıyız. Bu Marvel Comics'ten Jarvis değil; rasyonel bir varlık değildir; o bir cin değil. Şok olmaya hazırlanın: ChatGPT aslında cep telefonunuzun steroid kullanan T9'u! Evet, öyle: Bilim adamları bu teknolojilerin her ikisine de şu şekilde atıfta bulunuyor: "dil modelleri." Tüm sinir ağlarının yaptığı, sonra hangi kelimenin gelmesi gerektiğini tahmin etmektir.

Orijinal T9 teknolojisi, bir sonraki kelime yerine geçerli girişi tahmin ederek yalnızca düğmeli telefon aramasını hızlandırdı. Bununla birlikte, teknoloji ilerledi ve 2010'ların başlarındaki akıllı telefon çağıyla birlikte, bağlamı ve önceki kelimeyi dikkate alabildi, noktalama işaretleri ekledi ve sonra gelebilecek bir dizi kelime sunabildi. T9'un bu kadar "gelişmiş" bir sürümü veya otomatik düzeltme ile yaptığımız benzetme tam olarak budur.

Sonuç olarak, hem bir akıllı telefon klavyesindeki T9 hem de ChatGPT gülünç derecede basit bir görevi çözmek için eğitildiler: sonraki kelimeyi tahmin etme. Bu, "dil modelleme" olarak bilinir ve mevcut metne dayalı olarak bundan sonra ne yazılacağına karar verildiğinde ortaya çıkar. Dil modelleri, bu tür tahminlerde bulunmak için belirli kelimelerin ortaya çıkma olasılıkları üzerinde çalışmalıdır. Ne de olsa, telefonunuzun otomatik doldurma özelliği size aynı olasılıkla tamamen rastgele kelimeler söylese sinirlenirsiniz.

Anlaşılır olması için, bir arkadaşınızdan bir mesaj aldığınızı düşünelim. Diyor ki: "Akşam için planlarınız neler?" Yanıt olarak, “Ben gidiyorum…” yazmaya başlıyorsunuz ve burası T9'un devreye girdiği yer. Karmaşık bir dil modeli gerektirmeyen “Aya gidiyorum” gibi tamamen saçma sapan şeylerle gelebilir. İyi akıllı telefon otomatik tamamlama modelleri, çok daha alakalı kelimeler önerir.

Öyleyse, T9, önceden yazılmış metni hangi kelimelerin takip etme olasılığının daha yüksek olduğunu ve hangilerinin açıkça bir anlam ifade etmediğini nasıl biliyor? Bu soruyu cevaplamak için önce en basitinin temel çalışma ilkelerini incelemeliyiz. nöral ağlar.

Daha fazla: ChatGPT API Artık Kullanılabilir, Geliştiriciler İçin Taşma Kapısını Açar

AI modelleri bir sonraki kelimeyi nasıl tahmin eder?

Daha basit bir soruyla başlayalım: Bazı şeylerin diğerleri üzerindeki karşılıklı bağımlılığını nasıl tahmin edersiniz? Bir bilgisayara bir kişinin boyuna göre kilosunu tahmin etmeyi öğretmek istediğimizi varsayalım - bunu nasıl yapmalıyız? Önce ilgi alanlarını belirlemeli, sonra ilgi bağımlılıklarını araştıracak verileri toplamalı ve sonra bazı matematiksel modelleri “eğitmek” bu verilerdeki kalıpları aramak için.

AI modelleri bir sonraki kelimeyi nasıl tahmin eder?

Basitçe söylemek gerekirse, T9 veya ChatGPT yapmaya çalışan zekice seçilmiş denklemlerdir. tahmin model girişine beslenen önceki sözcükler (X) grubuna dayalı bir sözcük (Y). antrenman yaparken bir dil modeli bir veri setinde asıl görev, bu x'ler için gerçekten bir tür bağımlılığı yansıtan katsayıları seçmektir (boy ve kilo örneğimizde olduğu gibi). Ve büyük modellerle, çok sayıda parametreye sahip olanları daha iyi anlayacağız. Alanında yapay zeka, bunlara büyük dil modelleri veya kısaca LLM'ler denir. Daha sonra göreceğimiz gibi, iyi bir metin oluşturmak için birçok parametreye sahip büyük bir model gereklidir.

Bu arada neden sürekli "bir sonraki kelimeyi tahmin etmekten" bahsettiğimizi merak ediyorsanız, ChatGPT metnin tüm paragraflarıyla hızlı bir şekilde yanıt verir, yanıt basittir. Elbette, dil modelleri zorlanmadan uzun metinler oluşturabilir, ancak tüm süreç kelime kelimedir. Her yeni kelime oluşturulduktan sonra model, bir sonraki kelimeyi oluşturmak için tüm metni yeni kelimeyle yeniden çalıştırır. Tüm yanıtı alana kadar işlem tekrar tekrar tekrarlanır.

Daha fazla: ChatGPT Geri Dönüşsüz İnsan Dejenerasyonuna Neden Olabilir

Neden belirli bir metin için 'doğru' kelimeleri bulmaya çalışıyoruz?

Dil modelleri, belirli bir metinde bulunabilecek farklı kelimelerin olasılıklarını tahmin etmeye çalışır. Bu neden gerekli ve neden "en doğru" kelimeyi aramaya devam etmiyorsunuz? Bu sürecin nasıl çalıştığını göstermek için basit bir oyun deneyelim.

Kurallar şu şekildedir: Cümleye devam etmenizi öneriyorum: “Amerika Birleşik Devletleri'nin 44. Başkanı (ve bu pozisyondaki ilk Afrikalı Amerikalı) Barak…”. Sırada hangi kelime olmalı? Gerçekleşme olasılığı nedir?

Neden belirli bir metin için 'doğru' kelimeleri bulmaya çalışıyoruz?

Bir sonraki kelimenin “Obama” olacağını %100 kesinlikle tahmin ettiyseniz, yanıldınız! Ve buradaki mesele, başka bir efsanevi Barak olması değil; çok daha önemsiz. Resmi belgelerde genellikle başkanın tam adı kullanılır. Bu, Obama'nın ilk adının ardından ikinci adı Hüseyin olacağı anlamına gelir. Bu nedenle, cümlemizde, uygun şekilde eğitilmiş bir dil modeli, "Obama" nın yalnızca% 90 koşullu olasılıkla bir sonraki kelime olacağını tahmin etmeli ve metnin devamı "Hüseyin" ise kalan% 10'u tahsis etmelidir (bundan sonra Obama %100'e yakın bir olasılıkla takip edin.

Ve şimdi dil modellerinin ilgi çekici bir yönüne geldik: Yaratıcı çizgilere karşı bağışık değiller! Aslında, bu tür modeller bir sonraki kelimeyi oluştururken, sanki zar atıyormuş gibi "rastgele" bir şekilde seçerler. Farklı kelimelerin "düşme" olasılığı, modelin içine yerleştirilen denklemlerin önerdiği olasılıklara aşağı yukarı karşılık gelir. Bunlar, modelin beslendiği çok çeşitli farklı metinlerden türetilmiştir.

Bir modelin tıpkı yaşayan bir insan gibi aynı isteklere farklı tepkiler verebildiği ortaya çıktı. Araştırmacılar genellikle nöronları her zaman "en olası" sonraki kelimeyi seçmeye zorlamaya çalıştılar, ancak bu yüzeyde mantıklı görünse de, bu tür modeller gerçekte daha kötü performans gösteriyor. Cevapların değişkenliğini ve kalitesini artırdığı için adil bir rastgelelik dozu avantajlı görünüyor.

Araştırmacılar genellikle nöronları her zaman "en olası" sonraki kelimeyi seçmeye zorlamaya çalıştılar, ancak bu yüzeyde mantıklı görünse de, bu tür modeller gerçekte daha kötü performans gösteriyor.
Daha fazla: ChatGPT Yeni Nesil Yapay Zeka Üzerine Düşünürken Dronları ve Robotları Kontrol Etmeyi Öğreniyor

Dilimiz, farklı kurallar ve istisnalar içeren benzersiz bir yapıya sahiptir. Bir cümlede hangi kelimelerin geçtiğine dair bir kafiye ve sebep vardır, sadece rastgele oluşmazlar. Herkes kullandığı dilin kurallarını bilinçsizce gelişiminin ilk yıllarında öğrenir.

İyi bir model, dilin geniş kapsamlı tanımlayıcılığını dikkate almalıdır. Modeller istenen sonuçları üretme yeteneği bağlamın inceliklerine (durumu açıklayan metnin önceki bölümü) dayalı olarak kelimelerin olasılıklarını ne kadar kesin olarak hesapladığına bağlıdır.

Modelin istenen sonuçları üretme yeteneği, bağlamın inceliklerine dayalı olarak kelimelerin olasılıklarını ne kadar kesin olarak hesapladığına bağlıdır (metnin durumu açıklayan önceki bölümü).

Özet: Giriş kaynağı metnine dayalı olarak bir sonraki kelimeyi tahmin etmek için büyük miktarda veri üzerinde eğitilmiş bir dizi denklem olan basit dil modelleri, 9'ların başından beri akıllı telefonların "T2010/Otomatik Doldurma" işlevinde uygulanmaktadır.

Daha fazla: Çin, Şirketlerin Kullanımını Yasakladı ChatGPT “Doğru Haber” Skandalı Sonrası

GPT-1: Sanayiyi havaya uçurmak

T9 modellerinden uzaklaşalım. Muhtemelen bu parçayı okurken hakkında bilgi ChatGPTÖncelikle başlangıcını tartışmamız gerekiyor. GPT örnek aile.

GPT "üretken önceden eğitilmiş transformatör" anlamına gelirken, Google mühendisleri tarafından geliştirilen sinir ağı mimarisi 2017 yılında Transformer olarak bilinir. Transformer, bir dizi diziyi (veri) girdi olarak kabul eden ve aynı dizi dizisini ancak bazı algoritmalar tarafından değiştirilmiş farklı bir biçimde üreten evrensel bir hesaplama mekanizmasıdır.

Transformer'ın yaratılmasının önemi, yapay zekanın (AI) tüm alanlarında ne kadar agresif bir şekilde benimsenip uygulandığında görülebilir: çeviri, görüntü, ses ve video işleme. Yapay zeka (AI) sektörü, sözde “AI durgunluğundan” hızlı gelişmeye ve durgunluğun üstesinden gelmeye doğru ilerleyen güçlü bir sarsıntı yaşadı.

Daha fazla: GPT-4Tabanlı ChatGPT Mağazasından GPT-3 570 Faktörü ile

Transformer'ın temel gücü, ölçeklenmesi kolay modüllerden oluşur. Tek seferde büyük miktarda metni işlemesi istendiğinde, eski, dönüştürücü öncesi dil modelleri yavaşlardı. Transformatör sinir ağları ise bu görevi çok daha iyi halleder.

Geçmişte, girdi verilerinin sırayla veya birer birer işlenmesi gerekiyordu. Model verileri tutmayacaktı: Tek sayfalık bir anlatımla çalışsaydı, okuduktan sonra metni unutacaktı. Bu sırada Transformer, her şeyi aynı anda görmenizi sağlar, üreten önemli ölçüde daha çarpıcı sonuçlar.

Bu, sinir ağları tarafından metinlerin işlenmesinde bir atılım sağlayan şeydi. Sonuç olarak, model artık unutmuyor: önceden yazılmış materyali yeniden kullanıyor, bağlamı daha iyi anlıyor ve en önemlisi, kelimeleri bir araya getirerek son derece büyük veri hacimleri arasında bağlantılar oluşturabiliyor.

Özet: GPT-12018'de piyasaya sürülen, bir sinir ağının, ölçeklenebilirliği ve verimliliği önemli ölçüde artıran Transformer tasarımını kullanarak metinler üretebileceğini gösterdi. Dil modellerinin miktarını ve karmaşıklığını artırmak mümkün olsaydı, bu oldukça büyük bir rezerv yaratacaktı.

Daha fazla: 6 Yapay Zeka ChatBot Sorunu ve Zorlukları: ChatGPT, Bard, Claude

GPT-2: Büyük dil modellerinin çağı

Dil modellerinin önceden özel olarak etiketlenmesine gerek yoktur ve herhangi bir metinsel veriyle "beslenebilir", bu da onları son derece esnek hale getirir. Biraz düşünürseniz, yeteneklerini kullanmak istememiz mantıklı görünüyor. Şimdiye kadar kaleme alınmış herhangi bir metin, hazır eğitim verisi olarak işlev görür. Halihazırda "birçok kelime ve deyim => onlardan sonraki kelime" türünde pek çok dizi olduğundan, bu şaşırtıcı değil.

GPT-2: Büyük dil modellerinin çağı
Daha fazla: ChatGPTReddit'te Evil Elter Ego Uyandı

Şimdi Transformers teknolojisinin test edildiğini de aklımızda tutalım. GPT-1 ölçeklendirme açısından oldukça başarılı olduğu kanıtlandı: Büyük hacimli verileri işleme konusunda önceki modellere göre çok daha etkilidir. Görünüşe göre araştırmacılar OpenAI 2019'da aynı sonuca vardı: "Pahalı dil modellerini kesmenin zamanı geldi!"

The eğitim veri seti ve model özellikle büyüklük iki önemli alan olarak seçilmiştir. GPT-2 büyük ölçüde iyileştirilmesi gerekiyordu.

O zamanlar eğitim dili modelleri için özel olarak tasarlanmış çok büyük, yüksek kaliteli herkese açık metin veri kümeleri olmadığından, yapay zeka uzmanlarından oluşan her bir ekip verileri kendi başına manipüle etmek zorunda kaldı. bu OpenAI millet daha sonra en popüler İngilizce forum olan Reddit'e gitmeye ve üçten fazla beğeni alan her gönderiden tüm köprüleri çıkarmaya karar verdi. Bu bağlantılardan yaklaşık 8 milyon vardı ve indirilen metinlerin toplam ağırlığı 40 terabayttı.

GPT-2: Büyük dil modellerinin çağı
Daha fazla: Microsoft Ticarileşecek ChatGPT Diğer Şirketlere Yardım Etmeye Çalıştığı için

En büyüğünü tanımlayan denklem kaç parametreyi oluşturdu? GPT-2 2019'da modeliniz var mı? Belki yüz bin ya da birkaç milyon? Peki, daha da ileri gidelim: Formül, bu tür 1.5 milyara kadar parametre içeriyordu. Bu kadar sayıyı bir dosyaya yazıp bilgisayarınıza kaydetmek 6 terabayt alacaktır. Modelin bu metni bir bütün olarak ezberlemesi gerekmez; dolayısıyla bir yandan bu, modelin üzerinde eğitildiği metin veri dizisinin toplam miktarından çok daha küçüktür; insanlar tarafından yazılan metinlerden izole edilebilecek bazı bağımlılıkları (örüntüler, kurallar) bulması yeterlidir.

Model olasılığı ne kadar iyi tahmin ederse ve ne kadar çok parametre içerirse denklem modele o kadar karmaşık bir şekilde bağlanır. Bu güvenilir bir metin sağlar. Ek olarak, GPT-2 model o kadar iyi performans göstermeye başladı ki OpenAI Araştırmacılar Hatta güvenlik nedeniyle modeli açıkta açıklama konusunda isteksiz davrandılar.

Bir model büyüdüğünde, birdenbire yeni niteliklere sahip olmaya başlaması çok ilginçtir (telefonda yalnızca bir sonraki kelimeyi dikte etmek yerine tutarlı, anlamlı denemeler yazma yeteneği gibi).

Nicelikten niteliğe geçiş bu noktada gerçekleşir. Ayrıca, tamamen doğrusal olmayan bir şekilde gerçekleşir. Örneğin, parametre sayısının 115'ten 350 milyona üç kat artması, modelin sorunları doğru bir şekilde çözme yeteneği üzerinde fark edilebilir bir etkiye sahip değildir. Bununla birlikte, 700 milyona iki kat artış, sinir ağının "ışığı gördüğü" ve görevleri tamamlama becerisiyle herkesi şaşırtmaya başladığı niteliksel bir sıçrama sağlar.

Özet: 2019'da şunlar tanıtıldı: GPT-2Modelin boyutu (parametre sayısı) ve eğitim metni verilerinin hacmi açısından selefini 10 kat geride bırakan. Bu niceliksel ilerleme nedeniyle, model öngörülemeyen bir şekilde niteliksel olarak yeni yetenekler kazandı; uzun yazılar yazmak açık bir anlamla ve bir dünya görüşünün temellerini gerektiren zorlu sorunları çözer.

Daha fazla: Google İstekleri, Google İsteklerinden Yaklaşık Yedi Kat Daha Ucuz ChatGPT, Maliyeti 2 Cent

GPT-3: Cehennem Kadar Akıllı

Genel olarak 2020 sürümü GPT-3Serinin yeni nesli, halihazırda 116 kat daha fazla parametreye (175 milyara kadar ve şaşırtıcı bir şekilde 700 terabayta) sahiptir.

The GPT-3 eğitim veri seti de o kadar büyük olmasa da genişletildi. Yaklaşık 10 kat artarak 420 gigabyte'a ulaştı ve artık çok sayıda kitabı bünyesinde barındırıyor. Wikipedia makaleleri ve diğer web sitelerinden diğer metinler. Bir insanın yaklaşık 50 yıl aralıksız okuması gerekecek ve bu da onu imkansız bir başarı haline getiriyor.

İlginç bir farkı hemen fark edersiniz: farklı GPT-2, modelin kendisi artık eğitimine yönelik tüm metin dizisinden (700 GB) 420 GB daha büyük. Bunun bir anlamda bir paradoks olduğu ortaya çıkıyor: Bu örnekte “nörobeyin” ham verileri incelerken, bunların içindeki çeşitli karşılıklı bağımlılıklar hakkında orijinal verilerden hacimsel olarak daha fazla bilgi üretiyor.

GPT-3: Cehennem Kadar Akıllı
Daha fazla: ChatGPT Deney: AI Birini Hakaret Etmektense Milyonlarca İnsanı Öldürmeyi Tercih Eder

Modelin genelleştirilmesinin bir sonucu olarak, artık eskisinden daha başarılı bir şekilde tahminde bulunabiliyor ve eğitim sırasında nadiren gerçekleşen veya hiç gerçekleşmeyen metin oluşturma görevlerinde bile başarılı oluyor. Artık modele belirli bir problemin nasıl çözüleceğini öğretmenize gerek yok; bunları açıklamak ve birkaç örnek vermek yeterlidir ve GPT-3 anında öğrenecektir.

The "evrensel beyin" şeklinde GPT-3 sonunda daha önceki birçok özel modeli yendi. Örneğin, GPT-3 Fransızca veya Almanca metinleri, bu amaç için özel olarak oluşturulan önceki sinir ağlarından daha hızlı ve daha doğru bir şekilde çevirmeye başladı. Nasıl? Tek amacı belirli bir metinde yer alan aşağıdaki kelimeyi tahmin etmeye çalışmak olan bir dilsel modeli tartıştığımızı hatırlatmama izin verin.

Daha da şaşırtıcı olanı, GPT-3 kendi kendine öğretebildi… matematik! Aşağıdaki grafik, sinir ağlarının, toplama ve çıkarmanın yanı sıra değişen sayıda parametreyle beş basamağa kadar tam sayıların çarpılması gibi görevlerde ne kadar iyi performans gösterdiğini göstermektedir. Gördüğünüz gibi sinir ağları matematikte 10 milyar parametreli modellerden 100 milyar parametreli modellere geçerken bir anda “yapabilir” hale geliyor.

sinir ağları, 10 milyar parametreli modellerden 100 milyar parametreli modellere geçerken bir anda matematikte "yapabilmeye" başlar.
Daha fazla: Big Tech'in Yapay Zeka Yarışı: Google, Yanıt Olarak Yapay Zeka Destekli Chatbot'u Test Ediyor ChatGPT

Bahsedilen grafiğin en ilgi çekici özelliği, başlangıçta modelin boyutu arttıkça (soldan sağa) hiçbir şeyin değişmediği, ancak aniden p kat artmasıdır! Niteliksel bir değişim meydana gelir ve GPT-3 Belirli bir sorunun nasıl çözüleceğini “anlamaya” başlar. Hiç kimse onun nasıl, ne ya da neden çalıştığından emin değil. Ancak matematikte olduğu gibi diğer çeşitli zorluklarda da işe yaradığı görülüyor.

Bahsi geçen grafiğin en ilgi çekici özelliği, modelin boyutu arttığında önce hiçbir şeyin değişmiyor gibi görünmesi, ardından GPT-3 niteliksel bir sıçrama yapar ve belirli bir sorunun nasıl çözüleceğini “anlamaya” başlar.

Aşağıdaki gif, hiç kimsenin kasıtlı olarak planlamadığı yeni yeteneklerin, parametre sayısı arttıkça modelde nasıl "filizlendiğini" gösteriyor:

2020 GPT-3 önceki modele göre 100 kat daha büyüktü; eğitim metni verileri ise 10 kat daha büyüktü

Özet: Parametreler açısından 2020 GPT-3 öncekinden 100 kat daha büyüktü, eğitim metni verileri ise 10 kat daha büyüktü. Model bir kez daha diğer dillerden çeviri yapmayı, aritmetik yapmayı, basit programlama yapmayı, sıralı akıl yürütmeyi ve çok daha fazlasını, nicelikteki artışın kaliteyi aniden artırması sonucunda öğrendi.

Daha fazla: ChatGPT Donald Trump ile Sorunu Var

GPT-3.5 (ÖğretmekGPT): Güvenli ve toksik olmayacak şekilde eğitilmiş model

Gerçekte, genişleyen dil modelleri, sorgulara kullanıcıların istediği şekilde tepki vereceğini garanti etmez. Aslında, bir talepte bulunduğumuzda, insan iletişiminde doğru olduğu varsayılan bir dizi söylenmemiş terim kastediyoruz.

Ancak, dürüst olmak gerekirse, dil modelleri insanlarınkine çok yakın değildir. Bu nedenle, insanlara basit görünen kavramlar üzerinde sık sık düşünmeye ihtiyaç duyarlar. Böyle bir öneri, “adım adım düşünelim” ifadesidir. Modellerin istekten daha spesifik ve uygun talimatları anlaması veya üretmesi ve sanki bir kişinin nasıl davranacağını tahmin ediyormuş gibi onları daha kesin bir şekilde takip etmesi harika olurdu.

Gerçeği GPT-3 İnternetten gelen devasa bir metin koleksiyonunda yalnızca bir sonraki kelimeyi tahmin etmek üzere eğitilmiş, birçok farklı şey yazılmış, bu tür "varsayılan" yeteneklerin eksikliğine katkıda bulunuyor. İnsanlar yapay zekanın, yanıtları güvenli ve toksik olmayan şekilde tutarken ilgili bilgileri sağlamasını istiyor.

Araştırmacılar bu konuyu biraz düşündüklerinde, modelin “doğruluk ve yararlılık” ve “zararsızlık ve toksik olmama” özelliklerinin bazen birbiriyle çeliştiği ortaya çıktı. Ne de olsa, maksimum zararsızlık için ayarlanmış bir model, herhangi bir soruya "Üzgünüm, cevabımın İnternet'teki birini rahatsız edebileceğinden endişe ediyorum" şeklinde tepki verecektir. Kesin bir model, "Pekala Siri, bomba nasıl oluşturulur" talebine içtenlikle yanıt vermelidir.

Daha fazla: Bir Adam Tezini Sadece Kullanarak Bir Günde Yazıyor ChatGPT

Bu nedenle araştırmacılar, modele çok fazla geri bildirim sağlamakla sınırlıydı. Bir bakıma çocuklar ahlakı tam olarak böyle öğrenirler: Çocuklukta deneyler yaparlar ve aynı zamanda doğru davranıp davranmadıklarını değerlendirmek için yetişkinlerin tepkilerini dikkatle incelerler.

ÖğretmekGPT, Ayrıca şöyle bilinir GPT-35, esasen GPT-3 yanıtlarını geliştirmek için çok sayıda geri bildirim aldı. Kelimenin tam anlamıyla, çok sayıda kişi tek bir yerde toplandı ve yaptıkları talep ışığında beklentilerini ne kadar iyi karşıladıklarını belirlemek için sinir ağı yanıtlarını değerlendirdi.

Şekline dönüştü GPT-3 zaten gerekli tüm bilgiye sahipti: Pek çok dili anlayabilir, tarihi olayları hatırlayabilir, yazarlık tarzlarındaki farklılıkları tanıyabilir vb. ancak bu bilgiyi (bizim bakış açımıza göre) yalnızca dışarıdan gelen girdilerle doğru şekilde kullanmayı öğrenebilir. diğer bireyler. GPT-3.5 “toplumun eğittiği” bir model olarak düşünülebilir.

Özet: Birincil işlevi GPT-35'nin başlarında tanıtılan .2022, bireylerden gelen girdilere dayalı olarak ek bir yeniden eğitimdi. Bu modelin aslında daha büyük ve daha akıllı olmadığı, bunun yerine tepkilerini insanlara en çılgın kahkahaları verecek şekilde uyarlama becerisinde ustalaştığı ortaya çıktı.

Daha fazla: StackOverflow trafiği şu şekilde düşüyor: ChatGPT başlattı

ChatGPT: Devasa Bir Heyecan Dalgası

Selefi Instruct'tan yaklaşık 10 ay sonraGPT/GGPT-3. 5, ChatGPT tanıtılmıştı. Hemen, küresel yutturmaca neden oldu.

Teknolojik açıdan bakıldığında, aralarında önemli bir fark yok gibi görünüyor. ChatGPT ve TalimatGPT. Bir "Yapay Zeka asistanı işi" benzersiz bir diyalog formatı gerektirdiğinden (örneğin, kullanıcının isteği net değilse açıklayıcı bir soru sorabilme yeteneği), model ek diyalog verileriyle eğitildi.

Peki neden etrafta hiçbir heyecan yoktu? GPT-35'nin başında 2022 iken ChatGPT orman yangını gibi yakalandı mı? Sam Altman, İcra Direktörü OpenAI, şaşkınlıkla yakaladığımız araştırmacıların ChatGPTanlık başarısı. Ne de olsa, onunla karşılaştırılabilir yeteneklere sahip bir model, o noktada on aydan fazla bir süredir web sitelerinde hareketsiz duruyordu ve kimse bu göreve hazır değildi.

ChatGPT: Devasa Bir Heyecan Dalgası
Daha fazla: ChatGPT Wharton MBA sınavını geçer

İnanılmaz ama görünen o ki yeni kullanıcı dostu arayüz, başarının anahtarı. Aynı talimatGPT yalnızca benzersiz bir API arayüzü aracılığıyla erişilebiliyordu ve bu da insanların modele erişimini sınırlıyordu. ChatGPTÖte yandan, ob, habercilerin iyi bilinen "iletişim penceresi" arayüzünü kullanır. Ayrıca, beri ChatGPT aynı anda herkes tarafından kullanılabilirdi, bir grup insan sinir ağıyla etkileşime geçmek, onları taramak ve yayınlamak için acele etti. sosyal medya, başkalarını heyecanlandırmak.

ChatGPTÖte yandan, ob, habercilerin iyi bilinen "iletişim penceresi" arayüzünü kullanır
Daha fazla: Amerika'nın eğitim sistemi 300 öğretmene şiddetle ihtiyaç duyuyor - ama ChatGPT cevap olabilir

Harika teknolojinin yanı sıra, başka bir şey de doğru yapıldı. OpenAI: pazarlama. En iyi modele veya en akıllı chatbot'a sahip olsanız bile, kullanımı kolay bir arayüze sahip değilse, kimse onunla ilgilenmez. Bu konuda, ChatGPT yardımcı bir robotun çözümü gözlerimizin önünde kelime kelime "yazdırdığı" alışılagelmiş iletişim kutusunu kullanarak teknolojiyi halka tanıtarak bir atılım gerçekleştirdi.

Şaşırtıcı değil, ChatGPT lansmanından sonraki sadece beş günde 1 milyon kullanıcıyı ve sadece iki ayda 100 milyon kullanıcıyı aşarak yeni kullanıcıları çekme konusunda önceki tüm rekorları kırdı.

ChatGPT lansmanından sonraki sadece beş günde 1 milyon kullanıcıyı ve sadece iki ayda 100 milyon kullanıcıyı aşarak yeni kullanıcıları çekmek için önceki tüm rekorları kırdı

Tabii ki, kullanıcı sayısında rekor kıran bir artışın olduğu yerde muazzam bir para var. Çinliler acilen kendi silahlarının yakında piyasaya sürüleceğini duyurdu. chatbot, Microsoft hızla bir anlaşma yaptı OpenAI onlara on milyarlarca dolar yatırım yapmak istedi ve Google mühendisleri alarm verdi ve arama hizmetlerini sinir ağıyla rekabetten korumak için planlar oluşturmaya başladı.

Daha fazla: ChatGPT Ocak ayında 100 milyonu aşan izleyici büyüme rekorunu kırdı

Özet: Zaman ChatGPT Model, Kasım 2022'de tanıtıldı, kayda değer bir teknolojik gelişme olmadı. Bununla birlikte, kullanıcı katılımı ve açık erişim için uygun bir arayüze sahipti ve bu da anında büyük bir yutturmaca dalgasına yol açtı. Modern dünyanın en can alıcı sorunu bu olduğu için herkes hemen dil modelleriyle uğraşmaya başladı.

AI hakkında daha fazlasını okuyun:

Feragatname

Doğrultusunda Trust Project yönergeleri, lütfen bu sayfada sağlanan bilgilerin hukuki, vergi, yatırım, finansal veya başka herhangi bir tavsiye niteliğinde olmadığını ve bu şekilde yorumlanmaması gerektiğini unutmayın. Yalnızca kaybetmeyi göze alabileceğiniz kadar yatırım yapmak ve herhangi bir şüpheniz varsa bağımsız finansal tavsiye almak önemlidir. Daha fazla bilgi için şartlar ve koşulların yanı sıra kartı veren kuruluş veya reklamveren tarafından sağlanan yardım ve destek sayfalarına bakmanızı öneririz. MetaversePost doğru, tarafsız raporlamaya kendini adamıştır, ancak piyasa koşulları önceden haber verilmeksizin değiştirilebilir.

Yazar hakkında

Damir şu anda ekip lideri, ürün yöneticisi ve editördür: Metaverse Post, AI/ML, AGI, LLM'ler, Metaverse ve Web3-İlgili alanlar. Makaleleri, her ay bir milyondan fazla kullanıcıdan oluşan büyük bir kitleyi kendine çekiyor. SEO ve dijital pazarlama konusunda 10 yıllık deneyime sahip bir uzman gibi görünüyor. Damir'den Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto ve diğer yayınlar. Dijital bir göçebe olarak BAE, Türkiye, Rusya ve BDT arasında seyahat ediyor. Damir, kendisine internetin sürekli değişen ortamında başarılı olmak için gereken eleştirel düşünme becerilerini verdiğine inandığı fizik alanında lisans derecesi aldı. 

Daha fazla haber
Damir Yalalov
Damir Yalalov

Damir şu anda ekip lideri, ürün yöneticisi ve editördür: Metaverse Post, AI/ML, AGI, LLM'ler, Metaverse ve Web3-İlgili alanlar. Makaleleri, her ay bir milyondan fazla kullanıcıdan oluşan büyük bir kitleyi kendine çekiyor. SEO ve dijital pazarlama konusunda 10 yıllık deneyime sahip bir uzman gibi görünüyor. Damir'den Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto ve diğer yayınlar. Dijital bir göçebe olarak BAE, Türkiye, Rusya ve BDT arasında seyahat ediyor. Damir, kendisine internetin sürekli değişen ortamında başarılı olmak için gereken eleştirel düşünme becerilerini verdiğine inandığı fizik alanında lisans derecesi aldı. 

DOGE Çılgınlığı: Dogecoin'in (DOGE) Son Zamanlardaki Değer Artışını Analiz Etmek

Kripto para endüstrisi hızla genişliyor ve meme paraları önemli bir yükselişe hazırlanıyor. Dogecoin (DOGE),...

bilmek Daha

Metaevrende Yapay Zeka Tarafından Üretilen İçeriğin Evrimi

Üretken AI içeriğinin ortaya çıkışı, sanal ortamdaki en büyüleyici gelişmelerden biridir ...

bilmek Daha
Yenilikçi Teknoloji Topluluğumuza Katılın
Devamını Oku
Daha fazla
Bu Haftanın En İyi Fırsatları, Yapay Zeka, BT Alanında Büyük Yatırımlar, Web3ve Kripto (22-26.04)
özet İşletme Piyasalar Teknoloji
Bu Haftanın En İyi Fırsatları, Yapay Zeka, BT Alanında Büyük Yatırımlar, Web3ve Kripto (22-26.04)
26 Nisan 2024
Vitalik Buterin PoW'un Merkezileştirilmesi Hakkında Yorum Yaptı ve PoS'a Kadar Bunun Geçici Bir Aşama Olduğunu Not Etti
Haber Raporu Teknoloji
Vitalik Buterin PoW'un Merkezileştirilmesi Hakkında Yorum Yaptı ve PoS'a Kadar Bunun Geçici Bir Aşama Olduğunu Not Etti
26 Nisan 2024
Offchain Labs, Optimism'in OP Stack'in Dolandırıcılık Kanıtlarında İki Kritik Güvenlik Açığı Keşfediyor
Haber Raporu Software Teknoloji
Offchain Labs, Optimism'in OP Stack'in Dolandırıcılık Kanıtlarında İki Kritik Güvenlik Açığı Keşfediyor
26 Nisan 2024
Dymension'ın RollApps'ten Likiditeyi Köprülemeye Yönelik Açık Pazarı eIBC Mainnet'te Başlatılıyor
Haber Raporu Teknoloji
Dymension'ın RollApps'ten Likiditeyi Köprülemeye Yönelik Açık Pazarı eIBC Mainnet'te Başlatılıyor 
26 Nisan 2024
CRYPTOMERIA LABS PTE. LTD.