X

Lütfen Ülke (Bölge) Seçiniz

Türkiye (Türkçe)Türkiye (Türkçe) Worldwide (English)Worldwide (English)
X
X

Lütfen Ülke (Bölge) Seçiniz

Türkiye (Türkçe)Türkiye (Türkçe) Worldwide (English)Worldwide (English)
X

Claude AI: ChatGPT'nin Yeni Rakibi

AnasayfaYazılarTeknolojiClaude AI: ChatGPT'nin Yeni Rakibi

Yapay zeka alanında aktifseniz, Claude ismi muhtemelen şimdiye kadar dikkatinizi çekmiştir. Anthropic'in yapay zeka destekli en yeni sohbet robotu.

İlk OpenAI çalışanları tarafından kurulan Claude, ChatGPT (OpenAI'nin lider ürünü) ile kafa kafaya rekabet ediyor; Google'ın şirkete yaptığı son 2 milyar dolarlık yatırımla birlikte kızışan bir rekabet .

Sahneye çıkan çoğu büyük dil modelinde olduğu gibi, şu anda Claude'un etrafında çok fazla söylenti var ve haklı olarak da öyle. Peki GPT, Bard veya LLaMa gibi diğer önde gelen Dil Modelleriyle karşılaştırıldığında nasıl bir performans sergiliyor?

Bugün ortaya çıkarmayı hedeflediğimiz şey budur. Claude'un teknolojisini araştırıyoruz ve mimarisini ve yeterliliklerini tartışıyoruz. Kendi kendini denetleyen öğrenme yaklaşımından etik çerçevesine kadar size tarafsız bir değerlendirme sunuyoruz. Bakalım bu tantana haklı mı?

Temel bilgiler: Anthropic'in tescilli Anayasal Yapay Zekası

Claude Anayasal Yapay Zeka yaklaşımıyla çalışıyor; bu da onun salt veri çıktısının ötesine geçecek şekilde tasarlandığı anlamına geliyor. Yaratıcılarına göre model, etik bütünlüğü, yardımseverliği ve özellikle zararsızlığı hedefleyen bir dizi ilkeye bağlı kalıyor.

Claude'un mimarisinin başlangıçtan itibaren etik olacak şekilde inşa edildiği iddia edilse de , bu iddiaları eleştirel bir şekilde değerlendirmek için bazı sivri uçlu sorular sormaya değer. Örneğin, Claude'un eğitim verilerinin ne ölçüde şeffaf olduğu veya Batılı olmayan bakış açılarını içerdiği belirsizdir. Bildiğimiz tek şey eğitimin şunları içerdiğidir:

  • İnsan eğitmenlerinden tutarlı geri bildirim
  • Claude'un davranışının modellendiği değerler ve kurallar 
  • Cevaplar üretirken yardımseverliğe, dürüstlüğe ve zararsızlığa öncelik vermek

Ek olarak, önyargıyı ve yanlış bilgiyi azaltmak için kullanılan yöntemler henüz tam olarak açıklanmamıştır. Dolayısıyla Claude, yerleşik etik uyumu savunarak kendisini farklılaştırırken, jüri bu alanda rakiplerini gerçekten geçip geçmediği konusunda hâlâ kararsız. Bu nedenle, Anthropic, Claude'un eğitimine ilişkin daha ayrıntılı bir genel bakışı kamuoyuna açıklamaya karar verene kadar bir miktar şüpheci olunabilir.

Claude'un beyni: kendi kendini denetleyen öğrenme ve dönüştürücü modeller

Teknik temellere gelince, kendi kendini denetleyen öğrenme, Claude'un bilişsel yeteneklerinin merkezinde yer alıyor. Bu teknikle model, eğitim için özel olarak etiketlenmemiş veya etiketlenmemiş verilerden öğrenir. Sonuç olarak Claude, rehberliğe ihtiyaç duymadan 'sağduyulu bilgileri' kavrayabiliyor. 

Ancak, özellikle bu kadar geniş bir veri hazinesini elemek bir bilmeceyi ortaya çıkarıyor: "Zehirli" eğitim verilerinin tuzağından nasıl kurtulur? Özellikle yapay zeka tarafından oluşturulan içeriğin çoğalması göz önüne alındığında, Claude'un yanlışlıkla şüpheli materyalleri toplaması riski meşru bir endişe kaynağıdır. Kişisel olarak Claude'un birçok kez kendinden emin bir şekilde yanlış bilgi verdiğini, ancak bu yalanlarla karşılaştığımda sonsuz bir özür döngüsüne girdiğini gördüm. 

Anthropic'e göre Claude, etik ve operasyonel etkinliği sürdürmek için sürekli olarak ince ayar yapılan bir dizi yol gösterici ilke altında faaliyet gösteriyor. Tam liste, BM İnsan Hakları Bildirgesi , yapay zeka araştırma laboratuvarları ve hatta Apple'ın hizmet koşulları gibi küresel platform yönergeleri gibi  güvenilir kaynakların bir karışımından alınmıştır .

Ancak bu Yüksek Lisans'ı çevreleyen ayrıntıların çoğunda olduğu gibi Anthropic, Claude'un yukarıda belirtilen ilkelere uymasını nasıl sağladığı konusunda belirsiz davrandı.  

Transformatör tabanlı dil modelleri

Doğal dil yetenekleriyle ilgili olarak Claude, Odaklanmış Transformatör adı verilen bir sinir ağı mimarisini tercih ediyor . Sıralı işleme görevlerinde üstündür ve bağlamsal nüansları yakalamak için dikkat mekanizmaları ve çok başlı öz dikkat katmanları olarak adlandırılan algoritmaları kullanır. Bunlar, zamanla tam olarak şunu anlayacak şekilde eğitilen bilgisayar programlarıdır: bir metin dizisinin hangi kelimelerinin veya bölümlerinin önemli olduğu (veya neye dikkat edilmesi gerektiği).

Siri veya Google Assistant'ta kullanılanlar gibi daha eski tekrarlayan sinir ağı modelleriyle karşılaştırıldığında Transformer, verimlilik ve bağlamsal anlayış açısından bir adım öndedir. Bu, istem eksik olsa veya belirsiz bir şekilde hazırlanmış olsa bile Claude'un girdi fikrini kavramasına olanak tanır. 

Belirsizlik modellemesi: doğruluk için hesaplanmış bir yaklaşım

Claude'un mimarisi aynı zamanda belirsizlik modellemesine de sahiptir . Bununla birlikte, Claude belirli yanıtları uyarıcı tavsiyelerle işaretleme yeteneğine sahiptir. Bu yetenek özellikle karmaşık, yüksek riskli karar alma senaryolarında kullanışlıdır. Öne çıkan iki kullanım durumu finansal modelleme ve tıbbi tavsiyedir. 

Örneğin belirli bir seçeneğin likidite veya kullanım fiyatı sorulduğunda Claude yalnızca genel bir yanıt vermekle kalmıyordu; bunun yerine model, kullanıcıyı dikkatli davranması ve devam etmeden önce opsiyon ticareti konusunda kendilerini eğitmesi konusunda uyarabilir .

Bu ne kadar etkileyici olsa da Claude'un burada çığır açıcı bir şey yapması gerekmiyor. ChatGPT ve Bard'ın ikisi de bunu yapabilir. Ancak Claude'un nereye gittiğine ve etik açıdan nerede durduğuna daha fazla ışık tutuyor.

Bu, özellikle kendi kendine teşhis koymak için LLM'leri kullanan kullanıcıların sayısı göz önüne alındığında çok önemli olan sorumluluk amaçları açısından ilgi çekicidir. Teşhis basit, anlaşılır veya yaşamı tehdit edici nitelikte olmasa bile Claude konuşmayı kesecek ve kullanıcıyı bir tıp uzmanına yönlendirecektir. 

Claude ve diğer LLM'lerin bu hassas konulara yönelik potansiyeli ilgi çekici olsa da, özellikle Claude, neden yapay zeka araştırmacılarının ve makine öğrenimi uzmanlarının, modellerini manipülasyona karşı dayanıklı ve etiğe öncelik veren bir yaklaşıma dayalı hale getirmeye odaklanmaları gerektiğini gösteriyor. 

Claude olağan şüphelilere karşı: GPT, Bard ve LLaMa

Tamam, Claude hakkında şiirsel bir yaklaşım sergiledik ama dil modeli dünyasındaki (GPT, Bard ve LLaMa) kim kimdir sorusuna karşı nasıl ayakta durabilir? Claude'u diğerlerinden ayıran temel farkları inceleyelim.

GPT

GPT modelleri güçlü olmasına rağmen %100 güvenilir olmayabilecek yanıtlar üretme eğilimindedir. Bilginin doğruluğundan ziyade tutarlılık ve akıcılığa yöneliktirler .

Ayrıca GPT-4'ün, en iyi ihtimalle şüpheli sonuçlarla, Eylül 2021'deki bilgi sonlandırma tarihinin ötesine geçme eğiliminde olduğunu da fark ettim. Ancak artık yerleşik DALL-E 3 , Gelişmiş Veri Analizi ve Bing destekli tarama gibi ekstra özellikler söz konusu olduğunda OpenAI hâlâ rekabette öne çıkıyor. 

Ozan

Bard, adından da anlaşılacağı gibi anlatı yaratma konusunda yeteneklidir. Tutarlı ve ilgi çekici hikayeler dokurken inatçı bir kimlik sunma konusunda başarılıdır ancak gerçeklere dayalı doğruluğa odaklanması gerekmez. Claude ise tam tersine, gerçekleri ön planda tutacak şekilde tasarlanmıştır. 

Kurmaca dalında Pulitzer ödülü kazanmayabilir ama Bard, bilgi ekibinizde isteyeceğiniz modeldir. Google'ın arama motoruyla harika çalışır ve muhtemelen günlük işler için en iyisidir. 

Bununla birlikte, benim tecrübelerime göre, halüsinasyonlara en çok eğilimli olan Yüksek Lisans'tır, bunun temel nedeni de çöp girme, çöp çıkarma konseptidir. Kaç tane Google arama sonucunun şüpheli kalitede olduğunu düşünün; Bard'ın neden Büyük Dörtlü arasında en az hassas görünen kişi olduğunu anlayacaksınız. 

Lama 2

Llama 2 veya LLaMa, daha kesin bir ifadeyle, Facebook'un ana şirketi Meta tarafından geliştirilen ve sürdürülen açık kaynaklı bir LLM'dir. Buluta bağlı kuzenlerinin aksine, çevrimdışı çalışacak şekilde tasarlanmıştır. Bu, tüm verilerinizin cihazınızda kalacağı anlamına gelir; bu da LLaMa'nın Claude veya GPT'den daha güvenli olmasını sağlar. 

LLaMa, bir sorunun veya ifadenin sunulduğu bağlamı anlama konusunda üstündür ve daha ayrıntılı ve alakalı yanıtlar vermesine olanak tanır. Bir bilginin güvenilmez olması durumunda sizi doğrudan uyaracak bir özelliği olmasa da, başka bir önemli nedenden dolayı öne çıkıyor: kendi kendini barındırma.

OpenAI donanımı üzerinde çalışan ChatGPT'nin aksine, kendi kendine barındırma, modeli yerel olarak çalıştırmak için kendi donanımınızı kullanmanıza olanak tanır . Daha az parametreye sahip modeller genellikle kişisel bilgisayarlarda çalışabilir, ancak güçlü bir GPU'ya (ideal olarak Nvidia 30 veya 40 serisi) ihtiyacınız olabilir. Hem parametreler hem de içerik penceresi arttıkça ev sunucusuna olan ihtiyaç da artar. 

Açık kaynak olduğundan LLaMa size onu kapsamlı bir şekilde özelleştirme özgürlüğü sağlar. Bu, onu özel gereksinimlerinize uyacak şekilde uyarlayabileceğiniz anlamına gelir. Üstelik onlarca model mevcut olduğundan ihtiyaçlarınıza en uygun olanı seçebilirsiniz.

Peki, bu neden kendi kendine barındırma açısından iyidir? Açık kaynaklı yazılım ve çok sayıda varyasyon, son derece uyarlanabilir ve özelleştirilebilir bir çözüme dönüşür. Gizliliğe ve sohbet robotunuz üzerinde kontrole değer veriyorsanız, LLaMa, işlevsellikten ödün vermeden tüm verilerinizi kendi donanımınızda tutmanıza olanak tanır. Bu, onu kendi kendine barındırılan bir sohbet robotu için mükemmel bir seçim haline getirir.

LLaMa'nın kesinlikle bazı çekici özellikleri olsa da, henüz Claude'un belirsizlik modellemesiyle rekabet edemiyor. Yani şimdilik, bir şeyler yolunda gitmediğinde uyarı almak istiyorsanız Claude sağlam bir seçimdir. Bunun, analitikten modaya ve aradaki her şeye kadar çeşitli sektörlerde geniş kapsamlı avantajları vardır .

Etik standartlar: bir adım daha yukarıda

Claude, şüpheli bir işin suç ortağı olmadığından ve duruşunun her zaman etik olduğundan emin olmak için risk değerlendirmesini algoritmalarına entegre eder. Bu, Claude'un hapishaneden kaçmaya daha az eğilimli olmasını sağlıyor ki bu, Anthropic'in kendi CEO'sunun bunun bir ölüm kalım meselesi olduğuna inandığı göz önüne alındığında mantıklıdır .

Dolayısıyla GPT, Bard ve LLaMa'nın her biri kendi benzersiz yeteneklerini masaya koyarken, Claude en kapsamlı deneyimi sunan, doğru, etik ve gelecek için tasarlanmış olanıdır. Yapay zeka gelişmeye ve IQ'sunu güçlendirmeye devam ettikçe , bu nitelikler inanılmaz derecede önemlidir.

Claude'un gelecekteki uygulamaları: kelimelerden daha fazlası

Claude'un Anayasal Yapay Zekası etik ve güvenilir yanıtlar sağlamayı amaçlamaktadır. Bu etik omurga, yalnızca yanıltıcı içeriğe karşı koruma sağlamakla kalmıyor, aynı zamanda Claude'u gelişen yapay zeka ortamındaki gelecekteki zorluklara uyum sağlayacak şekilde konumlandırıyor.

Bu, özellikle modelin gelişmiş, hatta izleme sistemleri ve siber güvenlik yazılımlarıyla entegre olabilen gelişmiş bir sürümüyle uğraşabileceğimiz gelecekteki durumlar için önemlidir.

Bir suçlu, mülk gözetim sistemine erişmelerine yardım etmesini isterse , sahibi olduğunu söylese ve ikna edici bir neden sunsa bile Claude, içerdiği riskler nedeniyle onları kapatacaktı. Bu durum belirsizlik modellemesine geri dönüyor; sonucun pozitifliği oldukça belirsiz ve LLM'nin istemi devre dışı bırakmasıyla sonuçlanıyor.

Ama bu geleceğe çok uzak görünüyor. Anthropic'in öncelikle görsel departmanında Midjourney ve DALL-E'yi eşleştirmeye odaklanması gerekiyor, ki bu da yakın zamanda olmayacak, çünkü Claude Pro planlarını henüz yeni yayınladılar . Benzer şekilde, Claude'un eğitimi, önyargılı girdi verilerine karşı koruma ve daha fazlası konusunda hâlâ pek çok soru işareti var. 

Claude rekabet edebilecek mi?

Claude, yapay zeka alanında etik davranış ile teknik beceri arasındaki boşluğu dolduran devasa bir adımı temsil ediyor. Claude, Anayasal Yapay Zeka temellerinden en son teknoloji transformatör mimarilerine olan bağlılığına kadar, yalnızca gelişmiş yeteneklere sahip değil, aynı zamanda bilinçli bir Yapay Zeka modeli olarak öne çıkıyor.

Belirsizlik modellemeye yönelik benzersiz yaklaşımını da unutmayalım . Bu, Claude'u yalnızca bir araç değil, aynı zamanda hem mevcut hem de gelecekteki uygulamalar için sorumlu bir şekilde tasarlanmış bir sistem haline getirerek, paha biçilmez bir etik karar verme katmanı ekler. İster tıp, ister müşteri desteği, isterse içerik oluşturma olsun, kesin olan bir şey var ki, dünya Anthropic'i ve onun Yüksek Lisansını yakından izliyor.


Top