Cointime

Uygulamayı indirmek için QR kodu tarayın
iOS & Android

Veri akışını teşvik etme: Yapay zeka veri eğitiminin darboğazını aşmak için şifreleme teknolojisi nasıl kullanılır?

Validated Media

Resimlerdeki özenle seçilmiş tüm referansları fark edip edemeyeceğinizi görün

Nispeten bilinmeyen bir girişim olan OpenAI'nin ChatGPT adlı bir sohbet robotu uygulamasını piyasaya sürmesinden bu yana, son iki yılda yapay zeka sahne arkasından ön plana çıktı. Makine zekasının hayatımıza tam anlamıyla nüfuz ettiği kritik bir dönemdeyiz. Bu zekayı kontrol etme rekabeti yoğunlaştıkça, bu zekanın gelişimini destekleyecek verilere olan talep de artıyor. Bu makalenin konusu budur.

Yapay zeka şirketlerinin ihtiyaç duyduğu verilerin ölçeğini ve aciliyetini ve bu verileri elde ederken karşılaştıkları sorunları tartışıyoruz. Bu doyumsuz talebin sevdiğimiz interneti ve ona katkıda bulunan milyarlarca kullanıcıyı nasıl tehdit ettiğini araştırıyoruz. Son olarak, bu sorunlara ve endişelere çözüm önermek için kriptografiden yararlanan bazı girişimlerin profilini çıkarıyoruz.

Konuya dalmadan önce bir uyarı: Bu makale, tüm yapay zeka sistemlerinin değil, büyük dil modellerinin (LLM'ler) eğitimi perspektifinden yazılmıştır. Bu nedenle, sıklıkla "AI" ve "LLM'leri" birbirinin yerine kullanıyorum.

verileri görüntüle

Yüksek Lisans'lar üç ana kaynağa ihtiyaç duyar: bilgi işlem gücü, enerji ve veri. Muazzam miktarda sermayenin desteklediği şirketler, hükümetler ve start-up'lar aynı anda bu kaynaklar için yarışıyor. Bu üçü arasında bilgi işlem gücü için verilen mücadele, kısmen Nvidia'nın hisse senedi fiyatlarındaki hızlı yükselişi sayesinde en dramatik olanıdır.

Yüksek Lisans eğitimi, çok sayıda özel grafik işlem birimi (GPU), özellikle de NVIDIA'nın A100, H100 ve gelecek B100 modellerini gerektirir. Bunlar Amazon'dan veya yerel bilgisayar mağazanızdan satın alabileceğiniz bilgi işlem cihazları değildir. Bunun yerine on binlerce dolara mal oluyorlar. NVIDIA, bu kaynakların yapay zeka laboratuvarları, startup'lar, veri merkezleri ve hiper ölçekli müşterileri arasında nasıl dağıtılacağına karar veriyor.

ChatGPT'nin piyasaya sürülmesinden sonraki 18 ay içinde GPU'lara olan talep arzı çok aştı ve bekleme süreleri 11 aya kadar çıktı. Ancak startuplar kapandıkça, eğitim algoritmaları ve model mimarisi geliştikçe, diğer şirketler özel çipler piyasaya sürüyor ve NVIDIA üretimi genişletiyor, arz ve talep dinamikleri normalleşiyor ve fiyatlar düşüyor.

İkincisi enerji. GPU'ları veri merkezlerinde çalıştırmak çok fazla enerji gerektirir. Bazı tahminlere göre veri merkezleri 2030 yılına kadar küresel enerjinin %4,5'ini tüketecek. Talepteki bu artış mevcut elektrik şebekeleri üzerinde baskı oluşturduğundan, teknoloji şirketleri alternatif enerji çözümleri araştırıyor. Amazon yakın zamanda nükleer enerji santrali tarafından desteklenen bir veri merkezi kampüsünü 650 milyon dolara satın aldı. Microsoft bir nükleer teknoloji yöneticisini işe aldı. OpenAI'den Sam Altman, Helion, Exowatt ve Oklo gibi enerji girişimlerini destekledi.

Yapay zeka modellerinin eğitimi açısından bakıldığında, enerji ve bilgi işlem gücü yalnızca metadır. H100 yerine B100'ü seçmek veya geleneksel enerji yerine nükleer enerjiyi seçmek eğitim sürecini daha ucuz, daha hızlı veya daha verimli hale getirebilir ancak modelin kalitesini etkilemez. Başka bir deyişle, en akıllı ve insana benzeyen yapay zeka modellerini yaratma yarışında, enerji ve bilgi işlem gücü belirleyici faktörler değil, temel faktörlerdir.

Temel kaynak veridir.

James Betker OpenAI'de araştırma mühendisidir. Kendi hesabına göre, herkesin yetiştirme hakkına sahip olduğundan daha fazla üretken model yetiştirmiştir. Bir blog yazısında, "neredeyse her model için yeterli ağırlık ve eğitim süresiyle aynı veri seti üzerinde yeterince uzun süre eğitim alın ve sonunda aynı noktaya yaklaşacaklarını" belirtti. Bu, bir AI modelini Başka bir faktörden ayırmak anlamına gelir. modelde veri kümesi bulunur ve başka hiçbir şey yoktur.

Bir modeli "ChatGPT", "Claude", "Mistral" veya "Lambda" olarak adlandırdığımızda mimarisinden, kullanılan GPU'lardan veya tüketilen enerjiden değil, üzerinde eğitim aldığı veri setinden bahsediyoruz.

Yapay zeka eğitiminin gıdası verilerse, onların yediği de modellerdir.

Son teknoloji ürünü bir üretken modeli eğitmek için ne kadar veriye ihtiyaç vardır? Cevap çoktur.

Eğitim için tahminen 12 trilyon jeton (veya yaklaşık 9 trilyon kelime) kullanan GPT-4, piyasaya sürülmesinin üzerinden bir yıldan fazla süre geçmesine rağmen hala en iyi büyük ölçekli dil modeli olarak kabul ediliyor. Veriler, Wikipedia, Reddit, Common Crawl (ücretsiz, açık bir web kazıma verileri deposu), bir milyon saatten fazla kopyalanmış YouTube verileri ve GitHub ve Stack Overflow gibi kodlama platformları da dahil olmak üzere halka açık internetin taranmasından elde ediliyor.

Bunun çok fazla veri olduğunu düşünüyorsanız bekleyin. Üretken yapay zekada "Chinchilla Ölçeklendirme Yasaları" adı verilen bir kavram vardır; bu, belirli bir bilgi işlem bütçesi için daha küçük bir modeli daha büyük bir veri kümesi üzerinde eğitmenin, daha büyük bir modeli daha küçük bir veri kümesi üzerinde eğitmekten daha iyi olduğu anlamına gelir. Model daha verimlidir. . Yapay zeka şirketlerinin GPT-5 ve Llama-4 gibi yeni nesil yapay zeka modellerini eğitmek için kullanmayı beklediği bilgi işlem kaynaklarını tahmin edersek, bu modellerin beş ila altı kat daha fazla bilgi işlem gücü gerektirmesinin beklendiğini görüyoruz. Eğitim için 100 trilyon Mark.

Halka açık internet verilerinin çoğu zaten taranmış, dizine eklenmiş ve mevcut modelleri eğitmek için kullanılmışken, ek veriler nereden gelecek? Bu, yapay zeka şirketlerinin karşı karşıya olduğu son teknoloji bir araştırma konusu haline geldi. İki çözüm var. Bunlardan biri, sentetik veriler, yani insanlar yerine doğrudan Yüksek Lisans'lar tarafından üretilen veriler üretmektir. Ancak bu verilerin modelleri daha akıllı hale getirmedeki kullanışlılığı henüz test edilmedi.

Diğer bir yaklaşım ise sentetik olarak üretmek yerine yüksek kaliteli verileri aramaktır. Bununla birlikte, özellikle yapay zeka şirketleri yalnızca gelecekteki modellerin eğitimini değil aynı zamanda mevcut modellerin etkinliğini de tehdit eden sorunlarla karşı karşıya kaldığında ek veri elde etmek zordur.

İlk veri sorunu yasal sorunları içeriyor. Yapay zeka şirketleri "kamuya açık verileri" kullandıklarını iddia etse de, bu verilerin çoğu telif hakkıyla korunmaktadır. Örneğin, Common Crawl veri kümesi, The New York Times ve The Associated Press gibi yayınlardan milyonlarca makalenin yanı sıra diğer telif hakkıyla korunan materyalleri içerir.

Bazı yayınlar ve içerik oluşturucular, yapay zeka şirketlerine karşı, onları telif hakkı ve fikri mülkiyet ihlaliyle suçlayarak yasal işlem başlatıyor. New York Times, OpenAI ve Microsoft'u "Times'ın benzersiz ve değerli çalışmasını yasa dışı olarak kopyalamak ve kullanmakla" suçlayarak dava açtı. Bir grup programcı, popüler bir yapay zeka programlama asistanı olan GitHub Copilot'u eğitmek için açık kaynak kodu kullanmanın yasallığına itiraz eden bir toplu dava açtı.

Komedyen Sarah Silverman ve yazar Paul Tremblay da AI şirketine, çalışmalarını izinsiz kullanmakla suçlayarak dava açtılar.

Komedyen Sarah Silverman ve yazar Paul Tremblay da AI şirketine, çalışmalarını izinsiz kullanmakla suçlayarak dava açtılar.

Diğerleri yapay zeka şirketleriyle ortaklık kurarak değişimi benimsiyor. Associated Press, Financial Times ve Axel Springer, OpenAI ile içerik lisanslama anlaşmaları imzaladı. Apple, Condé Nast ve NBC gibi haber kuruluşlarıyla da benzer anlaşmalar araştırıyor. Google, model eğitimi için API'sine erişim karşılığında Reddit'e yılda 60 milyon dolar ödemeyi kabul ederken, Stack Overflow da OpenAI ile benzer bir anlaşma yaptı. Meta'nın doğrudan yayıncılık şirketi Simon & Schuster'ı satın almayı düşündüğü bildirildi.

Bu düzenlemeler yapay zeka şirketlerinin karşılaştığı ikinci sorun olan açık ağların kapanmasıyla örtüşüyor.

İnternet forumları ve sosyal medya siteleri, yapay zeka şirketlerinin platformlarındaki verileri kullanarak modelleri eğiterek getirdikleri değeri kabul etti. Reddit, Google'la (ve muhtemelen gelecekte diğer AI şirketleriyle) yapılacak bir anlaşma öncesinde, daha önce ücretsiz olan API için ücret almaya başladı ve popüler üçüncü taraf istemcilerini sona erdirdi. Benzer şekilde Twitter, API erişimini kısıtladı ve fiyatları artırdı ve Elon Musk, kendi yapay zeka şirketi xAI için modelleri eğitmek amacıyla Twitter verilerini kullanıyor.

Herkesin ücretsiz olarak tüketebileceği (eğer varsa, reklam yoluyla para kazanılan) içerik üreten daha küçük yayınlar, hayran kurgu forumları ve internetin diğer niş köşeleri bile artık kapanıyor. İnternet bir zamanlar herkesin kendi benzersiz ilgi alanlarını ve tuhaflıklarını paylaşan bir kabile bulabileceği büyülü bir siber uzay olarak tasavvur ediliyordu. Bu büyü yavaş yavaş kayboluyor gibi görünüyor.

Bu dava tehdidinin, milyonlarca dolarlık içerik anlaşmalarındaki artışın ve açık ağların kapatılmasının iki sonucu var.

1. Öncelikle veri savaşı büyük ölçüde teknoloji devlerinin lehine dönüyor. Startup'lar ve küçük şirketler ne önceden mevcut olan API'lere erişebiliyor ne de kullanım haklarını yasal risk olmadan satın almak için gereken fonları karşılayabiliyor. Bunun, zengin insanların en iyi verileri satın alabileceği ve böylece en iyi modelleri yaratıp daha zengin olabileceği merkezi bir yapıya sahip olduğu açıktır.

2. İkincisi, kullanıcı tarafından oluşturulan içerik platformlarının iş modeli, kullanıcılar açısından giderek daha elverişsiz hale geliyor. Reddit ve Stack Overflow gibi platformlar, milyonlarca ücretsiz insan yaratıcının ve moderatörün katkılarına güveniyor. Ancak bu platformlar yapay zeka şirketleriyle multimilyon dolarlık anlaşmalar yaptığında, ne tazminat ödüyorlar ne de kullanıcılardan izin istiyorlar; onlar olmadan satılacak veri yok.

Hem Reddit hem de Stack Overflow, bu kararlar nedeniyle önemli kullanıcı saldırılarıyla karşılaştı. Federal Ticaret Komisyonu (FTC) ayrıca Reddit'in yapay zeka modellerini eğitmek için kullanıcı gönderilerini dış kuruluşlara satma, lisanslama ve paylaşma uygulamasını da araştırıyor.

Bu sorular, yeni nesil yapay zeka modellerinin eğitimi ve İnternet içeriğinin geleceği için önemli soruları gündeme getiriyor. Şu anki durumda gelecek pek umut verici görünmüyor. Şifreleme çözümleri, küçük şirketlerin ve internet kullanıcılarının oyun alanını eşitleyerek bu sorunlardan bazılarını çözebilir mi?

veri hattı

Yapay zeka modellerini eğitmek ve faydalı uygulamalar oluşturmak, aylarca süren planlama, kaynak tahsisi ve yürütme gerektiren karmaşık ve pahalı çalışmalardır. Bu süreçler, her biri farklı amaçlara ve veri gereksinimlerine sahip birden fazla aşamayı içerir.

Kriptografinin daha büyük yapay zeka bulmacasına nasıl uyduğunu anlamak için bu aşamaları parçalara ayıralım.

Ön eğitim

Ön eğitim, LLM eğitim sürecindeki ilk ve en kaynak yoğun adımdır ve modelin temelini oluşturur. Bu adımda yapay zeka modeli, dünyayla ilgili ortak bilgi ve dil kullanım bilgilerini yakalamak için büyük miktarda etiketsiz metin üzerinde eğitilir. GPT-4'ün 12 trilyon marker kullanılarak eğitildiğini söylediğimizde bu, eğitim öncesi kullanılan verileri ifade ediyor.

Ön eğitimin neden LLM'nin temeli olduğunu anlamak için LLM'nin nasıl çalıştığına dair üst düzey bir genel bakışa ihtiyacımız var. Lütfen bunun yalnızca basitleştirilmiş bir genel bakış olduğunu unutmayın. Jon Stokes'un mükemmel makalesinde, Andrej Karpathy'nin ilginç videosunda veya Stephen Wolfram'ın mükemmel kitabında daha kapsamlı bir açıklama bulabilirsiniz.

LLM'ler Next-Token Prediction adı verilen istatistiksel bir teknik kullanır. Basitçe söylemek gerekirse, bir dizi belirteç (yani kelimeler) verildiğinde, model bir sonraki en olası belirteci tahmin etmeye çalışır. Bu işlem tam bir yanıt oluşturmak için tekrarlanır. Bu nedenle büyük dil modellerini “tamamlama makineleri” olarak düşünebilirsiniz.

Bunu bir örnekle anlayalım.

LLM'ler Next-Token Prediction adı verilen istatistiksel bir teknik kullanır. Basitçe söylemek gerekirse, bir dizi belirteç (yani kelimeler) verildiğinde, model bir sonraki en olası belirteci tahmin etmeye çalışır. Bu işlem tam bir yanıt oluşturmak için tekrarlanır. Bu nedenle büyük dil modellerini “tamamlama makineleri” olarak düşünebilirsiniz.

Bunu bir örnekle anlayalım.

ChatGPT'ye "Güneş hangi yönden doğuyor?" diye sorduğumda önce "the" kelimesini tahmin etti, ardından "güneş doğudan doğuyor" cümlesindeki her kelimeyi tahmin etti. Peki bu tahminler nereden geliyor? ChatGPT, "güneş doğduktan" sonra "Batı", "Kuzey" veya "Amsterdam" yerine "Doğu" olması gerektiğini nasıl belirliyor? Başka bir deyişle, "Doğu"nun istatistiksel olarak diğer seçeneklere göre daha muhtemel olduğunu nereden biliyor?

Cevap, büyük miktarlardaki yüksek kaliteli eğitim verilerinden istatistiksel kalıpları öğrenmektir. İnternetteki tüm metni hesaba katarsanız, hangisinin ortaya çıkma olasılığı daha yüksektir - "Güneş doğudan doğar" mı yoksa "Güneş batıdan doğar" mı? İkincisi, edebi metaforlar ("Güneşin batıdan doğduğuna inanmak kadar saçma olurdu") gibi belirli bağlamlarda veya diğer gezegenler hakkındaki tartışmalarda (örneğin, güneşin batıdan doğduğu Venüs gibi) ortaya çıkabilir. . Ancak genel olarak birincisi daha yaygındır.

LLM, bir sonraki kelimeyi tekrar tekrar tahmin ederek genel bir dünya görüşü (sağduyu dediğimiz şey) ve dilin kuralları ve kalıpları hakkında bir anlayış geliştirir. LLM'yi düşünmenin bir başka yolu da İnternet'in sıkıştırılmış bir versiyonudur. Ayrıca verilerin neden hem büyük (seçim yapılabilecek daha fazla model) hem de yüksek kaliteli (model öğrenmenin doğruluğunu artırmak için) olması gerektiğinin anlaşılmasına da yardımcı olur.

Ancak daha önce de tartışıldığı gibi yapay zeka şirketlerinin daha büyük modelleri eğitmek için verileri tükeniyor. Eğitim verilerine olan talep, açık internette yeni verilerin üretilme hızından çok daha hızlı artıyor. Davalar yaklaşırken ve büyük forumlar kapanırken yapay zeka şirketleri ciddi sorularla karşı karşıya kalıyor.

Reddit gibi özel veri sağlayıcılarla multimilyon dolarlık anlaşmaları karşılayamayan küçük şirketler için sorun daha da ciddi.

Bu bizi bu veri sorunlarını çözmeyi amaçlayan merkezi olmayan bir konut proxy sağlayıcısı olan Grass'a getiriyor. Kendilerini “Yapay Zekanın veri katmanı” olarak adlandırıyorlar. Öncelikle konut proxy sağlayıcısının ne olduğunu anlayalım.

İnternet, eğitim verilerinin en iyi kaynağıdır ve interneti kazımak, şirketlerin bu verileri elde etmek için tercih ettiği yöntemdir. Uygulamada, kazıma yazılımı ölçek, kolaylık ve verimlilik için veri merkezlerinde barındırılmaktadır. Ancak değerli verilere sahip şirketler, verilerinin yapay zeka modellerini eğitmek için kullanılmasını istemiyor (ücret ödenmediği sürece). Bu kısıtlamaları uygulamak için genellikle bilinen veri merkezlerinden gelen IP adreslerini engelleyerek büyük ölçekli kazımayı önlerler.

Konut acentesi sağlayıcılarının kullanışlı olduğu yer burasıdır. Web siteleri sizin ve benim gibi normal internet kullanıcılarının değil, yalnızca bilinen veri merkezlerinden gelen IP adreslerini engeller, bu da internet bağlantılarımızı veya evdeki internet bağlantılarımızı değerli kılar. Yerleşik proxy sağlayıcıları, AI şirketlerinin verilerini geniş ölçekte sıyırmak için bu bağlantılardan milyonlarcasını bir araya getiriyor.

Ancak merkezi konut proxy sağlayıcıları dikkatlerden uzak çalışıyor. Çoğu zaman niyetleri konusunda net değiller. Kullanıcılar bir ürünün bant genişliğini kullandığını bilirlerse paylaşımda bulunma konusunda isteksiz olabilirler. Daha da kötüsü, ürünün kullandığı bant genişliği için tazminat talep edebilirler, bu da karlarını azaltır.

Konut proxy sağlayıcıları, kârlılıklarını korumak için bant genişliği tüketen kodlarını cep telefonu yardımcı uygulamaları (hesap makineleri ve ses kaydediciler gibi), VPN sağlayıcıları ve hatta tüketici TV ekran koruyucuları gibi geniş çapta dağıtılan ücretsiz uygulamalara aktarıyor. Kullanıcılar ücretsiz bir ürün aldıklarını düşünürken aslında üçüncü taraf bir konut sağlayıcı bant genişliğini tüketiyor (bu ayrıntılar genellikle çok az kişinin okuduğu hizmet açısından gizleniyor).

Konut proxy sağlayıcıları, kârlılıklarını korumak için bant genişliği tüketen kodlarını cep telefonu yardımcı uygulamaları (hesap makineleri ve ses kaydediciler gibi), VPN sağlayıcıları ve hatta tüketici TV ekran koruyucuları gibi geniş çapta dağıtılan ücretsiz uygulamalara aktarıyor. Kullanıcılar ücretsiz bir ürün aldıklarını düşünürken aslında üçüncü taraf bir konut sağlayıcısı bant genişliklerini tüketiyor (bu ayrıntılar genellikle çok az kişinin okuduğu hizmet açısından gizleniyor).

Sonunda bu verilerin bir kısmı, modelleri eğitmek ve kendileri için değer yaratmak için kullanan yapay zeka şirketlerine akıyor.

Andrej Radonjic, kendi konut proxy sağlayıcısını yönetirken, bu uygulamaların etik olmayan doğasının ve kullanıcılar için ne kadar adaletsiz olduğunun farkına vardı. Kriptografinin evrimini gördü ve daha adil bir çözüm yaratmanın bir yolunu buldu. Grass'ın 2022'nin sonlarında kurulduğu bağlam budur. Birkaç hafta sonra ChatGPT piyasaya sürüldü, dünyayı değiştirdi ve Grass'ı doğru yer ve zamanda yerleştirdi.

Diğer konut proxy sağlayıcıları tarafından kullanılan gizli stratejilerden farklı olarak Grass, yapay zeka modellerini eğitmek amacıyla kullanıcıları bant genişliği kullanımı konusunda açıkça bilgilendiriyor. Bunun karşılığında kullanıcılar doğrudan ödüller alırlar. Bu model konut acentesi sağlayıcılarının çalışma şeklini bozuyor. Kullanıcılar gönüllü olarak bant genişliği sağlayarak ve ağın bir parçası olarak pasif katılımcılardan aktif savunuculara dönüşerek ağın güvenilirliğini artırır ve yapay zekanın ürettiği değerden yararlanır.

Grass’ın büyümesi etkileyiciydi. Haziran 2023'teki lansmanlarından bu yana, düğümleri çalıştıran ve tarayıcı uzantıları veya mobil uygulamalar yükleyerek bant genişliğine katkıda bulunan 2 milyondan fazla aktif kullanıcıya sahipler. Bu büyüme, son derece başarılı bir yönlendirme programı sayesinde, dış pazarlama maliyetleri olmadan sağlandı.

Grass'ın hizmetlerini kullanmak, büyük yapay zeka laboratuvarları ve açık kaynaklı girişimler de dahil olmak üzere çeşitli şirketlerin, daha düşük maliyetle kazınmış eğitim verilerini elde etmesine olanak tanır. Aynı zamanda her sıradan kullanıcı internet bağlantısını paylaştığı için para alıyor ve büyüyen yapay zeka ekonomisinin bir parçası oluyor.

Grass, ham kazınmış verilere ek olarak müşterilerine bazı ek hizmetler de sunmaktadır.

İlk olarak, yapılandırılmamış web sayfalarını yapay zeka modellerinin işlemesi kolay olan yapılandırılmış verilere dönüştürürler. Veri temizleme adı verilen bu adım, genellikle yapay zeka laboratuvarları tarafından gerçekleştirilen, kaynak yoğun bir görevdir. Grass, yapılandırılmış, temiz veri kümeleri sağlayarak müşterilere değerini artırır. Ek olarak Grass, verileri kazıma, hazırlama ve etiketleme sürecini otomatikleştirmek için açık kaynaklı bir Yüksek Lisans eğitimi verdi.

İkinci olarak Grass, veri kümesini yadsınamaz menşe kanıtıyla bir araya getiriyor. Yapay zeka modelleri için yüksek kaliteli verilerin önemi göz önüne alındığında, yapay zeka şirketlerinin veri setlerinin kötü amaçlı web siteleri veya yerleşik proxy sağlayıcılar tarafından tahrif edilmemesini sağlaması kritik önem taşıyor.

Sorunun büyüklüğü, kuruluşların bir veri kümesinin uygun olup olmadığını belirlemesine yardımcı olmak için veri kaynağı standartları oluşturmak üzere birlikte çalışan, Meta, IBM ve Walmart dahil 20'den fazla şirketten oluşan kar amacı gütmeyen bir grup olan Data & Trust Alliance gibi kuruluşların oluşumunda yatmaktadır. uygun ve güvenilir.

Grass da benzer adımlar atıyor. Bir Grass düğümü bir web sayfasını her taradığında, aynı zamanda web sayfasının kaynağını doğrulayan meta verileri de kaydeder. Bu menşe kanıtları blok zincirinde saklanır ve müşteriyle paylaşılır (müşteri bunu kullanıcılarıyla daha fazla paylaşabilir).

Grass da benzer adımlar atıyor. Bir Grass düğümü bir web sayfasını her taradığında, aynı zamanda web sayfasının kaynağını doğrulayan meta verileri de kaydeder. Bu menşe kanıtları blok zincirinde saklanır ve müşteriyle paylaşılır (müşteri bunu kullanıcılarıyla daha fazla paylaşabilir).

Grass, en yüksek verimli blok zincirlerden biri olan Solana üzerine kurulu olmasına rağmen, her tarama görevinin izlenebilirliğini L1'de depolamak mümkün değil. Bu nedenle Grass, kaynak kanıtlarını toplu olarak işlemek için ZK işlemcisini kullanan ve ardından bunları Solana'da yayınlayan bir toplama (Solana'daki ilk toplamalardan biri) oluşturuyor. Grass'ın "Yapay Zekanın veri katmanı" olarak adlandırdığı bu toplama, yakaladıkları tüm veriler için veri defteri haline geliyor.

Grass'ın Web 3-first yaklaşımı, merkezi konut proxy sağlayıcılarına göre ona birçok avantaj sağlıyor. Birincisi, kullanıcıları bant genişliğini doğrudan paylaşmaya teşvik etmek için ödüller kullanarak, yapay zeka tarafından üretilen değeri daha adil bir şekilde dağıtırlar (aynı zamanda uygulama geliştiricilerine kodlarını paketlemeleri için ödeme yapma maliyetinden de tasarruf ederler). İkincisi, müşterilere sektörde çok değerli olan "meşru trafik" sağlamak için prim talep edebilirler.

“Meşru trafik” üzerine çalışan bir diğer protokol ise Masa'dır. Ağ, kullanıcıların Reddit, Twitter veya TikTok gibi sosyal medya platformlarına giriş bilgilerini aktarmalarına olanak tanıyor. Ağdaki düğümler daha sonra bu platformlardan yüksek düzeyde bağlamsal güncellenmiş verileri sıyırır. Bu modelin avantajı, toplanan verilerin ortalama bir kullanıcının sosyal medya platformunda gördükleriyle aynı olmasıdır. Gerçek zamanlı olarak, viral hale gelmek üzere olan duyarlılığı veya içeriği açıklayan zengin veri kümeleri elde edebilirsiniz.

Bu veri kümelerinin iki ana kullanımı vardır.

1. Finans - Binlerce insanın sosyal medya platformlarında gördüklerini görebilseydiniz, bu verilere dayanarak ticaret stratejileri geliştirebilirsiniz. Duyarlılık verilerinden yararlanan otonom aracılar, Masa'nın veri kümesi üzerinde eğitilebilir.

2. Sosyal - Yapay zeka yardımcılarının (veya Replika gibi araçların) ortaya çıkışı, insan konuşmasını taklit eden veri kümelerine ihtiyacımız olduğu anlamına geliyor. Bu konuşmalar aynı zamanda güncel bilgiler gerektirir. Masa'nın veri akışları, en son Twitter trendlerini anlamlı bir şekilde tartışabilecek temsilcileri eğitmek için kullanılabilir.

Masa'nın yaklaşımı, kapalı bahçelerden (Twitter gibi) kullanıcı izniyle bilgi elde etmek ve bu bilgiyi bina uygulamaları için geliştiricilerin kullanımına sunmaktır. Veri toplamaya yönelik böyle bir sosyal öncelikli yaklaşım aynı zamanda bölgesel diller etrafında veri kümelerinin oluşturulmasına da olanak tanır.

Örneğin Hintçe konuşan bir bot, Hintçe çalışan sosyal ağlardan elde edilen verileri kullanabilir. Bu ağlar henüz keşfedilmemiş uygulama olanaklarını ortaya çıkarıyor.

Model hizalaması

Önceden eğitilmiş LLM, üretim kullanımına hazır olmaktan çok uzaktır. Bunu düşün. Model şu anda yalnızca dizideki bir sonraki kelimeyi nasıl tahmin edeceğini biliyor, başka hiçbir şeyi bilmiyor. Önceden eğitilmiş bir modele "Satoshi Nakamoto Kimdir?" gibi bir metin verirseniz, bunlardan herhangi biri geçerli yanıtlardır:

1. Soruyu tamamlayın: Satoshi Nakamoto mu?

2. İfadeleri cümleye dönüştürün: Bu, Bitcoin'e inananları uzun yıllardır rahatsız eden bir sorundur.

3. Soruyu gerçekten cevaplayın: Satoshi Nakamoto, ilk merkezi olmayan kripto para birimi olan Bitcoin'i ve onun altında yatan teknoloji olan blockchain'i yaratan takma adlı kişi veya gruptur.

Yararlı cevaplar sunmayı amaçlayan LLM, üçüncü bir cevap sağlayacaktır. Ancak önceden eğitilmiş modeller tutarlı veya doğru cevaplar vermez. Aslında, genellikle son kullanıcı için hiçbir şey ifade etmeyen rastgele metinler tükürürler. En kötü senaryo, bir modelin gizliliği korurken gerçekte yanlış, zehirli veya zararlı bilgiler vermesidir. Bu olduğunda, model "halüsinasyonlardan" muzdariptir.

Önceden eğitilmiş GPT-3 soruları bu şekilde yanıtlıyor

Model hizalamanın amacı, önceden eğitilmiş modeli son kullanıcı için kullanışlı hale getirmektir. Başka bir deyişle, onu yalnızca istatistiksel bir metin tamamlama aracından, kullanıcı ihtiyaçlarını anlayan ve bunlara uyum sağlayan, tutarlı, yararlı konuşmalar yürütebilen bir sohbet robotuna dönüştürün.

Diyalog ince ayarı

Model hizalamanın amacı, önceden eğitilmiş modeli son kullanıcı için kullanışlı hale getirmektir. Başka bir deyişle, onu yalnızca istatistiksel bir metin tamamlama aracından, kullanıcı ihtiyaçlarını anlayan ve bunlara uyum sağlayan, tutarlı, yararlı konuşmalar yürütebilen bir sohbet robotuna dönüştürün.

Diyalog ince ayarı

Bu süreçteki ilk adım diyaloğun ince ayarıdır. İnce ayar, önceden eğitilmiş bir makine öğrenimi modelinin alınması ve belirli bir göreve veya kullanım senaryosuna uyum sağlamasına yardımcı olmak için onu daha küçük, hedeflenen bir veri kümesi üzerinde daha fazla eğitmek anlamına gelir. Yüksek Lisans eğitimine yönelik bu özel kullanım durumu, insan benzeri konuşmalar yapmaktır. Doğal olarak, bu ince ayarlı veri kümesi, modelin nasıl davranacağını gösteren, insan tarafından oluşturulan bir dizi işaret-yanıt çiftidir.

Bu veri kümeleri farklı türden konuşmaları (Soru-Cevap, özetleme, çeviri, kod oluşturma) kapsar ve genellikle mükemmel dil becerilerine ve konu uzmanlığına sahip yüksek eğitimli kişiler (bazen yapay zeka eğitmenleri olarak da adlandırılır) tarafından tasarlanır.

GPT-4 gibi son teknoloji modellerin bu tür işaret-yanıt çiftleri üzerinde yaklaşık 100.000 eğitildiği tahmin edilmektedir.

İstem-yanıt çifti örneği

İnsan geri bildiriminden pekiştirmeli öğrenme (RLHF)

Bu adımı, insanların evcil köpeklerini nasıl eğittiğine benzer şekilde düşünün: iyi davranışı ödüllendirin ve kötü davranışı cezalandırın. Model bir uyarı alır ve yanıtı, çıktının doğruluğuna ve kalitesine göre onu puanlayan (örneğin 1-5) bir insan açıklamacıyla paylaşılır. RLHF'nin başka bir versiyonu bir uyarı oluşturur ve bir insan yorumlayıcı tarafından en iyiden en kötüye doğru sıralanan birden fazla yanıt üretir.

RLHF görev örneği

RLHF, modelleri insan tercihlerine ve istenen davranışlara doğru yönlendirmek için tasarlanmıştır. Aslında, eğer bir ChatGPT kullanıcısıysanız, OpenAI sizi aynı zamanda bir RLHF veri açıklayıcısı olarak da değerlendirecektir! Bu, model bazen iki yanıt oluşturduğunda ve sizden daha iyi olanı seçmenizi istediğinde meydana gelir.

Yanıtın kullanışlılığını değerlendirmenizi sağlayacak basit bir beğenme veya beğenmeme simgesi bile model için bir tür RLHF eğitimidir.

Yapay zeka modellerini kullanırken, bunlara harcanan milyonlarca saatlik insan emeğini nadiren hesaba katarız. Bu sadece Yüksek Lisans'lara özgü bir ihtiyaç değildir. Tarihsel olarak içerik denetimi, otonom sürüş ve tümör tespiti gibi geleneksel makine öğrenimi kullanım durumları bile veri açıklaması için önemli miktarda insan müdahalesi gerektirmiştir. (Bu mükemmel 2019 New York Times hikayesi, insan açıklamaları konusunda uzmanlaşmış bir şirket olan iAgent'ın Hindistan ofisinin perde arkasını gösteriyor).

Yapay zeka modellerini kullanırken, bunlara harcanan milyonlarca saatlik insan emeğini nadiren hesaba katarız. Bu sadece Yüksek Lisans'lara özgü bir ihtiyaç değildir. Tarihsel olarak içerik denetimi, otonom sürüş ve tümör tespiti gibi geleneksel makine öğrenimi kullanım durumları bile veri açıklaması için önemli miktarda insan müdahalesi gerektirmiştir. (Bu mükemmel 2019 New York Times hikayesi, insan açıklamaları konusunda uzmanlaşmış bir şirket olan iAgent'ın Hindistan ofisinin perde arkasını gösteriyor).

ImageNet veritabanını oluşturmak için kullanılan Fei-Fei Li Mechanical Turk, çalışanlarının yapay zeka eğitiminde perde arkasında oynadığı rol nedeniyle Jeff Bezos tarafından "yapay yapay zeka" olarak adlandırıldı.

Bu yılın başındaki tuhaf bir hikayeye göre, müşterilerin raflardan ürünleri kolayca alıp dışarı çıkabildiği (ve daha sonra otomatik olarak ücretlendirildiği) Amazon'un Just Walk Out mağazaları, gelişmiş bir yapay zeka tarafından değil, manuel olarak 1000 Hintli sözleşmeli işçi tarafından destekleniyordu. ekran mağazası görüntüleri.

Mesele şu ki, her büyük ölçekli yapay zeka sistemi bir dereceye kadar insanlara dayanıyor ve Yüksek Lisanslar yalnızca bu hizmetlere olan talebi artırıyor. Müşterileri arasında OpenAI bulunan Scale AI gibi şirketler bu talebi kullanarak 11 milyar dolarlık bir değerlemeye ulaştı. Uber bile bazı Hintli işçileri, araçlarını kullanmadıkları zamanlarda yapay zeka çıktılarına açıklama eklemeleri için görevlendiriyor.

Tam kapsamlı bir yapay zeka veri çözümü olma sürecinde olan Grass da bu pazara giriyor. Yakında kullanıcıların RLHF görevlerini tamamlayarak ödüller kazanabilecekleri bir AI açıklama çözümü (ana ürünlerinin bir uzantısı olarak) yayınlayacaklar.

Soru şu: Grass, bunu merkezi olmayan bir şekilde yaparak, aynı alanda çalışan yüzlerce merkezi şirkete göre ne gibi avantajlara sahip olacak?

Grass, simgesel teşvikler yoluyla bir işçi ağını başlatabilir. Kullanıcıları internet bant genişliğini paylaştıkları için jetonlarla ödüllendirdikleri gibi, yapay zeka eğitim verilerini etiketleyen insanları da ödüllendirebilirler. Web2 dünyasında, özellikle küresel olarak dağıtılmış görevler için esnek ekonomi çalışanlarına ödeme yapma deneyimi, Solana gibi hızlı bir blok zincirinde sağlanan anlık likiditenin yanından bile geçemez.

Kripto topluluğu, özellikle de Grass'ın mevcut topluluğu halihazırda çok sayıda eğitimli, internet yerlisi ve teknik açıdan bilgili kullanıcıya sahip. Bu, Grass'ın işçileri işe almak ve eğitmek için harcaması gereken kaynakları azaltır.

Ödüller karşılığında bir yapay zeka modelinin yanıtlarına açıklama ekleme görevinin hem çiftçilere hem de robotlara çekici gelip gelmeyeceğini merak edebilirsiniz. Ben de öyle düşündüm. Neyse ki, yüksek kaliteli açıklayıcıları belirlemek ve botları filtrelemek için fikir birliği tekniklerinin kullanımını araştıran önemli araştırmalar yapılmıştır.

Grass'ın en azından şimdilik yalnızca RLHF pazarına girdiğini ve şirketlerin konuşmalarda ince ayar yapmasına yardımcı olmadığını, bunun da yüksek düzeyde uzmanlaşmış bir iş gücü ve otomatikleştirilmesi daha zor bir lojistik gerektirdiğini unutmayın.

Uzmanlaşmış ince ayar

Ön eğitim ve uyum adımlarını tamamladıktan sonra temel model adı verilen modele sahip oluyoruz. Temel modeller, dünyanın nasıl çalıştığına dair genel bir anlayışa sahiptir ve çok çeşitli konularda akıcı, insan benzeri konuşmalar yürütebilir. Aynı zamanda iyi derecede dile hakimdir ve kullanıcıların e-posta, hikaye, şiir, makale ve şarkı yazmalarına kolaylıkla yardımcı olabilir.

ChatGPT'yi kullandığınızda GPT-4 temel modeliyle etkileşime girersiniz.

Temel model evrensel modeldir. Milyonlarca konu hakkında geniş bilgiye sahip olmalarına rağmen hiçbir konuda uzmanlaşmazlar. Bitcoin'in tokenomiğini anlamanıza yardımcı olmaları istendiğinde yanıtlar yararlı ve çoğunlukla doğrudur. Ancak, EigenLayer gibi bir yeniden varsayım protokolünün güvenlik açısından uç durum risklerini listelemesini istediğinizde buna çok fazla güvenmemelisiniz.

İnce ayarın, önceden eğitilmiş bir makine öğrenimi modelini alıp belirli bir göreve veya kullanım senaryosuna uyum sağlamasına yardımcı olmak için onu daha küçük, hedeflenen bir veri kümesi üzerinde daha fazla eğitmek olduğunu unutmayın. Daha önce ham metin tamamlama aracını konuşma modeline dönüştürürken ince ayar yapmayı tartışmıştık. Benzer şekilde, belirli bir alanda veya görevde uzmanlaşmak için ortaya çıkan temel modelde ince ayar yapabiliriz.

Med-PaLM2, tıbbi sorulara yüksek kaliteli yanıtlar sağlamak üzere tasarlanmış, Google'ın temel modeli PaLM-2'nin ince ayarlı bir sürümüdür. MetaMath, Mistral-7B üzerinde hassas şekilde ayarlanmış bir matematiksel akıl yürütme modelidir. Bazı dürtme modelleri Hikaye Anlatma, Metin Özetleme ve Müşteri Hizmetleri gibi geniş kategorilerde uzmanlaşırken diğerleri Portekizce Şiir, Hinglish Tercüme ve Sri Lanka Hukuku gibi niş alanlarda uzmanlaşır.

Med-PaLM2, tıbbi sorulara yüksek kaliteli yanıtlar sağlamak üzere tasarlanmış, Google'ın temel modeli PaLM-2'nin ince ayarlı bir sürümüdür. MetaMath, Mistral-7B üzerinde hassas şekilde ayarlanmış bir matematiksel akıl yürütme modelidir. Bazı dürtme modelleri Hikaye Anlatma, Metin Özetleme ve Müşteri Hizmetleri gibi geniş kategorilerde uzmanlaşırken diğerleri Portekizce Şiir, Hinglish Tercüme ve Sri Lanka Hukuku gibi niş alanlarda uzmanlaşır.

Belirli bir kullanım senaryosuna göre bir modele ince ayar yapmak için yüksek kaliteli, ilgili alan veri kümeleri gereklidir. Bu veri kümeleri belirli web sitelerinden (bu haber bültenindeki şifrelenmiş veriler gibi), özel veri kümelerinden (binlerce doktor-hasta etkileşimini kaydedebilen bir hastane gibi) veya uzmanların deneyimlerinden (yakalanması için ayrıntılı görüşmeler gerektiren) kaynaklanabilir. .

Milyonlarca yapay zeka modelinin bulunduğu bir dünyaya geçtikçe, bu bölümlere ayrılmış uzun kuyruklu veri kümeleri giderek daha değerli hale geliyor. EY gibi büyük muhasebe firmalarından Gazze'deki serbest fotoğrafçılara kadar uzanan bu veri setlerinin sahipleri, yapay zeka silahlanma yarışında hızla en sıcak ürün haline gelen şeyi satın almak için acele ediyor. Gulp Data gibi hizmetler, işletmelerin verilerinin değerini adil bir şekilde değerlendirmelerine yardımcı olmak için ortaya çıktı.

Hatta OpenAI, veri ortakları için kamuya açık bir talepte bulunarak, "şu anda kamuya açık olmayan, insan toplumunu yansıtan büyük ölçekli veri kümelerine" sahip kuruluşlardan işbirliği talebinde bulundu.

Niş ürünler arayan alıcı ve satıcıların ihtiyaçlarını karşılamanın en az bir harika yolu olduğunu biliyoruz ve bu da İnternet pazarıdır. Ebay koleksiyon parçaları için bir tane yarattı, Upwork insan emeği için bir tane yarattı ve sayısız platform sayısız başka kategori için platformlar yarattı. Şaşırtıcı olmayan bir şekilde, bazıları merkezi olmayan, bölümlere ayrılmış veri setleri için pazarların ortaya çıktığını da görüyoruz.

Bagel, "yüksek kaliteli, çeşitli verilere" sahip olanların verilerini yapay zeka şirketleriyle güvenilir ve gizliliği koruyan bir şekilde paylaşmalarına olanak tanıyan bir dizi araç olan "yapay evrensel bir altyapı" inşa ediyor. Bunu başarmak için sıfır bilgi (ZK) ve tamamen homomorfik şifreleme (FHE) gibi teknikler kullanıyorlar.

Şirketler genellikle yüksek değerli verilere sahiptir ancak gizlilik veya rekabet sorunları nedeniyle bunlardan para kazanamamaktadır. Örneğin, bir araştırma laboratuvarı büyük miktarda genomik veriye sahip olabilir ancak bunu hasta mahremiyetini korumak için paylaşamayabilir veya bir tüketici ürünleri üreticisi tedarik zinciri atık azaltma verilerine sahip olabilir ancak bunları rekabetçi sırları ifşa etmeden açıklayamaz. Bagel, bu veri setlerini kullanışlı hale getirirken aynı zamanda ilgili endişeleri ortadan kaldırmak için kriptografideki ilerlemelerden yararlanıyor.

Grass'ın konut proxy hizmetleri aynı zamanda özel veri kümeleri oluşturmaya da yardımcı olabilir. Örneğin, uzman yemek pişirme tavsiyesi sağlayan bir modele ince ayar yapmak istiyorsanız Grass'tan r/Cooking ve r/AskCulinary gibi alt dizinlerdeki verileri taramasını isteyebilirsiniz. Benzer şekilde, seyahat odaklı modellerin yaratıcıları da Grass'tan TripAdvisor forumlarından veri almasını isteyebilir.

Bunlar tamamen özel veri kaynakları olmasa da diğer veri kümelerine değerli katkılar olabilirler. Grass ayrıca herhangi bir müşteri tarafından yeniden kullanılabilecek arşivlenmiş veri kümeleri oluşturmak için ağını kullanmayı planlıyor.

bağlam düzeyi verileri

Favori LLM'nize "Eğitiminizin son tarihi ne zaman?" diye sormayı deneyin. Kasım 2023 gibi bir yanıt alacaksınız. Bu, temel modelin yalnızca bu tarihten önce mevcut olan bilgileri sağladığı anlamına gelir. Bu modelleri eğitmenin (hatta ince ayar yapmanın) hesaplama açısından ne kadar yoğun ve zaman alıcı olduğunu düşündüğünüzde bu anlaşılabilir bir durumdur.

Bunları gerçek zamanlı olarak güncel tutmak için her gün yeni bir model eğitip dağıtmanız gerekir ki bu kesinlikle imkansızdır (en azından şu anda).

Ancak birçok kullanım durumunda yapay zeka, dünya hakkında güncel bilgiler olmadan işe yaramaz. Örneğin, Yüksek Lisans'tan gelen yanıtlara dayanan kişisel bir dijital asistan kullanıyor olsaydım, bu asistanlardan okunmamış e-postaları özetlemeleri veya Liverpool'un son maçının skorerini belirtmeleri istendiğinde dezavantajlı durumda olurdu.

Bu sınırlamaları aşmak ve gerçek zamanlı bilgilere dayalı kullanıcı yanıtları sağlamak için uygulama geliştiricileri, temel modelin "bağlam penceresi" adı verilen girdi metnini sorgulayabilir ve içine bilgi ekleyebilir. Bağlam penceresi, LLM'nin bir yanıt oluşturmak için işleyebileceği giriş metnidir. Belirteçlerle ölçülür ve LLM'nin herhangi bir anda "görebileceği" metni temsil eder.

Bu nedenle, dijital asistanımdan okunmamış e-postalarımı özetlemesini istediğimde, uygulama önce tüm okunmamış e-postaların içeriğini almak için e-posta sağlayıcımı sorguluyor, yanıtı LLM'ye gönderilen bir istemin içine ekliyor ve "I've" gibi bir istem ekliyor Shlok'un gelen kutusundaki okunmamış e-postaların bir listesini sundum. Lütfen bunları özetleyin." Bu yeni bağlamla Yüksek Lisans, görevleri tamamlayabilir ve yanıtlar sağlayabilir. Bu süreci, ChatGPT'ye bir e-postayı kopyalayıp yapıştırıp yanıt oluşturmasını istemişsiniz gibi düşünebilirsiniz, ancak bu süreç arka planda gerçekleşir.

Güncel yanıt verme özelliğine sahip uygulamalar oluşturmak için geliştiricilerin gerçek zamanlı verilere erişmesi gerekir. Grass düğümleri herhangi bir web sitesinden gerçek zamanlı olarak veri yakalayabilir, geliştiricilere düşük gecikme süreli gerçek zamanlı veriler sağlar ve bağlamla artırılmış nesil (RAG) iş akışlarını basitleştirir.

Burası aynı zamanda Masa'nın bugün bulunduğu yerdir. Şimdilik Alphabet, Meta ve X, kullanıcı tabanları nedeniyle sürekli güncellenen kullanıcı verilerine sahip tek büyük platformlardır. Masa, küçük girişimler için oyun alanını eşitliyor.

Bu sürecin teknik terimi, Geri Alma Arttırma Üretimi'dir (RAG). RAG iş akışı, tüm modern LLM uygulamalarının merkezinde yer alır. Bu süreç, metni bilgisayarlar tarafından kolayca yorumlanabilen, değiştirilebilen, saklanabilen ve aranabilen sayısal dizilere dönüştüren metin vektörleştirmesini içerir.

Grass, müşterilere RAG iş akışlarını kolaylaştırmak için vektörleştirilmiş, düşük gecikme süreli gerçek zamanlı veriler sağlamak amacıyla gelecekte fiziksel donanım düğümleri yayınlamayı planlıyor.

Sektördeki çoğu kişi, gelecekte bağlam düzeyindeki sorguların (aynı zamanda çıkarım olarak da bilinir) kaynakların (enerji, bilgi işlem, veri) çoğunluğunu kullanacağını tahmin ediyor. Bu mantıklı. Model eğitimi her zaman süresi sınırlı bir süreçtir ve belirli miktarda kaynak tahsisi tüketir. Uygulama düzeyinde kullanım ise teorik olarak sınırsız gereksinimlere sahip olabilir.

Grass, metin verisi taleplerinin çoğunluğunun gerçek zamanlı veri isteyen müşterilerden gelmesiyle bunu zaten görüyor.

Yüksek Lisans'ın bağlamsal penceresi zamanla genişler. OpenAI, ChatGPT'yi ilk piyasaya sürdüğünde içerik penceresi 32.000 token'dı. İki yıldan kısa bir süre sonra Google'ın Gemini modelinin bağlamsal penceresi 1 milyon jetonu aştı. Bir milyon jeton, 11.300 sayfalık kitaba, yani çok sayıda metne eşdeğerdir.

Bu gelişmeler, İçerik Penceresinin gerçek zamanlı bilgiye erişimin çok ötesine geçen bir etkiye sahip içerik oluşturmasına olanak tanır. Örneğin birisi tüm Taylor Swift şarkılarının sözlerini veya bu haber bülteninin tüm arşivini bağlam penceresine atabilir ve LLM'den benzer tarzda yeni içerik üretmesini isteyebilir.

Buna izin vermeyecek şekilde açıkça programlanmadığı sürece model oldukça iyi bir çıktı üretecektir.

Bu tartışmanın nereye varacağına dair bir fikir edinebilirseniz, kendinizi gelecek olana hazırlayın. Şu ana kadar esas olarak metin modellerini tartıştık ancak üretken modeller ses, görüntü ve video oluşturma gibi diğer yöntemlerde giderek daha iyi performans gösteriyor. Geçenlerde Twitter'da Orkhan Isayen'in Londra'nın bu harika illüstrasyonunu gördüm.

Popüler ve mükemmel bir metin-görüntü aracı olan Midjourney, mevcut görüntülere benzer stilde yeni görüntüler oluşturabilen Style Tuner adlı bir özelliğe sahiptir (bu özellik aynı zamanda RAG benzeri bir iş akışına da dayanır, ancak tam olarak aynısı değildir). Orkhan'ın insan yapımı bir illüstrasyonunu yükledim ve stil değiştiriciyi kullanarak Midjourney'in şehri New York olarak değiştirmesini sağladım. Elde ettiğim şey bu:

Sanatçının illüstrasyonlarına baktığınızda kolaylıkla eseriyle karıştırılabilecek dört resim. Görüntüler yapay zeka tarafından 30 saniye içinde tek bir giriş görüntüsüne dayalı olarak oluşturuluyor. "New York"u sordum ama tema gerçekten herhangi bir şey olabilir. Müzik gibi diğer yöntemlerde de benzer kopyalama mümkündür.

Daha önce tartıştığımız, yapay zeka şirketlerine dava açan varlıklardan birinin yaratıcı olduğu kısmı düşündüğümüzde, onların neden haklı olduklarını görebilirsiniz.

İnternet bir zamanlar yaratıcılar için bir nimetti; hikayelerini, sanatlarını, müziklerini ve diğer yaratıcı ifade biçimlerini dünyayla paylaşmalarına olanak tanıyordu; 1000'lerce gerçek hayran bulmalarına olanak sağlıyordu. Şimdi aynı küresel platform onların geçim kaynaklarına yönelik en büyük tehdit olarak ortaya çıkıyor.

Yeterince iyi bir benzer parçayı aylık 30$ Midjourney aboneliğiyle almak varken neden Orkhan'a 500$ komisyon ödeyesiniz ki?

Distopyaya benziyor mu?

Teknolojinin harika yanı, yarattığı sorunlara neredeyse her zaman bir çözüm bulması. Şansları onlara karşı olan yaratıcılara çevirirseniz, onların yeteneklerinden para kazanmak için benzeri görülmemiş bir fırsat olduğunu göreceksiniz.

Yapay zekadan önce bir Orkhan'ın yaratabileceği parça sayısı günün saatine göre sınırlıydı. Yapay zeka sayesinde artık teorik olarak sınırsız müşteriye hizmet verebiliyor.

Ne demek istediğimi anlamak için müzisyen Grimes'ın yapay zeka müzik platformu elf.tech'e bakalım. Elf Tech, bir şarkının kaydını yüklemenize olanak tanır ve onu Grimes'ın sesine ve tarzına dönüştürür. Şarkılardan kazanılan telif hakları Grimes ve yaratıcı arasında 50-50 oranında paylaştırılacak. Bu, bir Grimes hayranı veya onun sesinin, müziğinin veya yayınlarının hayranı olarak kolayca bir şarkı fikri ortaya atabileceğiniz ve platformun bunu Grimes'in sesine dönüştürmek için yapay zekayı kullanacağı anlamına gelir.

Şarkı hit olursa hem siz hem de Grimes bundan faydalanacaksınız. Bu aynı zamanda Grimes'ın yeteneklerini pasif bir şekilde geliştirmesine ve çıktılarından yararlanmasına da olanak tanıyor.

TRINITI, CreateSafe tarafından geliştirilen elf.tech'in temel teknolojisidir. Makaleleri, blockchain ve üretken yapay zeka teknolojileri arasında öngördüğümüz en ilginç kesişimlerden birini ortaya koyuyor.

İçerik oluşturucu tarafından kontrol edilen akıllı sözleşmeler yoluyla dijital içeriğin tanımını genişletin ve blockchain tabanlı eşler arası ödeme erişimi mikro işlemleri aracılığıyla dağıtımı yeniden tasarlayarak herhangi bir akış platformunun dijital içeriğe anında kimlik doğrulaması ve erişmesine olanak sağlayın. Daha sonra yapay zeka, anında mikro ödemeleri gerçekleştirmek ve yaratıcının belirttiği şartlara göre deneyimi tüketiciye aktarmak için oluşturulur.

Balaji bunu daha basit bir şekilde özetledi.

İçerik oluşturucu tarafından kontrol edilen akıllı sözleşmeler aracılığıyla dijital içeriğin tanımını genişletin ve blockchain tabanlı eşler arası ödeme erişimi mikro işlemleri aracılığıyla dağıtımı yeniden tasarlayarak herhangi bir akış platformunun dijital içeriğe anında kimlik doğrulaması ve erişmesine olanak sağlayın. Daha sonra yapay zeka, anında mikro ödemeleri gerçekleştirmek ve yaratıcının belirttiği şartlara göre deneyimi tüketiciye aktarmak için oluşturulur.

Balaji bunu daha basit bir şekilde özetledi.

Yeni medya ortaya çıktıkça, insanların onlarla nasıl etkileşime gireceğini anlamaya çalışıyoruz ve bunlar web ile birleştiğinde değişimin güçlü motorları haline geliyor. Kitaplar Protestan Devrimi'ni körükledi, radyo ve televizyon Soğuk Savaş'ın önemli parçalarıydı ve medya çoğu zaman iyi ya da kötü yönde kullanılabilecek iki ucu keskin bir kılıçtır.

Bugün sahip olduğumuz şey, büyük miktarda kullanıcı verisine sahip merkezi şirketlerdir. Sanki şirketlerimize yaratıcılığımız, zihinsel sağlığımız ve daha iyi bir toplum için doğru olanı yapacağına güveniyoruz, bir avuç şirkete bu kadar çok güç veriyoruz, ancak çoğunun işleyişinin içini pek bilmiyoruz.

LLM devriminin ilk aşamalarındayız. Tıpkı 2016'daki Ethereum gibi, onlarla ne tür uygulamalar geliştirilebileceğine dair neredeyse hiçbir fikrimiz yok. Büyükannemle Hintçe iletişim kurabilen bir yüksek lisans öğrencisi mi? Çeşitli bilgi akışlarında yüksek kaliteli verileri bulabilen bir aracı mı? Bireysel katkıda bulunanların kültüre özgü nüansları (argo gibi) paylaşmasına yönelik bir mekanizma mı? Neyin mümkün olduğunu henüz tam olarak bilmiyoruz.

Ancak bu uygulamaları oluşturmanın tek bir temel bileşenle sınırlı olacağı açıktır: veriler.

Grass, Masa ve Bagel gibi protokoller ediniminin altyapısını oluşturuyor ve adil bir şekilde edinilmesini kolaylaştırıyor. İnsanın hayal gücü, onun üzerine inşa edildiği sınırdır. Bu bana heyecan verici geliyor.

Yorumlar

Tüm Yorumlar

Önerilen okuma