Mira Ağı Testi Başlatıldı: Ön yargı ve yanılsama sorunlarını çözmek için AI güven katmanı inşa etmek

robot
Abstract generation in progress

AI Güven Katmanının Yükselişi: Mira Ağı AI Önyargı ve Halüsinasyon Sorunlarını Çözme

Son günlerde, Mira ağı'nın kamu test ağı resmi olarak başlatıldı ve AI için güvenilir bir güven katmanı inşa etmeyi amaçlıyor. Bu, insanlarda AI'nın güvenilirlik sorununu düşünmeye sevk etti: Neden AI'ya güvenilmesi gerekiyor? Mira bu zorlukla nasıl başa çıkacak?

Şu anda, insanlar AI'yi tartışırken genellikle onun güçlü yeteneklerine fazla odaklanıyor ve AI'nın "halüsinasyon" veya önyargı sorununu göz ardı ediyorlar. AI'nın "halüsinasyonu" denildiğinde, basitçe ifade etmek gerekirse, AI'nın bazen "uydurma" yapması, mantıklı görünen ama aslında hiçbir temeli olmayan açıklamalar vermesidir. Örneğin, biri aya neden pembe olduğunu sorarsa, AI muhtemelen oldukça inandırıcı bir şekilde bir dizi mantıklı açıklama sunabilir.

Yapay zekanın "hayal görmesi" veya önyargıları, mevcut bazı yapay zeka teknolojisi yollarıyla ilgilidir. Örneğin, üretken yapay zeka, tutarlılık ve mantıklılık sağlamak için "en olası" içeriği tahmin ederek çalışır, ancak bu yöntem bazen gerçekliği doğrulamayı zorlaştırır. Ayrıca, eğitim verileri hatalar, önyargılar veya hatta kurgusal içerik içerebilir; bunlar da yapay zekanın çıktı kalitesini etkileyebilir. Başka bir deyişle, yapay zeka, gerçeklikten ziyade insan dil kalıplarını öğrenmektedir.

Mevcut olasılık üretim mekanizmaları ve veri odaklı modeller, AI'nın yanılsama üretmesini neredeyse kaçınılmaz kılmaktadır. Genel bilgi veya eğlence içerikleri için, bu önyargılı veya yanıltıcı çıktılar geçici olarak doğrudan sonuçlar doğurmayabilir. Ancak, tıp, hukuk, havacılık, finans gibi yüksek titizlik gerektiren alanlarda meydana gelirse, ciddi sonuçlar doğurabilir. Bu nedenle, AI'nın yanılsama ve önyargı sorunlarını çözmek, AI gelişim sürecinin merkezi zorluklarından biri haline gelmiştir.

Mira projesi, bu soruna bir çözüm öneriyor. AI önyargısını ve yanılsamalarını azaltarak AI'nın güvenilirliğini artırmayı amaçlıyor. Mira'nın temel prensibi, birden fazla AI modelinin mutabakatı ile AI çıktısını doğrulamaktır.

Mira ağının anahtarı, merkeziyetsiz konsensüs doğrulamasındadır. Kripto alanındaki merkeziyetsiz konsensüs teknolojisi ile çoklu model işbirliğinin avantajlarını birleştirerek, toplu doğrulama modeli aracılığıyla önyargı ve yanılsama oluşumunu azaltır.

Doğrulama mimarisi açısından, Mira protokolü karmaşık içeriği bağımsız olarak doğrulanabilir beyanlara dönüştürmeyi destekler. Düğüm operatörleri bu beyanları doğrulamaya katılır ve şifreleme ekonomisi teşvik/ceza mekanizması aracılığıyla dürüst davranışı sağlamaya çalışır. Birden fazla AI modeli ve dağıtık düğüm operatörü, doğrulama sonuçlarının güvenilirliğini sağlamak için birlikte çalışır.

Mira'nın ağ mimarisi, içerik dönüşümü, dağıtık doğrulama ve konsensüs mekanizması olmak üzere üç ana bölümden oluşmaktadır. Öncelikle, sistem, müşterilerin sunduğu aday içeriği farklı doğrulanabilir beyanlara ayırır ve bunları doğrulama için düğümlere dağıtır. Düğüm, beyanın geçerliliğini belirledikten sonra, sistem sonuçları bir araya getirerek konsensüse ulaşır ve nihayet sonuçları müşteriye geri gönderir. Müşteri gizliliğini korumak için, beyanlar farklı düğümlere rastgele parçalar halinde dağıtılır ve doğrulama sürecinde bilgi sızıntısını önler.

Düğüm operatörleri, doğrulayıcı modelleri çalıştırmak, beyanları işlemek ve doğrulama sonuçlarını sunmakla sorumludur. Onların doğrulama katılım motivasyonu, elde edilebilecek gelirlerden gelmektedir. Bu gelirler, sağlık, hukuk, havacılık, finans gibi alanlarda AI'nın hata oranını düşürerek müşterilere sağladıkları değerlerden kaynaklanmaktadır. Düğümlerin rastgele yanıt vermesinin spekülatif davranışlarını önlemek için, sürekli olarak konsensustan sapma gösteren düğümlerin stake token'ları kesilecektir.

Genel olarak, Mira, AI'nın güvenilirliğini sağlamak için yeni bir çözüm yaklaşımı sunmaktadır. Çoklu AI modelleri temelinde merkeziyetsiz bir konsensüs doğrulama ağı inşa ederek, müşterilerin AI hizmetlerine daha yüksek güvenilirlik getirir, AI önyargılarını ve yanılsamalarını azaltır ve daha yüksek doğruluk ve hassasiyet taleplerini karşılar. Aynı zamanda, ağ katılımcılarına kazanç fırsatları da yaratmaktadır.

Mira ağının halka açık test ağı başlatıldı. Kullanıcılar, testlere katılmak için Klok (Mira tabanlı LLM sohbet uygulaması) kullanarak doğrulanmış AI çıktısını deneyimleyebilir ve Mira puanı kazanma şansına sahip olabilirler. Bu yenilik, AI uygulamalarının derinlemesine gelişimini desteklemeyi ve daha güvenilir, daha güvenilir AI sistemleri inşa etmek için bir yol açmayı amaçlıyor.

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • 6
  • Share
Comment
0/400
AirdropNinjavip
· 07-17 04:58
Uygulama adı altında enayileri soyuyorlar.
View OriginalReply0
PaperHandsCriminalvip
· 07-15 01:57
Yine beni bir pozisyon girmeye kandıran bir proje. Bireysel yatırımcılar gerçekten zor.
View OriginalReply0
BlockchainTalkervip
· 07-15 01:56
hmm ilginç bir yaklaşım ama açıkçası daha fazla doğrulama kanıtı mekanizmasına ihtiyacımız var...
View OriginalReply0
LiquidatedDreamsvip
· 07-15 01:54
Bunları yine mi yaptınız? Güvenilir mi?
View OriginalReply0
GasWastingMaximalistvip
· 07-15 01:51
AI'nın doğruyu söylemesini sağlamak değil mi? Blok Zinciri neyi çözüyor ki?
View OriginalReply0
nft_widowvip
· 07-15 01:38
Yine bir AI sorununu çözen mi? Sıkıcı.
View OriginalReply0
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)