ظهور طبقة الثقة في الذكاء الاصطناعي: شبكة ميرا تحل مشكلات التحيز والوهم في الذكاء الاصطناعي
مؤخراً، تم إطلاق الشبكة العامة للاختبار لميرا، وتهدف إلى بناء طبقة موثوقة من الثقة للذكاء الاصطناعي. وقد أثار ذلك تساؤلات حول موثوقية الذكاء الاصطناعي: لماذا يجب الوثوق بالذكاء الاصطناعي؟ وكيف ستواجه ميرا هذه التحديات؟
في الوقت الحالي، يميل الناس عند مناقشة الذكاء الاصطناعي إلى التركيز بشكل مفرط على قوته الكبيرة، متجاهلين مشكلة "الأوهام" أو التحيزات الموجودة في الذكاء الاصطناعي. ما يسمى بـ "الأوهام" في الذكاء الاصطناعي، ببساطة، يعني أن الذكاء الاصطناعي أحيانًا "يختلق"، ويقدم تفسيرات تبدو معقولة ولكنها في الواقع بلا أساس. على سبيل المثال، إذا سأل شخص ما لماذا القمر وردي، قد يقدم الذكاء الاصطناعي بجدية مجموعة من التفسيرات التي تبدو معقولة.
تتعلق "الهلاوس" أو التحيزات التي تظهر في الذكاء الاصطناعي ببعض المسارات التقنية الحالية للذكاء الاصطناعي. على سبيل المثال، يحقق الذكاء الاصطناعي التوليدي التماسك والمنطق من خلال التنبؤ بالمحتوى "الأكثر احتمالاً"، لكن هذه الطريقة قد تكون أحيانًا صعبة التحقق من صحتها. بالإضافة إلى ذلك، قد تحتوي بيانات التدريب نفسها على أخطاء أو تحيزات أو حتى محتوى مختلق، وكل ذلك يؤثر على جودة مخرجات الذكاء الاصطناعي. بعبارة أخرى، يتعلم الذكاء الاصطناعي أنماط اللغة البشرية، وليس الحقائق نفسها.
إن الآلية الحالية لتوليد الاحتمالات ونموذج البيانات المدفوعة ستؤدي تقريبًا بلا شك إلى إنتاج الذكاء الاصطناعي لخيالات. وبالنسبة للمحتوى العادي أو الترفيهي، قد لا تسبب هذه المخرجات المتحيزة أو الخيالية عواقب مباشرة على المدى القصير. ومع ذلك، إذا حدث ذلك في مجالات تتطلب دقة عالية مثل الطب أو القانون أو الطيران أو المالية، فقد تكون العواقب خطيرة. وبالتالي، أصبح معالجة مشكلة خيالات الذكاء الاصطناعي والتحيز واحدة من التحديات الأساسية في عملية تطوير الذكاء الاصطناعي.
مشروع ميرا يقدم حلاً لهذه المشكلة. يحاول تقليل تحيزات الذكاء الاصطناعي والأوهام من خلال بناء طبقة ثقة للذكاء الاصطناعي، مما يعزز موثوقية الذكاء الاصطناعي. الفكرة الأساسية لميرا هي التحقق من مخرجات الذكاء الاصطناعي من خلال توافق عدة نماذج ذكاء اصطناعي.
تتمثل النقطة الرئيسية لشبكة ميرا في التحقق من الإجماع اللامركزي. فهي تجمع بين تقنيات الإجماع اللامركزي في مجال التشفير ومزايا التعاون متعدد النماذج، من خلال نموذج التحقق الجماعي لتقليل حدوث التحيز والأوهام.
فيما يتعلق بهيكل التحقق، يدعم بروتوكول ميرا تحويل المحتوى المعقد إلى بيانات قابلة للتحقق بشكل مستقل. يشارك مشغلو العقد في التحقق من هذه البيانات، ويضمنون السلوك النزيه من خلال آلية تحفيز / عقاب اقتصادية مشفرة. تشارك نماذج الذكاء الاصطناعي المتعددة ومشغلو العقد الموزعة معًا لضمان موثوقية نتائج التحقق.
تتكون بنية شبكة ميرا من ثلاثة أجزاء رئيسية: تحويل المحتوى، والتحقق الموزع، وآلية الإجماع. أولاً، يقوم النظام بتفكيك المحتوى المرشح الذي يقدمه العميل إلى بيانات قابلة للتحقق مختلفة، ثم يوزعها على العقد للتحقق. بعد أن تحدد العقد صلاحية البيانات، يقوم النظام بتجميع النتائج للتوصل إلى إجماع، وأخيرًا يعيد النتائج إلى العميل. لحماية خصوصية العميل، يتم توزيع البيانات بشكل عشوائي إلى أجزاء مختلفة على العقد المختلفة، لمنع تسرب المعلومات أثناء عملية التحقق.
تتحمل مشغلي العقد مسؤولية تشغيل نماذج التحقق، ومعالجة التصريحات وتقديم نتائج التحقق. تأتي دافعهم للمشاركة في التحقق من العوائد المتاحة. وتأتي هذه العوائد من القيمة التي تم إنشاؤها للعملاء، أي تقليل معدل الأخطاء في مجالات مثل الرعاية الصحية، القانون، الطيران، والمالية. لمنع سلوك المضاربة من ردود العقد العشوائية، سيتم خصم رموز الرهان من العقد التي تنحرف باستمرار عن الإجماع.
بشكل عام، توفر Mira فكرة جديدة لتحقيق موثوقية الذكاء الاصطناعي. إنها تبني شبكة تحقق لامركزية قائمة على نماذج ذكاء اصطناعي متعددة، مما يجلب موثوقية أعلى لخدمات الذكاء الاصطناعي للعملاء، ويقلل من تحيزات الذكاء الاصطناعي والأوهام، لتلبية الحاجة إلى دقة أعلى ومعدل دقة أكثر. في الوقت نفسه، تخلق أيضًا فرص ربح لمشاركي الشبكة.
تم إطلاق الشبكة العامة للاختبار لمشروع Mira. يمكن للمستخدمين المشاركة في الاختبار من خلال استخدام Klok (تطبيق دردشة يعتمد على LLM من Mira) لتجربة مخرجات الذكاء الاصطناعي التي تم التحقق منها، ولديهم فرصة لكسب نقاط Mira. من المتوقع أن تدفع هذه الابتكارات نحو تطوير أعمق لتطبيقات الذكاء الاصطناعي، مما يمهد الطريق لبناء أنظمة ذكاء اصطناعي أكثر موثوقية وثقة.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 17
أعجبني
17
6
إعادة النشر
مشاركة
تعليق
0/400
AirdropNinja
· 07-17 04:58
تحت اسم التطبيق، مجرد حلب الحمقى.
شاهد النسخة الأصليةرد0
PaperHandsCriminal
· 07-15 01:57
مرة أخرى مشروع يحاول إقناعي بالدخول. مستثمر التجزئة حقًا صعب.
شاهد النسخة الأصليةرد0
BlockchainTalker
· 07-15 01:56
همم، نهج مثير للاهتمام، لكن بصراحة نحتاج إلى مزيد من إثبات التحقق لآليات...
شاهد النسخة الأصليةرد0
LiquidatedDreams
· 07-15 01:54
هل هذه الأمور تبدو رائعة؟ هل هي موثوقة؟
شاهد النسخة الأصليةرد0
GasWastingMaximalist
· 07-15 01:51
أليس الأمر مجرد جعل الذكاء الاصطناعي يقول الحقيقة؟ ماذا يمكن أن تحل البلوكتشين؟
إطلاق اختبار شبكة ميرا: بناء طبقة ثقة للذكاء الاصطناعي لحل مشاكل التحيز والهلاوس
ظهور طبقة الثقة في الذكاء الاصطناعي: شبكة ميرا تحل مشكلات التحيز والوهم في الذكاء الاصطناعي
مؤخراً، تم إطلاق الشبكة العامة للاختبار لميرا، وتهدف إلى بناء طبقة موثوقة من الثقة للذكاء الاصطناعي. وقد أثار ذلك تساؤلات حول موثوقية الذكاء الاصطناعي: لماذا يجب الوثوق بالذكاء الاصطناعي؟ وكيف ستواجه ميرا هذه التحديات؟
في الوقت الحالي، يميل الناس عند مناقشة الذكاء الاصطناعي إلى التركيز بشكل مفرط على قوته الكبيرة، متجاهلين مشكلة "الأوهام" أو التحيزات الموجودة في الذكاء الاصطناعي. ما يسمى بـ "الأوهام" في الذكاء الاصطناعي، ببساطة، يعني أن الذكاء الاصطناعي أحيانًا "يختلق"، ويقدم تفسيرات تبدو معقولة ولكنها في الواقع بلا أساس. على سبيل المثال، إذا سأل شخص ما لماذا القمر وردي، قد يقدم الذكاء الاصطناعي بجدية مجموعة من التفسيرات التي تبدو معقولة.
تتعلق "الهلاوس" أو التحيزات التي تظهر في الذكاء الاصطناعي ببعض المسارات التقنية الحالية للذكاء الاصطناعي. على سبيل المثال، يحقق الذكاء الاصطناعي التوليدي التماسك والمنطق من خلال التنبؤ بالمحتوى "الأكثر احتمالاً"، لكن هذه الطريقة قد تكون أحيانًا صعبة التحقق من صحتها. بالإضافة إلى ذلك، قد تحتوي بيانات التدريب نفسها على أخطاء أو تحيزات أو حتى محتوى مختلق، وكل ذلك يؤثر على جودة مخرجات الذكاء الاصطناعي. بعبارة أخرى، يتعلم الذكاء الاصطناعي أنماط اللغة البشرية، وليس الحقائق نفسها.
إن الآلية الحالية لتوليد الاحتمالات ونموذج البيانات المدفوعة ستؤدي تقريبًا بلا شك إلى إنتاج الذكاء الاصطناعي لخيالات. وبالنسبة للمحتوى العادي أو الترفيهي، قد لا تسبب هذه المخرجات المتحيزة أو الخيالية عواقب مباشرة على المدى القصير. ومع ذلك، إذا حدث ذلك في مجالات تتطلب دقة عالية مثل الطب أو القانون أو الطيران أو المالية، فقد تكون العواقب خطيرة. وبالتالي، أصبح معالجة مشكلة خيالات الذكاء الاصطناعي والتحيز واحدة من التحديات الأساسية في عملية تطوير الذكاء الاصطناعي.
مشروع ميرا يقدم حلاً لهذه المشكلة. يحاول تقليل تحيزات الذكاء الاصطناعي والأوهام من خلال بناء طبقة ثقة للذكاء الاصطناعي، مما يعزز موثوقية الذكاء الاصطناعي. الفكرة الأساسية لميرا هي التحقق من مخرجات الذكاء الاصطناعي من خلال توافق عدة نماذج ذكاء اصطناعي.
تتمثل النقطة الرئيسية لشبكة ميرا في التحقق من الإجماع اللامركزي. فهي تجمع بين تقنيات الإجماع اللامركزي في مجال التشفير ومزايا التعاون متعدد النماذج، من خلال نموذج التحقق الجماعي لتقليل حدوث التحيز والأوهام.
فيما يتعلق بهيكل التحقق، يدعم بروتوكول ميرا تحويل المحتوى المعقد إلى بيانات قابلة للتحقق بشكل مستقل. يشارك مشغلو العقد في التحقق من هذه البيانات، ويضمنون السلوك النزيه من خلال آلية تحفيز / عقاب اقتصادية مشفرة. تشارك نماذج الذكاء الاصطناعي المتعددة ومشغلو العقد الموزعة معًا لضمان موثوقية نتائج التحقق.
تتكون بنية شبكة ميرا من ثلاثة أجزاء رئيسية: تحويل المحتوى، والتحقق الموزع، وآلية الإجماع. أولاً، يقوم النظام بتفكيك المحتوى المرشح الذي يقدمه العميل إلى بيانات قابلة للتحقق مختلفة، ثم يوزعها على العقد للتحقق. بعد أن تحدد العقد صلاحية البيانات، يقوم النظام بتجميع النتائج للتوصل إلى إجماع، وأخيرًا يعيد النتائج إلى العميل. لحماية خصوصية العميل، يتم توزيع البيانات بشكل عشوائي إلى أجزاء مختلفة على العقد المختلفة، لمنع تسرب المعلومات أثناء عملية التحقق.
تتحمل مشغلي العقد مسؤولية تشغيل نماذج التحقق، ومعالجة التصريحات وتقديم نتائج التحقق. تأتي دافعهم للمشاركة في التحقق من العوائد المتاحة. وتأتي هذه العوائد من القيمة التي تم إنشاؤها للعملاء، أي تقليل معدل الأخطاء في مجالات مثل الرعاية الصحية، القانون، الطيران، والمالية. لمنع سلوك المضاربة من ردود العقد العشوائية، سيتم خصم رموز الرهان من العقد التي تنحرف باستمرار عن الإجماع.
بشكل عام، توفر Mira فكرة جديدة لتحقيق موثوقية الذكاء الاصطناعي. إنها تبني شبكة تحقق لامركزية قائمة على نماذج ذكاء اصطناعي متعددة، مما يجلب موثوقية أعلى لخدمات الذكاء الاصطناعي للعملاء، ويقلل من تحيزات الذكاء الاصطناعي والأوهام، لتلبية الحاجة إلى دقة أعلى ومعدل دقة أكثر. في الوقت نفسه، تخلق أيضًا فرص ربح لمشاركي الشبكة.
تم إطلاق الشبكة العامة للاختبار لمشروع Mira. يمكن للمستخدمين المشاركة في الاختبار من خلال استخدام Klok (تطبيق دردشة يعتمد على LLM من Mira) لتجربة مخرجات الذكاء الاصطناعي التي تم التحقق منها، ولديهم فرصة لكسب نقاط Mira. من المتوقع أن تدفع هذه الابتكارات نحو تطوير أعمق لتطبيقات الذكاء الاصطناعي، مما يمهد الطريق لبناء أنظمة ذكاء اصطناعي أكثر موثوقية وثقة.