تخطي إلى المحتوى الرئيسي

10 منشورات تم وضع علامة عليها بـ "الذكاء الاصطناعي"

عرض جميع العلامات

تعليقات مستخدمي Reddit على أدوات الدردشة LLM الرئيسية

· 44 دقائق قراءة
Lark Birdy
Chief Bird Officer

نظرة عامة: يحلل هذا التقرير مناقشات Reddit حول أربعة من أدوات الدردشة بالذكاء الاصطناعي الشهيرة – ChatGPT من OpenAI، Claude من Anthropic، Gemini (Bard) من Google، و LLMs مفتوحة المصدر (مثل النماذج المستندة إلى LLaMA). يلخص نقاط الألم الشائعة التي يبلغ عنها المستخدمون لكل منها، والميزات التي يطلبونها بشكل متكرر، والاحتياجات غير الملباة أو الفئات التي تشعر بأنها غير مخدومة، والاختلافات في التصور بين المطورين والمستخدمين العاديين والمستخدمين التجاريين. تتضمن أمثلة محددة واقتباسات من سلاسل Reddit لتوضيح هذه النقاط.

تعليقات مستخدمي Reddit على أدوات الدردشة LLM الرئيسية

ChatGPT (OpenAI)

نقاط الألم والقيود الشائعة

  • ذاكرة السياق المحدودة: من الشكاوى الرئيسية هي عدم قدرة ChatGPT على التعامل مع المحادثات الطويلة أو الوثائق الكبيرة دون نسيان التفاصيل السابقة. غالبًا ما يصل المستخدمون إلى حد طول السياق (بضعة آلاف من الرموز) ويجب عليهم تقليص أو تلخيص المعلومات. أشار أحد المستخدمين إلى "زيادة حجم نافذة السياق سيكون أكبر تحسين... هذا هو الحد الذي أواجهه أكثر". عندما يتم تجاوز السياق، ينسى ChatGPT التعليمات أو المحتوى الأولي، مما يؤدي إلى انخفاض الجودة بشكل محبط في منتصف الجلسة.

  • حدود الرسائل لـ GPT-4: يأسف مستخدمو ChatGPT Plus على حد 25 رسالة/3 ساعات لاستخدام GPT-4 (حد موجود في عام 2023). يؤدي الوصول إلى هذا الحد إلى إجبارهم على الانتظار، مما يقطع العمل. يجد المستخدمون الثقيلون أن هذا التقييد نقطة ألم رئيسية.

  • مرشحات المحتوى الصارمة ("التقليل"): يشعر العديد من مستخدمي Reddit أن ChatGPT أصبح مقيّدًا بشكل مفرط، وغالبًا ما يرفض الطلبات التي كانت الإصدارات السابقة تتعامل معها. اشتكى منشور حصل على تصويتات عالية من أن "أي شيء تطلبه هذه الأيام يعيد 'آسف، لا أستطيع مساعدتك'... كيف انتقل هذا من الأداة الأكثر فائدة إلى ما يعادل مساعد Google؟". يذكر المستخدمون أمثلة مثل رفض ChatGPT إعادة تنسيق نصهم الخاص (مثل بيانات تسجيل الدخول) بسبب سوء الاستخدام الافتراضي. يجادل المشتركون الذين يدفعون بأن "بعض المفاهيم الغامضة بأن المستخدم قد يفعل 'أشياء سيئة'... لا ينبغي أن تكون سببًا لعدم عرض النتائج", حيث يريدون مخرجات النموذج وسيستخدمونها بمسؤولية.

  • الهلوسة والأخطاء: على الرغم من قدرته المتقدمة، يمكن لـ ChatGPT إنتاج معلومات غير صحيحة أو مختلقة بثقة. لاحظ بعض المستخدمين أن هذا يزداد سوءًا بمرور الوقت، مشككين في أن النموذج تم "تبسيطه". على سبيل المثال، قال مستخدم في مجال التمويل إن ChatGPT كان يحسب مقاييس مثل NPV أو IRR بشكل صحيح، ولكن بعد التحديثات "أحصل على العديد من الإجابات الخاطئة... لا يزال ينتج إجابات خاطئة [حتى بعد التصحيح]. أعتقد حقًا أنه أصبح أكثر غباءً منذ التغييرات.". تؤدي مثل هذه الأخطاء غير المتوقعة إلى تآكل الثقة في المهام التي تتطلب دقة واقعية.

  • مخرجات الكود غير المكتملة: غالبًا ما يستخدم المطورون ChatGPT للمساعدة في البرمجة، لكنهم يبلغون أنه أحيانًا يحذف أجزاء من الحل أو يقطع الكود الطويل. شارك أحد المستخدمين أن ChatGPT الآن "يحذف الكود، ينتج كود غير مفيد، ويفشل في الشيء الذي أحتاجه للقيام به... غالبًا ما يحذف الكثير من الكود لدرجة أنني لا أعرف حتى كيفية دمج حله." يجبر هذا المستخدمين على طرح مطالبات متابعة لاستخراج الباقي، أو تجميع الإجابات يدويًا – وهي عملية مملة.

  • مخاوف الأداء والوقت التشغيلي: هناك تصور بأن أداء ChatGPT للمستخدمين الفرديين انخفض مع زيادة الاستخدام المؤسسي. "أعتقد أنهم يخصصون عرض النطاق الترددي وقوة المعالجة للشركات ويأخذونها بعيدًا عن المستخدمين، وهو أمر لا يطاق بالنظر إلى ما يكلفه الاشتراك!" أبدى أحد المشتركين في Plus استياءه. تم ملاحظة الانقطاعات أو البطء خلال أوقات الذروة بشكل غير رسمي، مما يمكن أن يعطل سير العمل.

الميزات أو التحسينات المطلوبة بشكل متكرر

  • نافذة سياق أطول / ذاكرة: التحسين الأكثر طلبًا هو زيادة طول السياق. يريد المستخدمون إجراء محادثات أطول بكثير أو تغذية وثائق كبيرة دون إعادة التعيين. يقترح الكثيرون توسيع سياق ChatGPT ليطابق قدرة GPT-4 على 32K رمز (متاحة حاليًا عبر API) أو أكثر. كما قال أحد المستخدمين، "GPT هو الأفضل مع السياق، وعندما لا يتذكر السياق الأولي، أشعر بالإحباط... إذا كانت الشائعات صحيحة بشأن ملفات PDF السياقية، فسيحل ذلك جميع مشاكلي." هناك طلب كبير على ميزات لتحميل الوثائق أو ربط البيانات الشخصية حتى يتمكن ChatGPT من تذكرها والرجوع إليها طوال الجلسة.

  • التعامل مع الملفات والتكامل: يطلب المستخدمون بشكل متكرر طرقًا أسهل لتغذية الملفات أو البيانات إلى ChatGPT. في المناقشات، يذكر الناس رغبتهم في "نسخ ولصق محرك Google الخاص بي وجعله يعمل" أو وجود مكونات إضافية تتيح لـ ChatGPT جلب السياق مباشرة من الملفات الشخصية. حاول البعض حلولاً بديلة (مثل مكونات قراءة PDF أو ربط مستندات Google)، لكنهم اشتكوا من الأخطاء والحدود. وصف أحد المستخدمين المكون الإضافي المثالي بأنه "يعمل مثل قارئ الروابط ولكن للملفات الشخصية... اختيار الأجزاء التي أريد استخدامها في محادثة... سيحل ذلك كل مشكلة أواجهها مع GPT-4 حاليًا.". باختصار، الدعم الأصلي الأفضل للمعرفة الخارجية (بخلاف بيانات التدريب) هو طلب شائع.

  • تقليل التقييد للمستخدمين المدفوعين: نظرًا لأن العديد من مستخدمي Plus يصلون إلى حد رسائل GPT-4، فإنهم يطالبون بحدود أعلى أو خيار الدفع أكثر للوصول غير المحدود. يُنظر إلى حد 25 رسالة على أنه تعسفي ويعيق الاستخدام المكثف. يفضل الناس نموذجًا قائمًا على الاستخدام أو حدًا أعلى بحيث لا يتم قطع جلسات حل المشكلات الطويلة.

  • أوضاع الرقابة المخصصة أو غير المقيدة: يرغب جزء من المستخدمين في القدرة على تبديل صرامة مرشحات المحتوى، خاصة عند استخدام ChatGPT لأنفسهم (وليس للمحتوى العام). يشعرون أن وضع "البحث" أو "غير المقيد" – مع تحذيرات ولكن بدون رفضات صارمة – سيسمح لهم بالاستكشاف بحرية أكبر. كما أشار أحد المستخدمين، يرى العملاء الذين يدفعون المال أنها أداة ويعتقدون "أدفع المال مقابل [ذلك]." يريدون الخيار للحصول على إجابات حتى في الاستفسارات الحدودية. بينما يجب على OpenAI تحقيق التوازن بين الأمان، يقترح هؤلاء المستخدمون وجود علم أو إعداد لتخفيف السياسات في الدردشات الخاصة.

  • تحسين الدقة الواقعية والتحديثات: يطلب المستخدمون بشكل شائع الحصول على معرفة أكثر حداثة وتقليل الهلوسات. كان حد المعرفة في ChatGPT (سبتمبر 2021 في الإصدارات السابقة) قيدًا غالبًا ما يُثار على Reddit. قدمت OpenAI منذ ذلك الحين التصفح والمكونات الإضافية، والتي يستخدمها بعض المستخدمين، لكن البعض الآخر يطلب ببساطة تحديث النموذج الأساسي بشكل متكرر مع بيانات جديدة. تقليل الأخطاء الواضحة – خاصة في المجالات مثل الرياضيات والبرمجة – هو رغبة مستمرة. يقدم بعض المطورين ملاحظات عندما يخطئ ChatGPT على أمل تحسين النموذج.

  • مخرجات الكود والأدوات الأفضل: لدى المطورين طلبات ميزات مثل مفسر الكود المحسن الذي لا يحذف المحتوى، والتكامل مع IDEs أو التحكم في الإصدار. (كان مكون OpenAI’s Code Interpreter الإضافي – الآن جزءًا من "تحليل البيانات المتقدم" – خطوة في هذا الاتجاه وحصل على الثناء.) ومع ذلك، غالبًا ما يطلب المستخدمون تحكمًا أدق في توليد الكود: على سبيل المثال، خيار لإخراج كود كامل وغير مفلتر حتى لو كان طويلاً، أو آليات لإصلاح الكود بسهولة إذا ارتكب الذكاء الاصطناعي خطأً. في الأساس، يريدون أن يتصرف ChatGPT كمساعد برمجة موثوق به دون الحاجة إلى مطالبات متعددة لتحسين الإجابة.

  • ملفات تعريف المستخدم الدائمة أو الذاكرة: تحسين آخر يذكره البعض هو السماح لـ ChatGPT بتذكر أشياء عن المستخدم عبر الجلسات (بموافقة). على سبيل المثال، تذكر أسلوب الكتابة الخاص بهم، أو أنهم مهندس برمجيات، دون الحاجة إلى إعادة ذكره في كل دردشة جديدة. يمكن أن يرتبط هذا بضبط API أو ميزة "الملف الشخصي". يقوم المستخدمون بنسخ السياق المهم يدويًا إلى الدردشات الجديدة الآن، لذا فإن الذاكرة المدمجة للتفضيلات الشخصية ستوفر الوقت.

الاحتياجات غير الملباة أو الفئات غير المخدومة

  • الباحثون والطلاب ذوو الوثائق الطويلة: الأشخاص الذين يريدون من ChatGPT تحليل الأوراق البحثية الطويلة أو الكتب أو مجموعات البيانات الكبيرة يشعرون بأنهم غير مخدومين. تجبرهم الحدود الحالية على تقطيع النص أو الاكتفاء بالملخصات. ستستفيد هذه الفئة بشكل كبير من نوافذ السياق الأكبر أو الميزات للتعامل مع الوثائق الطويلة (كما يتضح من العديد من المنشورات حول محاولة تجاوز حدود الرموز).

  • المستخدمون الذين يبحثون عن سرد قصصي إبداعي أو لعب أدوار يتجاوز الحدود: بينما يُستخدم ChatGPT غالبًا للكتابة الإبداعية، يشعر بعض الكتاب القصصيين بأن النموذج مقيد بنسيان نقاط الحبكة المبكرة في قصة طويلة أو رفض المحتوى البالغ/الرعب. يلجؤون إلى النماذج البديلة أو الحيل لمواصلة رواياتهم. سيكون هؤلاء المستخدمون الإبداعيون أفضل خدمة من خلال نسخة من ChatGPT بذاكرة أطول وقليل من المرونة في العنف الخيالي أو الموضوعات الناضجة (ضمن المعقول). كما أشار أحد كتاب الخيال، عندما يفقد الذكاء الاصطناعي مسار القصة، "يجب أن أذكره بالتنسيق أو السياق الدقيق... أشعر بالإحباط لأنه كان رائعًا قبل مطلبين، لكن الآن يجب أن ألحق بالذكاء الاصطناعي.".

  • المستخدمون الأقوياء والخبراء في المجال: يجد المحترفون في المجالات المتخصصة (المالية، الهندسة، الطب) أحيانًا أن إجابات ChatGPT تفتقر إلى العمق أو الدقة في مجالهم، خاصة إذا كانت الأسئلة تتضمن تطورات حديثة. يرغب هؤلاء المستخدمون في الحصول على معرفة خبيرة أكثر موثوقية. حاول البعض ضبط النموذج عبر API أو GPTs مخصصة. أولئك الذين لا يمكنهم ضبط النموذج يقدرون نسخًا خاصة بالمجال من ChatGPT أو مكونات إضافية تدمج قواعد بيانات موثوقة. في شكله الافتراضي، قد لا يخدم ChatGPT المستخدمين الذين يحتاجون إلى معلومات دقيقة للغاية ومحددة بالمجال (غالبًا ما يضطرون إلى التحقق من عمله).

  • المستخدمون الذين يحتاجون إلى محتوى غير مقيد أو حالات حافة: يجد أقلية من المستخدمين (المخترقين الذين يختبرون سيناريوهات الأمان، كتاب الخيال المتطرف، إلخ) أن قيود محتوى ChatGPT مفرطة لاحتياجاتهم. هم حاليًا غير مخدومين من قبل المنتج الرسمي (لأنه يتجنب صراحةً محتوى معينًا). غالبًا ما يجرب هؤلاء المستخدمون مطالبات الاختراق أو يستخدمون النماذج مفتوحة المصدر للحصول على الإجابات التي يريدونها. هذه فجوة متعمدة لـ OpenAI (للحفاظ على الأمان)، لكنها تعني أن هؤلاء المستخدمين يبحثون في مكان آخر.

  • الأفراد والشركات المهتمون بالخصوصية: يشعر بعض المستخدمين (خاصة في البيئات المؤسسية) بعدم الارتياح لإرسال بيانات حساسة إلى ChatGPT بسبب مخاوف الخصوصية. لدى OpenAI سياسات لعدم استخدام بيانات API للتدريب، ولكن واجهة ChatGPT على الويب لم تقدم تاريخيًا مثل هذه الضمانات حتى تمت إضافة ميزة إلغاء الاشتراك. غالبًا ما تشعر الشركات التي تتعامل مع البيانات السرية (القانونية، الرعاية الصحية، إلخ) بأنها لا تستطيع استخدام ChatGPT بالكامل، مما يترك احتياجاتها غير مخدومة ما لم تبني حلولًا مستضافة ذاتيًا. على سبيل المثال، ذكر مستخدم Reddit أن شركتهم انتقلت إلى LLM محلي لأسباب الخصوصية. حتى تتوفر مثيلات ChatGPT المحلية أو الخاصة، تظل هذه الفئة حذرة أو تستخدم بائعين متخصصين أصغر.

الاختلافات في التصور حسب نوع المستخدم

  • المطورون/المستخدمون التقنيون: يميل المطورون إلى أن يكونوا من أكبر المدافعين عن ChatGPT وأشد المنتقدين له. يحبون قدرته على شرح الكود، وتوليد القوالب، والمساعدة في تصحيح الأخطاء. ومع ذلك، يشعرون بشدة بحدوده في السياق الأطول ودقة الكود. كما اشتكى أحد المطورين، بدأ ChatGPT "في إنتاج كود غير مفيد" وحذف أجزاء مهمة، مما "يغضبني... لا أريد أن أقول له 'لا تكن كسولاً' – أريد فقط النتيجة الكاملة". غالبًا ما يلاحظ المطورون حتى التغييرات الطفيفة في الجودة بعد تحديثات النموذج وكانوا صريحين جدًا على Reddit بشأن "التقليل" المتصور أو التراجع في قدرة البرمجة. كما أنهم يدفعون الحدود (بناء مطالبات معقدة، ربط الأدوات)، لذا فإنهم يتوقون إلى ميزات مثل السياق الموسع، وحدود الرسائل الأقل، والتكامل الأفضل مع أدوات البرمجة. باختصار، يقدر المطورون ChatGPT لتسريع المهام الروتينية ولكنهم سريعون في الإشارة إلى الأخطاء في المنطق أو الكود – يرونه كمساعد مبتدئ لا يزال يحتاج إلى إشراف.

  • المستخدمون العاديون/اليوميون: غالبًا ما يندهش المستخدمون العاديون – أولئك الذين يسألون عن المعرفة العامة أو النصائح أو المرح – من قدرات ChatGPT، لكن لديهم شكاواهم الخاصة. إحباط شائع للمستخدم العادي هو عندما يرفض ChatGPT طلبًا يبدو غير ضار بالنسبة لهم (من المحتمل أن يتعثر في قاعدة سياسة). كان المنشور الأصلي في أحد المواضيع مثالًا على ذلك، حيث كان "غاضبًا جدًا عندما أكتب مطلبًا لا ينبغي أن يكون لديه مشكلة معه ويرفض الآن". قد يواجه المستخدمون العاديون أيضًا حد المعرفة (اكتشاف أن الروبوت لا يمكنه التعامل مع الأحداث الحالية جدًا ما لم يتم تحديثه صراحةً) وأحيانًا يلاحظون عندما يقدم ChatGPT إجابة خاطئة بشكل واضح. على عكس المطورين، قد لا يتحققون دائمًا من الذكاء الاصطناعي، مما قد يؤدي إلى خيبة أمل إذا تصرفوا بناءً على خطأ. على الجانب الإيجابي، يجد العديد من المستخدمين العاديين أن استجابات ChatGPT Plus الأسرع وإخراج GPT-4 المحسن يستحقان 20 دولارًا شهريًا – ما لم تفسد تجربة "الرفض" أو الحدود الأخرى التجربة. يريدون عمومًا مساعدًا مفيدًا متعدد الأغراض ويمكن أن يشعروا بالإحباط عندما يرد ChatGPT ببيانات السياسة أو يحتاج إلى مطلب معقد للحصول على إجابة بسيطة.

  • المستخدمون التجاريون/المحترفون: غالبًا ما يقترب المستخدمون التجاريون من ChatGPT من منظور الإنتاجية والموثوقية. يقدرون المسودات السريعة للبريد الإلكتروني، وملخصات الوثائق، أو توليد الأفكار. ومع ذلك، فإنهم قلقون بشأن أمان البيانات، والاتساق، والتكامل في سير العمل. على Reddit، ناقش المحترفون رغبتهم في ChatGPT في أدوات مثل Outlook وGoogle Docs، أو كـ API في أنظمتهم الداخلية. لاحظ البعض أنه مع تحول OpenAI لخدمة العملاء المؤسسيين، يبدو أن تركيز المنتج يتحول: هناك شعور بأن تجربة المستخدم الفردي أو المجاني تدهورت قليلاً (على سبيل المثال، أبطأ أو "أقل ذكاءً") مع توسع الشركة لخدمة العملاء الأكبر. سواء كان ذلك صحيحًا أم لا، فإنه يسلط الضوء على تصور: يريد المستخدمون التجاريون الموثوقية والخدمة ذات الأولوية، ويقلق المستخدمون الفرديون من أنهم الآن من الدرجة الثانية. بالإضافة إلى ذلك، يحتاج المحترفون إلى مخرجات صحيحة – يمكن أن تكون الإجابة الخاطئة اللامعة أسوأ من عدم الإجابة. وبالتالي، فإن هذا القطاع حساس للدقة. بالنسبة لهم، تعتبر الميزات مثل السياق الأطول (لقراءة العقود، وتحليل قواعد الأكواد) والوقت التشغيلي المضمون أمرًا بالغ الأهمية. من المرجح أن يدفعوا أكثر مقابل مستويات الخدمة المتميزة، بشرط أن يتم تلبية متطلبات الامتثال والخصوصية الخاصة بهم. تستكشف بعض الشركات حتى عمليات النشر المحلية أو استخدام API الخاص بـ OpenAI مع قواعد صارمة للتعامل مع البيانات لتلبية سياسات تكنولوجيا المعلومات الخاصة بهم.


Claude (Anthropic)

نقاط الألم والقيود الشائعة

  • حدود الاستخدام وقيود الوصول: حصل Claude على الثناء لتقديم نموذج قوي (Claude 2) مجانًا، لكن المستخدمين واجهوا بسرعة حدود الاستخدام (خاصة في الطبقة المجانية). بعد عدد معين من المطالبات أو كمية كبيرة من النصوص، قد يتوقف Claude ويقول شيئًا مثل "آسف، يجب أن أنهي هذه المحادثة الآن. يرجى العودة لاحقًا." يثير هذا التقييد إحباط المستخدمين الذين يعاملون Claude كشريك في البرمجة أو الكتابة الممتدة. حتى مستخدمي Claude Pro (المدفوع) "لا يضمن لهم وقت غير محدود", كما أشار أحد المستخدمين؛ الوصول إلى الحصة لا يزال ينتج رسالة "العودة لاحقًا". بالإضافة إلى ذلك، لفترة طويلة كان Claude مقيدًا جغرافيًا رسميًا (متاحًا في البداية فقط في الولايات المتحدة/المملكة المتحدة). كان على المستخدمين الدوليين على Reddit استخدام VPNs أو منصات طرف ثالث للوصول إليه، مما كان يمثل إزعاجًا. جعل هذا العديد من المستخدمين غير الأمريكيين يشعرون بأنهم مستبعدون حتى توسع الوصول.

  • ميل للانحراف مع المدخلات الكبيرة جدًا: الميزة الرئيسية لـ Claude هي نافذة السياق 100k-token، مما يسمح بالمطالبات الطويلة للغاية. ومع ذلك، لاحظ بعض المستخدمين أنه عندما تحشو عشرات الآلاف من الرموز في Claude، يمكن أن تصبح استجاباته أقل تركيزًا. "100k مفيدة للغاية ولكن إذا لم يتبع التعليمات بشكل صحيح وانحرف عن المسار، فهي ليست مفيدة جدًا," لاحظ أحد المستخدمين. يشير هذا إلى أنه مع السياقات الضخمة، قد ينحرف Claude أو يبدأ في الثرثرة، مما يتطلب توجيهًا دقيقًا للحفاظ عليه في المهمة. إنها قيد متأصل في دفع السياق إلى أقصى الحدود – يحتفظ النموذج بالكثير ولكنه أحيانًا "ينسى" أي التفاصيل هي الأكثر صلة، مما يؤدي إلى هلوسات طفيفة أو انحرافات خارج الموضوع.

  • التنسيق غير المتسق أو الطاعة للتعليمات: في المقارنات الجانبية، وجد بعض المستخدمين أن Claude أقل قابلية للتنبؤ في كيفية اتباعه لتوجيهات معينة. على سبيل المثال، يوصف Claude بأنه "أكثر إنسانية في التفاعلات. ولكنه يتبع رسائل النظام بشكل أقل صرامة.". هذا يعني إذا أعطيته تنسيقًا ثابتًا ليتبعه أو شخصية صارمة جدًا، فقد ينحرف Claude أكثر مما يفعل ChatGPT. المطورون الذين يعتمدون على المخرجات الحتمية (مثل تنسيقات JSON أو الأنماط المحددة) يشعرون أحيانًا بالإحباط إذا قدم Claude تعليقًا إضافيًا أو لم يلتزم بدقة بالقالب.

  • قيود المحتوى والرفض: بينما لا يتم انتقادها بشكل متكرر مثل ChatGPT، فإن مرشحات الأمان في Claude تظهر. صممت Anthropic Claude مع التركيز بشكل كبير على الذكاء الاصطناعي الدستوري (حيث يتبع الذكاء الاصطناعي نفسه المبادئ الأخلاقية). يجد المستخدمون عمومًا أن Claude مستعد لمناقشة مجموعة واسعة من المواضيع، ولكن هناك حالات يرفض فيها Claude الطلبات التي قد يسمح بها ChatGPT. على سبيل المثال، لاحظ أحد مستخدمي Reddit "لدى ChatGPT قيود أخلاقية أقل... سيشرح أي الأقنعة الغازية أفضل لأي ظروف بينما سيرفض Claude". يشير هذا إلى أن Claude قد يكون أكثر صرامة بشأن بعض النصائح "الحساسة" (ربما يعاملها كإرشادات خطيرة محتملة). حاول مستخدم آخر سيناريو لعب دور مرح ("تظاهر بأنك اختطفت من قبل كائنات فضائية") الذي رفضه Claude، بينما كان Gemini وChatGPT يتفاعلان. لذا، لدى Claude مرشحات يمكن أن تفاجئ المستخدمين أحيانًا الذين يتوقعون أن يكون أكثر تسامحًا.

  • نقص القدرات متعددة الوسائط: على عكس ChatGPT (الذي، بحلول أواخر 2023، اكتسب فهم الصور مع GPT-4 Vision)، فإن Claude حاليًا نصي فقط. يلاحظ مستخدمو Reddit أن Claude لا يمكنه تحليل الصور أو تصفح الويب مباشرةً. هذا ليس بالضبط "نقطة ألم" (لم تعلن Anthropic عن هذه الميزات)، ولكنه قيد نسبيًا مقارنة بالمنافسين. المستخدمون الذين يريدون من الذكاء الاصطناعي تفسير مخطط أو لقطة شاشة لا يمكنهم استخدام Claude لذلك، بينما قد يتعامل ChatGPT أو Gemini مع ذلك. وبالمثل، يتطلب أي استرجاع للمعلومات الحالية استخدام Claude عبر أداة طرف ثالث (مثل Poe أو تكامل محرك البحث)، حيث لا يمتلك Claude وضع تصفح رسمي في هذا الوقت.

  • مشكلات استقرار طفيفة: أبلغ بعض المستخدمين عن Claude أحيانًا يكون متكررًا أو عالقًا في حلقات لبعض المطالبات (على الرغم من أن هذا أقل شيوعًا من بعض النماذج الأصغر). أيضًا، كانت الإصدارات السابقة من Claude أحيانًا تنهي الاستجابات قبل الأوان أو تستغرق وقتًا طويلاً مع المخرجات الكبيرة، مما يمكن اعتباره إزعاجات طفيفة، على الرغم من أن Claude 2 قد تحسن في السرعة.

الميزات أو التحسينات المطلوبة بشكل متكرر

  • حدود استخدام أعلى أو قابلة للتعديل: غالبًا ما يطلب عشاق Claude على Reddit من Anthropic رفع حدود المحادثة. يرغبون في استخدام سياق 100k إلى أقصى حد دون الوصول إلى توقف مصطنع. يقترح البعض أن حتى Claude Pro المدفوع يجب أن يسمح بشكل كبير بمزيد من الرموز يوميًا. طرح آخرون فكرة "وضع سياق 100k الممتد" اختياريًا – على سبيل المثال، "يجب أن يكون لدى Claude وضع سياق 100k مع ضعف حدود الاستخدام" – حيث يمكن أن يقدم الاشتراك وصولاً موسعًا للمستخدمين الثقيلين. باختصار، هناك طلب على خطة تنافس استخدام ChatGPT غير المحدود (أو ذو الحد العالي) للمشتركين.

  • تحسين التنقل في السياق الطويل: بينما يعد امتلاك 100k رمزًا أمرًا رائدًا، يريد المستخدمون أن يستفيد Claude بشكل أفضل من هذا السياق. سيكون أحد التحسينات هو تحسين كيفية تحديد Claude للأولويات حتى يظل في المسار. يمكن أن تعمل Anthropic على التزام النموذج بالمطالبات عندما يكون المطلب ضخمًا. تشير مناقشات Reddit إلى تقنيات مثل السماح للمستخدم "بتثبيت" تعليمات معينة حتى لا يتم تخفيفها في سياق كبير. يمكن أن تساعد أي أدوات لتقسيم أو تلخيص أجزاء من المدخلات أيضًا Claude في التعامل مع المدخلات الكبيرة بشكل أكثر اتساقًا. باختصار، يحب المستخدمون إمكانية تغذية كتاب كامل لـ Claude – يريدون فقط أن يظل حادًا طوال الوقت.

  • المكونات الإضافية أو التصفح عبر الويب: اعتاد العديد من مستخدمي ChatGPT على المكونات الإضافية (على سبيل المثال، التصفح، تنفيذ الكود، إلخ) ويعبرون عن اهتمامهم بأن يكون لدى Claude نفس القابلية للتمديد. طلب شائع هو أن يكون لدى Claude وظيفة بحث/تصفح عبر الويب رسمية، حتى يتمكن من جلب المعلومات المحدثة عند الطلب. حاليًا، تكون معرفة Claude ثابتة في الغالب (بيانات التدريب حتى أوائل 2023، مع بعض التحديثات). إذا كان Claude يمكنه استعلام الويب، فسوف يخفف من هذا القيد. وبالمثل، يمكن أن يوسع نظام المكونات الإضافية حيث يمكن لـ Claude استخدام أدوات الطرف الثالث (مثل الآلات الحاسبة أو موصلات قواعد البيانات) من فائدته للمستخدمين الأقوياء. تظل هذه ميزة يفتقر إليها Claude، وغالبًا ما يذكر مستخدمو Reddit كيف يمنح نظام المكونات الإضافية في ChatGPT ميزة في مهام معينة.

  • المدخلات متعددة الوسائط (الصور أو الصوت): تساءل بعض المستخدمين أيضًا عما إذا كان Claude سيدعم مدخلات الصور أو يولد الصور. تتمتع Google’s Gemini وOpenAI’s GPT-4 بقدرات متعددة الوسائط، لذا للبقاء في المنافسة، يتوقع المستخدمون أن تستكشف Anthropic هذا. طلب متكرر هو: "هل يمكنني تحميل ملف PDF أو صورة لتحليلها بواسطة Claude؟" حاليًا الإجابة هي لا (بخلاف الحلول البديلة مثل تحويل الصور إلى نص في مكان آخر). حتى السماح فقط بتحويل الصورة إلى نص (OCR والوصف) سيلبي العديد من الذين يريدون مساعدًا شاملاً. هذا في قائمة الأمنيات، على الرغم من أن Anthropic لم تعلن عن أي شيء مشابه حتى أوائل 2025.

  • التخصيص أو الضبط الدقيق: يطلب المستخدمون المتقدمون والشركات أحيانًا ما إذا كان بإمكانهم ضبط Claude على بياناتهم الخاصة أو الحصول على إصدارات مخصصة. تقدم OpenAI الضبط الدقيق لبعض النماذج (ليس GPT-4 بعد، ولكن لـ GPT-3.5). أصدرت Anthropic واجهة ضبط دقيقة لـ Claude 1.3 في وقت سابق، لكنها ليست معلنة على نطاق واسع لـ Claude 2. استفسر مستخدمو Reddit عن إمكانية تدريب Claude على معرفة الشركة أو أسلوب الكتابة الشخصي. سيكون من المرحب به طريقة أسهل للقيام بذلك (بخلاف حقن المطالبات في كل مرة)، حيث يمكن أن يحول Claude إلى مساعد شخصي يتذكر قاعدة معرفية أو شخصية محددة.

  • توفر أوسع: يطلب المستخدمون غير الأمريكيين بشكل متكرر أن يتم إطلاق Claude رسميًا في بلدانهم. تنشر منشورات من كندا وأوروبا والهند، إلخ، تسأل متى يمكنهم استخدام موقع Claude دون VPN أو متى سيتم فتح Claude API بشكل أوسع. كانت Anthropic حذرة، لكن الطلب عالمي – من المحتمل أن يكون تحسينًا في نظر الكثيرين هو ببساطة "السماح للمزيد منا باستخدامه." أدى التوسع التدريجي للشركة في الوصول إلى معالجة هذا جزئيًا.

الاحتياجات غير الملباة أو الفئات غير المخدومة

  • قاعدة المستخدمين الدولية: كما ذُكر، لفترة طويلة كانت قاعدة مستخدمي Claude الأساسية محدودة بالجغرافيا. ترك هذا العديد من المستخدمين المحتملين غير مخدومين. على سبيل المثال، مطور في ألمانيا مهتم بسياق Claude 100k لم يكن لديه طريقة رسمية لاستخدامه. بينما توجد حلول بديلة (منصات الطرف الثالث، أو VPN + التحقق من الهاتف في بلد مدعوم)، كانت هذه الحواجز تعني أن المستخدمين الدوليين العاديين كانوا فعليًا مغلقين. على النقيض من ذلك، يتوفر ChatGPT في معظم البلدان. لذا، فإن المتحدثين باللغة الإنجليزية غير الأمريكيين وخاصة غير المتحدثين باللغة الإنجليزية كانوا غير مخدومين بسبب طرح Claude المحدود. قد لا يزالون يعتمدون على ChatGPT أو النماذج المحلية ببساطة بسبب قضايا الوصول.

  • المستخدمون الذين يحتاجون إلى تنسيق مخرجات صارم: كما ذكر، يأخذ Claude أحيانًا حريات في الاستجابات. المستخدمون الذين يحتاجون إلى مخرجات منظمة للغاية (مثل JSON لتطبيق، أو إجابة تتبع تنسيقًا دقيقًا) قد يجدون Claude أقل موثوقية لذلك من ChatGPT. هؤلاء المستخدمون – غالبًا المطورون الذين يدمجون الذكاء الاصطناعي في نظام – هم شريحة يمكن أن تكون أفضل خدمة إذا سمح Claude بوضع "صارم" أو حسن التزامه بالتعليمات. قد يتجنبون Claude حاليًا لمثل هذه المهام، متمسكين بالنماذج المعروفة باتباع التنسيقات بشكل أكثر صرامة.

  • المستخدمون العاديون للأسئلة والأجوبة (مقابل المستخدمين الإبداعيين): غالبًا ما يُشاد بـ Claude للمهام الإبداعية – فهو ينتج نثرًا متدفقًا يشبه الإنسان ومقالات مدروسة. ومع ذلك، لاحظ بعض المستخدمين على Reddit أنه للأسئلة والإجابات المباشرة أو الاستفسارات الواقعية، يقدم Claude أحيانًا إجابات مطولة حيث يكون الإيجاز كافيًا. المستخدم الذي قارن بين ChatGPT وClaude قال إن ChatGPT يميل إلى أن يكون موجزًا ونقطيًا، بينما يقدم Claude المزيد من السرد بشكل افتراضي. المستخدمون الذين يريدون إجابة واقعية سريعة (مثل "ما هي عاصمة X وعدد سكانها؟") قد يشعرون أن Claude غير مباشر بعض الشيء. هؤلاء المستخدمون يخدمهم بشكل أفضل شيء مثل بحث دقيق أو نموذج موجز. يمكن لـ Claude القيام بذلك إذا طُلب منه، ولكن قد لا يتطابق أسلوبه مع توقعات الأسئلة والأجوبة الموجزة، مما يعني أن هذه الشريحة قد تنزلق إلى أدوات أخرى (مثل Bing Chat أو Google).

  • المستخدمون الحساسون للأمان: على العكس من ذلك، قد يعتبر بعض المستخدمين الذين يتطلبون التزامًا دقيقًا جدًا بالأمان (على سبيل المثال، المعلمون الذين يستخدمون الذكاء الاصطناعي مع الطلاب، أو العملاء المؤسسيون الذين يريدون صفر مخاطر من المخرجات المارقة) أن توافق Claude ميزة، ولكن نظرًا لأن ChatGPT متوافق أيضًا إلى حد كبير ولديه المزيد من الميزات المؤسسية، قد لا يختار هؤلاء المستخدمون Claude بشكل خاص. إنها شريحة صغيرة، ولكن يمكن القول إن Claude لم يلتقطها بشكل مميز بعد. قد يكونون غير مخدومين في أنهم لا يملكون طريقة سهلة لزيادة ضمانات Claude أو رؤية "سلسلة التفكير" الخاصة به (التي تمتلكها Anthropic داخليًا عبر نهج الذكاء الاصطناعي الدستوري، ولكن المستخدمين النهائيين لا يتفاعلون مباشرة مع ذلك باستثناء ملاحظة نغمة Claude المهذبة عمومًا).

  • المتحدثون بغير الإنجليزية (جودة المخرجات): تم تدريب Claude في المقام الأول على اللغة الإنجليزية (مثل معظم LLMs الكبيرة). اختبره بعض المستخدمين بلغات أخرى؛ يمكنه الرد في العديد منها، ولكن قد تختلف الجودة. إذا أراد، على سبيل المثال، مستخدم إجابة دقيقة جدًا باللغة الفرنسية أو الهندية، فمن الممكن أن تكون قدرات Claude ليست مضبوطة بدقة هناك مثل ChatGPT (أظهر GPT-4 أداءً متعدد اللغات قويًا، غالبًا أعلى من النماذج الأخرى في معايير معينة). قد يجد المستخدمون الذين يتحدثون بشكل أساسي بلغات غير الإنجليزية أن طلاقة Claude أو دقته أضعف قليلاً. هذه الشريحة غير مخدومة إلى حد ما ببساطة لأن Anthropic لم تسلط الضوء على التدريب متعدد اللغات كأولوية علنية.

الاختلافات في التصور حسب نوع المستخدم

  • المطورون/المستخدمون التقنيون: أشاد المطورون على Reddit بشكل متزايد بـ Claude، خاصة Claude 2 / Claude 3.5، لمهام البرمجة. كان التحول في التصور في أواخر 2024 ملحوظًا: بدأ العديد من المطورين في تفضيل Claude على ChatGPT للمساعدة في البرمجة. يستشهدون بأداء "مذهل في البرمجة" والقدرة على التعامل مع قواعد الأكواد الكبيرة في وقت واحد. على سبيل المثال، كتب أحد المستخدمين "Claude Sonnet 3.5 أفضل للعمل مع الكود (تحليل، توليد) [من ChatGPT]." يقدر المطورون أن Claude يمكنه أخذ جزء كبير من كود المشروع أو السجلات وإنتاج تحليلات أو تحسينات متماسكة، بفضل سياقه الضخم. ومع ذلك، يلاحظون أيضًا غرائبه – مثل إدخال المزيد من الحشو الحواري أحيانًا أو عدم اتباع المواصفات حرفيًا. على التوازن، يحتفظ العديد من المطورين بكل من ChatGPT وClaude في متناول اليد: واحد للمنطق الصارم خطوة بخطوة (ChatGPT) وواحد للسياق الواسع والفهم المتعاطف (Claude). من الدال أن أحد المعلقين قال "إذا كان علي اختيار واحد فسأختار Claude" بعد مقارنة الاثنين يوميًا. يشير هذا إلى تصور إيجابي جدًا بين المستخدمين المتقدمين، خاصة لحالات الاستخدام مثل العصف الذهني، مراجعة الكود، أو الاقتراحات المعمارية. الشكوى الشائعة الوحيدة من المطورين هي الوصول إلى حدود استخدام Claude عندما يحاولون دفعه بقوة (مثل تغذية مطلب 50K-token لتحليل مستودع كامل). باختصار، يرى المطورون Claude كأداة قوية للغاية – في بعض الحالات متفوقة على ChatGPT – مقيدة فقط بالتوافر وبعض عدم التنبؤ في التنسيق.

  • المستخدمون العاديون/غير التقنيين: غالبًا ما يعلق المستخدمون العاديون الذين جربوا Claude على مدى ودودته وبلاغته. يميل أسلوب Claude إلى أن يكون حواريًا، مهذبًا، ومفصلًا. لاحظ مستخدم جديد يقارنه بـ ChatGPT أن "Claude أكثر تعاطفًا، ويتبع نبرة حوارية... ChatGPT يميل إلى النقاط كثيرًا". تجعل هذه الدفء الشبيه بالإنسان Claude جذابًا للأشخاص الذين يستخدمونه للكتابة الإبداعية، النصائح، أو مجرد الدردشة للحصول على المعلومات. حتى أن البعض يجسد Claude على أنه يمتلك "شخصية" تتسم بالرحمة. كما يحب المستخدمون العاديون أن النسخة المجانية من Claude سمحت بالوصول إلى ما يعادل ذكاء GPT-4 دون اشتراك (على الأقل حتى حدود المعدل). على الجانب الآخر، يصطدم المستخدمون العاديون برفضات Claude في مواضيع معينة وقد لا يفهمون السبب (حيث سيصيغ Claude ذلك باعتذار ولكن بحزم). إذا طلب مستخدم عادي شيئًا حدوديًا وحصل على رفض من Claude، فقد يرونه أقل قدرة أو مقيدًا جدًا، دون إدراك أنه موقف سياسي. جانب آخر هو أن Claude يفتقر إلى الاعتراف بالاسم – قد لا يعرف العديد من المستخدمين العاديين حتى تجربته ما لم يكونوا متصلين بمجتمعات الذكاء الاصطناعي. أولئك الذين يجربون عمومًا يعلقون على أنه يشعر "مثل التحدث إلى إنسان" بطريقة جيدة. يميلون إلى أن يكونوا راضين جدًا عن قدرة Claude على التعامل مع الأسئلة المفتوحة أو الشخصية. لذا، فإن تصور المستخدم العادي إيجابي إلى حد كبير فيما يتعلق بـ جودة مخرجات Claude ونبرته، مع بعض الارتباك أو الإحباط حول توفره (الحاجة إلى استخدامه على تطبيق معين أو منطقة) ولحظات "لا يمكنني فعل ذلك" العرضية.

  • المستخدمون التجاريون/المحترفون: من الصعب بعض الشيء قياس تصورات الأعمال عن Claude من Reddit العام (حيث ينشر عدد أقل من المستخدمين المؤسسيين بالتفصيل)، ولكن تظهر بعض الاتجاهات. أولاً، وضعت Anthropic Claude كأكثر تركيزًا على الخصوصية ومستعدة لتوقيع اتفاقيات مؤسسية – وهذا يجذب الشركات التي تقلق بشأن البيانات مع OpenAI. في الواقع، تذكر بعض مناقشات Reddit Claude في سياق أدوات مثل Slack أو Notion، حيث يتم دمجه كمساعد. قد لا يدرك المحترفون الذين استخدموا تلك التكاملات حتى أن Claude هو المحرك، ولكن عندما يفعلون، يقارنونه بشكل إيجابي من حيث أسلوب الكتابة والقدرة على هضم الوثائق الكبيرة للشركات. على سبيل المثال، قد تغذي فريق تقريرًا ربع سنويًا طويلًا إلى Claude وتحصل على ملخص لائق – شيء سيكافح ChatGPT بسياقه الأصغر. ومع ذلك، يلاحظ المستخدمون التجاريون أيضًا نقص بعض ميزات النظام البيئي؛ على سبيل المثال، تقدم OpenAI تحكمًا في رسائل النظام، واستدعاء الوظائف، إلخ، في API الخاص بهم، والذي تدعمه Anthropic بشكل أكثر محدودية. علق مطور يعمل على حل تجاري أن Claude أكثر قابلية للتوجيه في المحادثات، بينما يميل ChatGPT إلى أن يكون أكثر صرامة... [لكن] ChatGPT لديه وصول إلى الويب الذي يمكن أن يكون مفيدًا جدًا. يشير هذا إلى أنه بالنسبة لمهام البحث أو استرجاع البيانات التي قد يحتاجها مستخدم الأعمال (مثل الذكاء التنافسي)، يمكن لـ ChatGPT جلب المعلومات مباشرة، بينما يتطلب Claude خطوة منفصلة. بشكل عام، يبدو أن المستخدمين التجاريين يرون Claude كذكاء اصطناعي كفء جدًا – في بعض الحالات أفضل للمهام التحليلية الداخلية – ولكن ربما ليس غنيًا بالميزات بعد للتكامل. التكلفة عامل آخر: تسعير Claude API وشروطه ليست علنية مثل OpenAI، وذكرت بعض الشركات الناشئة على Reddit عدم اليقين بشأن تسعير Claude أو استقراره. باختصار، يحترم المحترفون قدرات Claude (خاصة موثوقيته في اتباع التعليمات عالية المستوى وتلخيص المدخلات الكبيرة)، لكنهم يراقبون كيف يتطور من حيث التكامل والدعم والتوافر العالمي قبل الالتزام الكامل به على حساب ChatGPT الأكثر شهرة.


Google Gemini (Bard)

نقاط الألم والقيود الشائعة

  • استجابات غير دقيقة أو "غبية": ظهر سيل من التعليقات على Reddit عندما أطلقت Google ترقية Bard المدعومة من Gemini، كان الكثير منها سلبيًا. اشتكى المستخدمون من أن Gemini أداءه ضعيف في الأسئلة والأجوبة الأساسية مقارنة بـ ChatGPT. تقييم صريح بعنوان "رأي صادق 100% حول Google Gemini" قال: "إنه روبوت محادثة LLM مكسور وغير دقيق". سأل مستخدم آخر محبط: "كيف لا يزال Gemini سيئًا جدًا؟ عدد المرات التي أطلب فيها من Gemini شيئًا ويعطيني إما إجابات غير صحيحة أو غير مكتملة أمر سخيف". قارنوه جنبًا إلى جنب مع ChatGPT-4 ووجدوا أن ChatGPT أعطى "إجابة مثالية وصحيحة وفعالة في مرة واحدة،" بينما كان Gemini يثرثر ويتطلب مطالبات متعددة للوصول إلى إجابة نصف مرضية. في الأساس، شعر المستخدمون الأوائل أن Gemini كثيرًا ما يهلو أو يفوت النقطة من الأسئلة، مما يتطلب جهدًا مفرطًا في المطالبة لاستخراج المعلومات الصحيحة. كان هذا التناقض في الجودة خيبة أمل كبيرة بالنظر إلى الضجة حول Gemini.

  • الإسهاب المفرط والحشو: لاحظ العديد من المستخدمين أن Gemini (في شكل Bard الجديد) يميل إلى إنتاج إجابات مطولة لا تصل إلى النقطة. كما وصفها شخص واحد، "كان يثرثر... 3 فقرات من القمامة الذكاء الاصطناعي... حتى بعد ذلك، ذكر الإجابة في النهاية مدفونة في فقرات من القمامة". هذا تناقض صارخ مع ChatGPT، الذي غالبًا ما يقدم إجابات أكثر إيجازًا أو نقاطًا عند الاقتضاء. يصبح الإسهاب نقطة ألم عندما يضطر المستخدمون إلى غربلة الكثير من النص للحصول على حقيقة بسيطة. تكهن البعض أن Google قد ضبطته ليكون حواريًا أو "مفيدًا"، لكنه تجاوز الحد إلى الكثير من الشرح دون مضمون.

  • التكامل السيئ مع خدمات Google الخاصة: من المفترض أن يكون أحد نقاط البيع لمساعد الذكاء الاصطناعي من Google هو التكامل مع نظام Google البيئي (Gmail وDocs وDrive، إلخ). ومع ذلك، كانت تجارب المستخدمين المبكرة مخيبة للآمال للغاية في هذا الصدد. تنفيس مستخدم: "لا تجعلني أبدأ في عدم قدرته الكاملة تقريبًا على التكامل مع منتجات Google الخاصة التي من المفترض أن تكون 'ميزة' (التي يبدو أنه لا يعرف أنها لديه).". على سبيل المثال، كان الناس يحاولون طلب من Gemini (عبر Bard) تلخيص مستند Google أو صياغة بريد إلكتروني بناءً على بعض المعلومات – ميزات أعلنت عنها Google – وكان الروبوت يرد بأنه لا يمكنه الوصول إلى تلك البيانات. كتب مستخدم على r/GooglePixel: "في كل مرة أحاول فيها استخدام Gemini مع مستندات Google أو Drive الخاصة بي، يخبرني أنه لا يمكنه فعل أي شيء بها. ما الفائدة من وجود هذه الميزات التكاملية؟". يظهر هذا فجوة كبيرة بين القدرات الموعودة والأداء الفعلي، مما يترك المستخدمين يشعرون بأن "مساعد الذكاء الاصطناعي" لا يساعد كثيرًا داخل نظام Google البيئي.

  • الرفض والارتباك في القدرات: واجه المستخدمون أيضًا رفضات غريبة أو تناقضات من Gemini. لاحظ نفس مستخدم Reddit أن Gemini "يرفض القيام بأشياء بدون سبب، ينسى أنه يمكنه القيام بأشياء أخرى... في اليوم الآخر أخبرني أنه ليس لديه وصول إلى الإنترنت/البيانات الحية. ماذا.". يشير هذا إلى أن Gemini سي يرفض أحيانًا المهام التي يجب أن يكون قادرًا على القيام بها (مثل استرجاع المعلومات الحية، التي يتصل بها Bard) أو يقدم تصريحات غير صحيحة حول قدراته الخاصة. مثل هذه التجارب أعطت انطباعًا عن ذكاء اصطناعي ليس فقط أقل ذكاءً، ولكن أيضًا أقل موثوقية أو وعيًا ذاتيًا. تعليق مستخدم آخر الملون: "Gemini هو قمامة مطلقة. هل سبق لك أن مررت بلحظة حيث تريد فقط رفع يديك والقول، 'ماذا كانوا يفكرون؟'" يجسد الإحباط. في الأساس، جعلت مشكلات تكامل المنتج والاتساق في Gemini تشعر بأنها غير مكتملة للعديد من المتبنين الأوائل.

  • قدرات برمجة غير ملحوظة: بينما لم يتم مناقشتها على نطاق واسع مثل الأسئلة والأجوبة العامة، اختبر العديد من المستخدمين Gemini (Bard) في مهام البرمجة ووجدوه دون المستوى. في منتديات الذكاء الاصطناعي، كانت قدرات برمجة Gemini عادةً تُقيم أدنى من GPT-4 وحتى أدنى من Claude. على سبيل المثال، صرح أحد المستخدمين بوضوح أن "Claude 3.5 Sonnet أفضل بوضوح في البرمجة من ChatGPT 4o... Gemini هو قمامة مطلقة [في هذا السياق]". كان الإجماع هو أن Gemini يمكنه كتابة كود بسيط أو شرح الخوارزميات الأساسية، لكنه غالبًا ما يتعثر في المشكلات الأكثر تعقيدًا أو ينتج كودًا يحتوي على أخطاء. كما أن افتقاره إلى مجموعة أدوات مطور واسعة (على سبيل المثال، ليس لديه ما يعادل مفسر الكود أو استدعاء الوظائف القوي) يعني أيضًا أنه لم يكن الخيار الأول للمبرمجين. لذا، بينما لا يهتم كل مستخدم عادي بالكود، فإن هذا قيد لتلك الشريحة.

  • قيود الجهاز المحمول: تم طرح Gemini كجزء من مساعد Google على هواتف Pixel (بعلامة "مساعد مع Bard"). لاحظ بعض مستخدمي Pixel أن استخدامه كبديل للمساعد الصوتي كان به مشكلات. أحيانًا لم يلتقط مطالبات الصوت بدقة أو استغرق وقتًا طويلاً للرد مقارنة بالمساعد القديم من Google. كانت هناك أيضًا تعليقات حول الحاجة إلى الاشتراك وفقدان بعض ميزات المساعد الكلاسيكية. خلق هذا تصورًا أن تكامل Gemini على الأجهزة لم يكن جاهزًا بالكامل، مما ترك المستخدمين الأقوياء لنظام Google البيئي يشعرون بأنهم يجب أن يختاروا بين مساعد ذكي وواحد وظيفي.

الميزات أو التحسينات المطلوبة بشكل متكرر

  • تحسين الدقة والتفكير بشكل كبير: التحسين الأول الذي يريده المستخدمون لـ Gemini هو ببساطة أن يكون أكثر ذكاءً وموثوقية. توضح تعليقات Reddit أن Google تحتاج إلى سد الفجوة في جودة الإجابة. يتوقع المستخدمون أن يستفيد Gemini من الوصول الواسع للمعلومات في Google لتقديم إجابات واقعية ومباشرة، وليس متعرجة أو غير صحيحة. لذا فإن الطلبات (غالبًا ما تكون مصاغة بسخرية) تتلخص في: اجعلها جيدة مثل أو أفضل من GPT-4 في المعرفة العامة والتفكير. يتضمن ذلك تحسين التعامل مع الأسئلة المتابعة والمطالبات المعقدة. في الأساس، "إصلاح الدماغ" لـ Gemini – الاستفادة من تلك المزايا التدريبية متعددة الوسائط المزعومة حتى يتوقف عن فقدان التفاصيل الواضحة. من المحتمل أن Google سمعت هذا بصوت عالٍ وواضح: العديد من المنشورات تقارن إجابات محددة حيث تفوق ChatGPT وفشل Gemini، مما يخدم كتقارير غير رسمية للأخطاء للتحسين.

  • تحسين التكامل والوعي بالسياق: يريد المستخدمون أن يحقق Gemini وعد مساعد النظام البيئي السلس لـ Google. يعني هذا أنه يجب أن يتفاعل بشكل صحيح مع Gmail وCalendar وDocs وDrive، إلخ. إذا طلب مستخدم "تلخيص المستند الذي فتحته" أو "صياغة رد على آخر بريد إلكتروني من رئيسي"، يجب أن يقوم الذكاء الاصطناعي بذلك – ويفعله بأمان. حاليًا، الطلب هو أن تُمكن Google تلك الميزات وتجعل Gemini يتعرف فعليًا عندما يكون مثل هذا المهمة ممكنًا. تم الإعلان عن أن Bard يمكنه الاتصال بمحتوى المستخدم (بإذن)، لذا يطالب المستخدمون فعليًا Google "بتشغيل" أو إصلاح هذا التكامل. هذه ميزة رئيسية للمستخدمين التجاريين خاصة. بالإضافة إلى ذلك، على جبهة التصفح عبر الويب: يمكن لـ Bard (Gemini) البحث في الويب، ولكن بعض المستخدمين يريدون منه أن يقتبس المصادر بشكل أوضح أو يكون أكثر دقة في دمج الأخبار العاجلة. لذا فإن تحسين الطبيعة المتصلة لـ Gemini هو طلب متكرر.

  • عناصر تحكم في الإيجاز: بالنظر إلى شكاوى الإسهاب، يقترح بعض المستخدمين ميزة لتبديل أسلوب الاستجابة. على سبيل المثال، وضع "موجز" حيث يقدم Gemini إجابة قصيرة ومباشرة افتراضيًا، ما لم يُطلب منه التوسع. على العكس من ذلك، ربما وضع "مفصل" لأولئك الذين يريدون إجابات شاملة للغاية. يسمح ChatGPT ضمنيًا ببعض هذا من خلال مطلب المستخدم ("اجعلها موجزة")؛ مع Gemini، شعر المستخدمون أنه حتى عندما لم يطلبوا التفاصيل، كان يبالغ في الشرح. لذا فإن إعدادًا مدمجًا أو مجرد ضبط أفضل لإنتاج إجابات موجزة عند الاقتضاء سيكون تحسينًا مرحبًا به. في الأساس، ضبط قرص الإسهاب.

  • تكافؤ الميزات مع ChatGPT (البرمجة، المكونات الإضافية، إلخ): يقارن المستخدمون الأقوياء على Reddit الميزات صراحةً. يطلبون أن تقدم Google’s Gemini/Bard أشياء مثل صندوق رمل لتنفيذ الكود (مشابه لمفسر الكود في ChatGPT)، القدرة على تحميل الصور/ملفات PDF للتحليل (نظرًا لأن Gemini متعدد الوسائط، يريد المستخدمون فعليًا تغذيته بالصور المخصصة، وليس فقط أن يصف الصور المقدمة). ميزة أخرى مذكورة بشكل متكرر هي ذاكرة أفضل داخل المحادثة – بينما لدى Bard بعض الذاكرة عن التفاعلات السابقة، يريد المستخدمون أن يكون جيدًا مثل ChatGPT في الإشارة إلى السياق السابق، أو حتى أن يكون لديه تخزين محادثة دائم مثل تاريخ دردشة ChatGPT الذي يمكنك التمرير من خلاله وإعادة زيارته. في الأساس، يُطلب من Google اللحاق بجميع ميزات جودة الحياة التي يتمتع بها مستخدمو ChatGPT Plus: تاريخ الدردشة، نظام المكونات الإضافية (أو على الأقل تكاملات قوية مع الطرف الثالث)، مساعدة البرمجة، إلخ.

  • تحسينات التطبيق المحمول والصوت: طلب العديد من المستخدمين العاديين تطبيقًا محمولًا مخصصًا لـ Bard/Gemini (مشابه لتطبيق ChatGPT المحمول). الاعتماد على واجهة الويب أو فقط مساعد Pixel هو أمر محدود. يمكن أن يحسن تطبيق رسمي عبر iOS/Android مع إدخال الصوت، واستجابات التحدث (لإحساس مساعد حقيقي)، وتكامل محكم تجربة المستخدم بشكل كبير. إلى جانب ذلك، يريد مالكو Pixel أن يصبح المساعد مع Bard أسرع وأكثر وظيفية – في الأساس، يريدون أفضل ما في مساعد Google القديم (إجراءات سريعة ودقيقة) مجتمعة مع ذكاء Gemini. على سبيل المثال، أشياء مثل الاستمرار في السماح بأوامر الصوت الذكية "Hey Google" وليس فقط الردود الحوارية. يمكن أن تحسن Google وضع الصوت في Gemini ليحل محل المساعد القديم حقًا دون تراجع الميزات.

  • الشفافية والتحكم: طلب بعض المستخدمين مزيدًا من البصيرة في مصادر Bard أو طريقة لضبط أسلوبه. على سبيل المثال، إظهار النتيجة التي يسحب Bard المعلومات منها (للتحقق من الدقة) – شيء يفعله Bing Chat عن طريق الاستشهاد بالروابط. أيضًا، نظرًا لأن Bard ينتج أحيانًا معلومات خاطئة، يريد المستخدمون أن يكونوا قادرين على الإبلاغ عنها أو تصحيحها، ومن الناحية المثالية يجب أن يتعلم Bard من تلك الملاحظات بمرور الوقت. وجود آلية ملاحظات سهلة ("إبهام لأسفل – هذا غير صحيح لأن...") يؤدي إلى تحسين النموذج بسرعة سيعزز الثقة بأن Google تستمع. في الأساس، ميزات لجعل الذكاء الاصطناعي مساعدًا تعاونيًا أكثر من كونه صندوقًا أسود.

الاحتياجات غير الملباة أو الفئات غير المخدومة

  • المستخدمون الذين يبحثون عن مساعد شخصي موثوق: من المفارقات، أن المجموعة التي استهدفتها Google – الأشخاص الذين يريدون مساعدًا شخصيًا قويًا – يشعرون بأنهم غير مخدومين من قبل Gemini في شكله الحالي. توقع المتبنون الأوائل الذين قاموا بتشغيل المساعد الجديد المستند إلى Bard ترقية، لكن الكثيرين شعروا أنه كان تراجعًا من الناحية العملية. على سبيل المثال، إذا أراد شخص ما مساعدًا صوتيًا للرد بدقة على الأسئلة التافهة، وتعيين التذكيرات، والتحكم في الأجهزة، ودمج المعلومات من حساباتهم، كافح Gemini. ترك هذا الفئة من المحترفين المشغولين أو عشاق الأدوات (الذين يعتمدون على المساعدين للإنتاجية) يشعرون بأن احتياجاتهم لم تُلبى. علق أحد المستخدمين أنهم سيفكرون في الدفع مقابل "المساعد مع Bard" من Pixel "إذا تجاوز [ذلك] مساعد Google", مما يعني أنه لم يفعل بعد. لذا فإن تلك الفئة لا تزال تنتظر مساعدًا ذكيًا ومفيدًا حقًا – سيقفزون عليه إذا تحسن Gemini.

  • المتحدثون بغير الإنجليزية / التوطين: عادةً ما تتمتع منتجات Google بتوطين ممتاز، ولكن من غير الواضح ما إذا كان Bard/Gemini قويًا بنفس القدر في جميع اللغات عند الإطلاق. أبلغ بعض المستخدمين الدوليين أن إجابات Bard بلغتهم الأم كانت أقل طلاقة أو فائدة، مما دفعهم للعودة إلى المنافسين المحليين. إذا كانت بيانات تدريب Gemini أو تحسينه تفضل الإنجليزية، فإن المستخدمين غير الناطقين بالإنجليزية غير مخدومين. قد يفضلون ChatGPT أو النماذج المحلية التي قامت بتحسين القدرات متعددة اللغات بشكل صريح. هذه مساحة يمكن أن تتفوق فيها Google تقليديًا (نظرًا لتقنيتها في الترجمة)، ولكن ملاحظات المستخدمين على ذلك نادرة – مما يشير على الأرجح إلى أن Gemini لم يدهش تلك المجتمعات بعد.

  • العملاء المؤسسيون (حتى الآن): لم تتبنى المنظمات الكبيرة Bard/Gemini على نطاق واسع بناءً على الدردشة العامة، غالبًا بسبب فجوات الثقة والقدرات. تحتاج المؤسسات إلى الاتساق، والاستشهادات، والتكامل مع سير العمل الخاص بهم (يتم دمج Office 365 بعمق مع تقنية OpenAI عبر MS Copilot، على سبيل المثال). لا يزال المكافئ من Google (Duet AI مع Gemini) يتطور. حتى يثبت Gemini/Bard أنه يمكنه صياغة رسائل البريد الإلكتروني بشكل موثوق، وإنشاء العروض التقديمية، أو تحليل البيانات في Google Sheets على مستوى يضاهي أو يتفوق على GPT-4، سيشعر المستخدمون المؤسسيون أن حل Google لا يلبي احتياجاتهم بالكامل. بعض المنشورات على r/Bard من المحترفين تدور حول "جربت Bard للمهام العملية، لم يكن جيدًا مثل ChatGPT، لذا سننتظر ونرى." يشير ذلك إلى أن المستخدمين المؤسسيين هم شريحة غير مخدومة حتى الآن – يريدون ذكاءً اصطناعيًا يناسب Google Workspace ويعزز الإنتاجية بالفعل دون الحاجة إلى التحقق المستمر من المخرجات.

  • المستخدمون في نظام Google البيئي الذين يفضلون الحلول الشاملة: هناك شريحة من المستخدمين الذين يستخدمون Google لكل شيء (البحث، البريد الإلكتروني، المستندات) و*سيستخدمون بسعادة ذكاءً اصطناعيًا من Google لجميع احتياجاتهم في الدردشة – إذا كان جيدًا. حاليًا، يتم تقديم هؤلاء المستخدمين بشكل غير كامل لأنهم ينتهي بهم الأمر باستخدام ChatGPT لأشياء معينة وBard لأخرى. قد يطرحون أسئلة واقعية على ChatGPT لأنهم يثقون في جودة إجاباته أكثر، ولكن يستخدمون Bard لمحاولات التكامل أو التصفح. تلك التجربة المنقسمة ليست مثالية. يريد هؤلاء المستخدمون حقًا البقاء في تطبيق/مساعد واحد. إذا تحسن Gemini، فسوف يتجمعون حوله، ولكن حتى ذلك الحين، لم يتم تلبية حالتهم الاستخدامية "مساعد واحد ليحكمهم جميعًا".

  • المطورون/علماء البيانات على Google Cloud: أصدرت Google نماذج Gemini عبر منصة Vertex AI للمطورين. ومع ذلك، أشارت التقارير والمعايير المبكرة إلى أن Gemini (خاصة النموذج المتاح "Gemini Pro") لم يكن يتفوق على GPT-4. المطورون الذين يفضلون Google Cloud لخدمات الذكاء الاصطناعي هم بالتالي غير مخدومين قليلاً من حيث جودة النموذج – إما أن يقبلوا نموذجًا أقل قليلاً أو يدمجوا API الخاص بـ OpenAI بشكل منفصل. هذه الشريحة من المطورين المؤسسيين جائعة لنموذج Google قوي حتى يتمكنوا من الاحتفاظ بكل شيء في حزمة واحدة. حتى يتفوق أداء Gemini بوضوح في بعض المجالات أو يقدم التسعير سببًا مقنعًا، فإنه لا يخدم احتياجات هذه المجموعة بشكل كامل من حيث التنافسية.

الاختلافات في التصور حسب نوع المستخدم

  • المطورون/عشاق التكنولوجيا: اقترب المستخدمون التقنيون من Gemini بتوقعات عالية (إنها Google، بعد كل شيء). تدهورت تصوراتهم بسرعة بعد الاختبار العملي. أجرى العديد من المطورين على Reddit معايير أو أسئلتهم المفضلة الصعبة عبر Gemini ووجدوا أنه يتخلف. صرح أحد المبرمجين بصراحة، "Gemini هو قمامة مطلقة مثلما كان Llama 3.0"، مما يشير إلى أنهم يصنفونه حتى أقل من بعض النماذج المفتوحة. المطورون حساسون بشكل خاص للأخطاء المنطقية والإسهاب. لذا عندما قدم Gemini إجابات مطولة ولكن غير صحيحة، فقد المصداقية بسرعة. من ناحية أخرى، يدرك المطورون إمكانات Google؛ يحتفظ البعض بالأمل في أن "مع المزيد من الضبط الدقيق، سيتحسن Gemini" ويعيدون اختباره دوريًا بعد التحديثات. في الوقت الحالي، ومع ذلك، يرى معظم المطورين أنه أقل من GPT-4 في جميع المهام الجادة تقريبًا (البرمجة، حل المشكلات المعقدة). يقدرون بعض الأشياء: على سبيل المثال، لدى Gemini وصول إلى المعلومات في الوقت الفعلي (عبر بحث Google) دون الحاجة إلى مكون إضافي، وهو مفيد للاستفسارات المحدثة. قد يستخدم المطور Bard لشيء مثل "البحث وتلخيص أحدث الأوراق حول X"، حيث يمكنه اقتباس بيانات الويب. ولكن بالنسبة للتفكير الذاتي، يميلون نحو النماذج الأخرى. باختصار، يرى عشاق التكنولوجيا Gemini كمشروع واعد قيد التقدم الذي حاليًا يشعر بأنه جيل متأخر. لم يكسب ثقتهم الكاملة، وغالبًا ما ينشرون مقارنات جنبًا إلى جنب تسلط الضوء على أخطائه لتحفيز Google على تحسينه.

  • المستخدمون العاديون/اليوميون: كان لدى المستخدمين العاديين، بما في ذلك أولئك الذين حصلوا على الوصول إلى Bard الجديد على هواتفهم أو عبر الويب، مشاعر مختلطة. اقترب العديد من المستخدمين العاديين في البداية من Bard (Gemini) لأنه مجاني وسهل الوصول إليه بحساب Google، على عكس GPT-4 الذي كان محجوبًا. يبلغ بعض المستخدمين العاديين عن تجارب لائقة للاستخدامات البسيطة: على سبيل المثال، قدم أحد مستخدمي Reddit في r/Bard مراجعة إيجابية مشيرًا إلى أن Gemini ساعدهم في أشياء مثل مراجعة الوثائق القانونية، وكتابة النصوص، وحتى حالة استخدام ممتعة لتحديد أحجام الملابس من صورة. قالوا "كان Gemini مصدرًا قيمًا للإجابة على أسئلتي... معلومات محدثة... لقد أصبحت معتادًا جدًا على الإصدار المدفوع لدرجة أنني لا أستطيع تذكر كيف يعمل الإصدار المجاني." – مما يشير إلى أن بعض المستخدمين العاديين الذين استثمروا الوقت (والمال) في Bard Advanced وجدوه مفيدًا في الحياة اليومية. يميل هؤلاء المستخدمون إلى استخدامه للمساعدة العملية واليومية وقد لا يدفعون النموذج إلى حدوده. ومع ذلك، كان العديد من المستخدمين العاديين الآخرين (خاصة أولئك الذين جربوا أيضًا ChatGPT) محبطين. وجد الأشخاص العاديون الذين يطلبون أشياء مثل نصائح السفر، أو الأسئلة التافهة، أو المساعدة في مهمة أن إجابات Bard أقل وضوحًا أو فائدة. التصور هنا منقسم: المستخدمون المخلصون لعلامة Google التجارية مقابل أولئك الذين أفسدهم ChatGPT بالفعل. المجموعة الأولى، إذا لم يستخدموا ChatGPT كثيرًا، يجدون أحيانًا Bard/Gemini "جيدًا جدًا" لاحتياجاتهم ويقدرون أنه متكامل مع البحث ومجاني. المجموعة الثانية تقارن دائمًا تقريبًا وتجد Gemini غير كافٍ. قد يقولون، "لماذا أستخدم Bard عندما يكون ChatGPT أفضل بنسبة 90% من الوقت؟". لذا يعتمد تصور المستخدم العادي حقًا على إطارهم المرجعي السابق. قد يقيم أولئك الجدد على مساعدي الذكاء الاصطناعي Gemini كجدة مفيدة؛ أولئك الذين لديهم خبرة مع المنافسة يرونه كخيبة أمل "لا يزال سيئًا جدًا" ويحتاج إلى التحسين.

  • المستخدمون التجاريون/المحترفون: جرب العديد من المحترفين Bard عندما أطلق مع تكامل Google Workspace (Duet AI). التصور بين هذه المجموعة هو الشك الحذر. من ناحية، يثقون في وعود Google المؤسسية بشأن خصوصية البيانات والتكامل (على سبيل المثال، تحرير المستندات عبر الذكاء الاصطناعي، تلخيص الاجتماعات من دعوات التقويم، إلخ). من ناحية أخرى، أظهرت الاختبارات المبكرة غالبًا أن Gemini يرتكب أخطاء واقعية أو يقدم مخرجات عامة، وهو ليس ملهمًا للثقة للاستخدام التجاري. على سبيل المثال، قد يطلب محترف من Bard صياغة تقرير للعميل – إذا أدخل Bard بيانات غير صحيحة أو رؤى ضعيفة، فقد يكون أكثر إزعاجًا من المساعدة. لذلك، يميل المستخدمون المحترفون إلى تجربة Bard في المهام غير الحرجة ولكن لا يزالون يعتمدون على GPT-4 أو Claude للمخرجات المهمة. هناك أيضًا تصور أن Google كانت تلعب اللحاق بالركب: رأى الكثيرون Bard على أنه "غير جاهز للعرض" وقرروا الانتظار. يوجد بعض التصور الإيجابي في مجالات مثل استفسارات البيانات في الوقت الفعلي – على سبيل المثال، لاحظ محلل مالي على Reddit أن Bard يمكنه سحب معلومات السوق الأخيرة بفضل بحث Google، وهو ما لا يمكن لـ ChatGPT القيام به إلا إذا تم تمكين المكونات الإضافية. لذا في المجالات التي تكون فيها البيانات الحالية هي المفتاح، رأى عدد قليل من المحترفين ميزة. فارق آخر: الأشخاص في نظام Google البيئي (على سبيل المثال، الشركات التي تستخدم Google Workspace حصريًا) لديهم وجهة نظر أكثر إيجابية قليلاً ببساطة لأن Bard/Gemini هو الخيار الذي يناسب بيئتهم. إنهم يشجعون على تحسينه بدلاً من التحول إلى نظام بيئي مختلف تمامًا. باختصار، يرى المستخدمون التجاريون Gemini كـ مفيد جدًا محتملًا (نظرًا لبيانات Google وتكامل الأدوات)، ولكن اعتبارًا من أوائل 2025، لم يكسب الثقة الكاملة. يرونه كالمنافس الجديد الذي لم يصل بعد" – يستحق المراقبة، ولكن ليس بعد الذهاب إلى المهام الحرجة. سمعة Google تشتري له بعض الصبر من هذا الحشد، ولكن ليس إلى الأبد؛ إذا لم يتحسن Gemini بشكل ملحوظ، فقد لا يتبناه المحترفون على نطاق واسع، متمسكين بحلول أخرى.


LLMs مفتوحة المصدر (مثل النماذج المستندة إلى LLaMA)

نقاط الألم والقيود الشائعة

  • متطلبات الأجهزة والإعداد: على عكس روبوتات المحادثة السحابية، تتطلب LLMs مفتوحة المصدر عادةً من المستخدمين تشغيلها على الأجهزة المحلية أو الخادم. يقدم هذا على الفور نقطة ألم: تحتاج العديد من النماذج (على سبيل المثال، نموذج LLaMA ذو 70 مليار معلمة) إلى وحدة معالجة رسومات قوية مع الكثير من VRAM لتعمل بسلاسة. كما وضعها أحد مستخدمي Reddit باختصار، "LLMs المحلية على معظم الأجهزة الاستهلاكية لن تكون لديها الدقة اللازمة لأي تطوير معقد." بالنسبة للشخص العادي الذي يمتلك فقط وحدة معالجة رسومات بسعة 8 جيجابايت أو 16 جيجابايت (أو مجرد وحدة معالجة مركزية)، يمكن أن يكون تشغيل نموذج عالي الجودة بطيئًا أو غير ممكن تمامًا. قد يلجأ المستخدمون إلى النماذج الأصغر التي تناسب، ولكن تلك غالبًا ما تنتج مخرجات ذات جودة أقل ("إجابات أكثر غباءً"). التعقيد في الإعداد هو قضية أخرى – تثبيت أوزان النموذج، إعداد البيئات مثل Oobabooga أو LangChain، إدارة مكتبات الترميز، إلخ، يمكن أن يكون مخيفًا لغير المطورين. حتى المستخدمين المهرة تقنيًا يصفونه بأنه متاعب لمواكبة إصدارات النموذج الجديدة، ومشكلات برامج تشغيل وحدة معالجة الرسومات، وهكذا. كان أحد المواضيع بعنوان "بجدية، كيف تستخدم LLMs المحلية فعليًا؟" حيث كان الناس يشاركون أن العديد من النماذج "إما أنها تؤدي بشكل ضعيف أو لا تعمل بسلاسة على أجهزتي", ويطلبون نصائح عملية.

  • أداء أقل من النماذج المغلقة المتطورة: حققت النماذج المفتوحة تقدمًا سريعًا، ولكن اعتبارًا من 2025 يلاحظ العديد من المستخدمين أنها لا تزال تتخلف عن النماذج الملكية الأعلى (GPT-4، Claude) في التفكير المعقد، البرمجة، والدقة الواقعية. مثال حي: قارن مستخدم على r/LocalLLaMA المخرجات بلغتهم الأم وقال "كل نموذج آخر جربته يفشل... لا يقتربون حتى [من GPT-4]. ChatGPT 4 مذهل تمامًا في الكتابة". يتردد هذا الشعور على نطاق واسع: بينما يمكن أن تكون النماذج المفتوحة الأصغر (مثل نموذج 13B أو 7B المحسن) مثيرة للإعجاب لحجمها، فإنها تكافح مع المهام التي تتطلب فهمًا عميقًا أو منطقًا متعدد الخطوات. حتى النماذج المفتوحة الأكبر (65B، 70B) التي تقترب من مستوى GPT-3.5 لا تزال يمكن أن تتعثر في نوع المشاكل الصعبة التي يتعامل معها GPT-4. يلاحظ المستخدمون المزيد من الهلوسات والأخطاء في النماذج المفتوحة، خاصة في المعرفة المتخصصة أو عندما تنحرف المطالبات قليلاً عن توزيع التدريب. لذا، فإن الفجوة في القدرة الخام هي نقطة ألم – يجب أن يخفف المرء التوقعات عند استخدام النماذج المحلية، مما يمكن أن يكون محبطًا لأولئك المعتادين على موثوقية ChatGPT.

  • حدود السياق المحدودة: تحتوي معظم LLMs مفتوحة المصدر تقليديًا على نوافذ سياق أصغر (2048 رمزًا، ربما 4k رمزًا) مقارنة بما تقدمه ChatGPT أو Claude. بعض التحسينات الجديدة والهياكل المعمارية تمدد هذا (على سبيل المثال، هناك إصدارات 8K أو 16K رمز من LLaMA-2، والبحث مثل MPT-7B كان لديه سياق 16K). ومع ذلك، فإن الاستخدام العملي للنماذج المفتوحة ذات السياق الطويل جدًا لا يزال في مراحله الأولى. هذا يعني أن مستخدمي النموذج المحلي يواجهون مشكلات ذاكرة مماثلة – ينسى النموذج الأجزاء السابقة من المحادثة أو النص، ما لم يقوموا بتنفيذ مخططات ذاكرة خارجية (مثل قواعد البيانات المتجهية للاسترجاع). في مناقشات Reddit، يذكر المستخدمون غالبًا الحاجة إلى تلخيص أو تقليص التاريخ يدويًا للبقاء ضمن الحدود، وهو أمر مرهق. هذا قيد ملحوظ خاصةً نظرًا لأن النماذج الملكية تدفع بطول السياق إلى أبعد من ذلك (مثل 100k لـ Claude).

  • نقص في ضبط التعليمات في بعض النماذج: بينما يتم ضبط العديد من النماذج المفتوحة على التعليمات (Alpaca، LLaMA-2-Chat، إلخ)، ليست جميعها مدربة بشكل صارم على RLHF مثل ChatGPT. يمكن أن يؤدي هذا إلى أن تكون النماذج المحلية أحيانًا أقل استجابة للتعليمات أو مطالبات النظام. على سبيل المثال، سيستمر نموذج LLaMA الخام في النص ويتجاهل تنسيق مطلب المستخدم تمامًا – يجب استخدام نسخة مضبوطة على الدردشة. حتى في ذلك الحين، فإن جودة بيانات الضبط مهمة. لاحظ بعض مستخدمي Reddit أن بعض نماذج التعليم إما رفضت بشكل مفرط (لأنها تم ضبطها بأمان شديد، على سبيل المثال، بعض دردشة Facebook LLaMA-2 سترد برفضات سياسية مشابهة لـ ChatGPT) أو أداؤها ضعيف (لم تتبع الاستعلام بدقة). شكوى مستخدم على GitHub حول CodeLlama-70B-instruct قالت إنها "مراقبة لدرجة أنها عديمة الفائدة"، مما يظهر الإحباط من أن نموذج مفتوح اعتمد نفس الصرامة دون بديل لإيقافها. لذا، اعتمادًا على النموذج المختار، قد يواجه المستخدمون إما نموذجًا فضفاضًا جدًا (ويعطي استمرارًا غير ذي صلة) أو واحدًا صارمًا/محميًا جدًا. الحصول على سلوك ضبط التعليمات المتوازن جيدًا غالبًا ما يتطلب تجربة تحسينات متعددة.

  • التجزئة والتغيير السريع: يتطور مشهد LLM مفتوح المصدر بسرعة كبيرة، مع ظهور نماذج وتقنيات جديدة (التكميم، تحسينات LoRA، إلخ) أسبوعيًا. بينما يكون ذلك مثيرًا، فإنه يمثل نقطة ألم للمستخدمين الذين لا يريدون تعديل إعداداتهم باستمرار. ما كان يعمل الشهر الماضي قد يكون قديمًا هذا الشهر. قارن أحد مستخدمي Reddit ذلك بشكل فكاهي بالغرب المتوحش، قائلاً إن المجتمع "يجد طرقًا 'لتزييفها' حتى تشعر بأنها مشابهة [لـ GPT-4]" ولكن غالبًا ما تكون هذه حلول مؤقتة. بالنسبة للمستخدم العادي، من المرهق حتى اختيار من بين عشرات أسماء النماذج (Vicuna، Alpaca، Mythomax، Mistral، إلخ)، كل منها مع إصدارات وفروع متعددة. بدون منصة موحدة واحدة، يعتمد المستخدمون على أدلة المجتمع – التي يمكن أن تكون مربكة – لتحديد النموذج الذي يناسب احتياجاتهم. هذه التجزئة في الأدوات وجودة النموذج هي نقطة ألم غير مباشرة: إنها ترفع حاجز الدخول وجهد الصيانة.

  • لا يوجد دعم رسمي أو ضمانات: عندما يحدث خطأ ما مع LLM محلي (على سبيل المثال، ينتج النموذج محتوى مسيء أو يتعطل)، لا يوجد دعم عملاء للاتصال به. يعتمد المستخدمون على أنفسهم أو على مساعدة المجتمع. بالنسبة للهواة هذا جيد، ولكن للاستخدام المهني يمثل هذا نقص الدعم الرسمي حاجزًا. لاحظ بعض مستخدمي Reddit الذين يعملون في الشركات أنه بينما يرغبون في الخصوصية لنموذج مفتوح، فإنهم قلقون بشأن من يلجأون إليه إذا تعطل النموذج أو إذا كانوا بحاجة إلى تحديثات. في الأساس، استخدام المصدر المفتوح هو DIY – كل من القوة والضعف.

الميزات أو التحسينات المطلوبة بشكل متكرر

  • كفاءة أفضل (التكميم والتحسين): يركز المجتمع بشكل كبير (وبالتالي طلب شائع) على جعل النماذج الكبيرة تعمل على أجهزة أصغر. ينتظر المستخدمون بفارغ الصبر تقنيات تسمح لنموذج 70B بالعمل بسلاسة كنموذج 7B. هناك بالفعل تكميم 4 بت أو 8 بت، وغالبًا ما تناقش المواضيع طرقًا جديدة مثل AWQ أو محولات تشبه RNN. استشهد أحد المستخدمين بالبحث حيث يمكن أن يحافظ التكميم المحسن على الجودة عند دقة بت أقل. الرغبة هي أساسًا: "دعني أشغل نموذجًا بمستوى GPT-4 على جهاز الكمبيوتر الخاص بي دون تأخير." يتم الاحتفال بكل اختراق يقترب (مثل الهياكل المعمارية المحسنة للمحول أو إزاحة وحدة معالجة الرسومات إلى وحدة المعالجة المركزية). لذا، فإن الطلبات على أدوات أفضل (مثل الجيل التالي من llama.cpp أو المسرعات الأخرى) شائعة – أي شيء لتقليل حاجز الأجهزة.

  • نماذج أكبر وأفضل (سد فجوة الجودة): يدفع المجتمع باستمرار للحصول على نماذج مفتوحة جديدة متطورة. يشعر المستخدمون بالحماس حول المشاريع مثل LLaMA 3 (إذا/عندما تصدر Meta واحدة) أو التعاونات التي يمكن أن تنتج نموذجًا مفتوح

التوازن الكبير في خصوصية الذكاء الاصطناعي: كيف تتنقل الشركات العالمية في المشهد الجديد للذكاء الاصطناعي

· 4 دقائق قراءة
Lark Birdy
Chief Bird Officer

يحدث تحول غير متوقع في عالم تنظيم الذكاء الاصطناعي: الشركات التقليدية، وليس فقط عمالقة التكنولوجيا، تجد نفسها في قلب النقاش الأوروبي حول خصوصية الذكاء الاصطناعي. بينما تركز العناوين غالبًا على شركات مثل ميتا وجوجل، فإن القصة الأكثر دلالة هي كيف تتنقل الشركات العالمية التقليدية في المشهد المعقد لنشر الذكاء الاصطناعي وخصوصية البيانات.

AI Privacy Balancing Act

الوضع الطبيعي الجديد في تنظيم الذكاء الاصطناعي

برزت لجنة حماية البيانات الأيرلندية (DPC) كأكثر الجهات التنظيمية تأثيرًا في خصوصية الذكاء الاصطناعي في أوروبا، حيث تمتلك قوة استثنائية من خلال اللائحة العامة لحماية البيانات (GDPR) في الاتحاد الأوروبي. باعتبارها السلطة الإشرافية الرئيسية لمعظم شركات التكنولوجيا الكبرى التي لديها مقرات أوروبية في دبلن، فإن قرارات DPC تؤثر على المشهد التكنولوجي العالمي. بموجب آلية المتجر الواحد في اللائحة العامة لحماية البيانات، يمكن لقرارات DPC بشأن حماية البيانات أن تؤثر فعليًا على عمليات الشركات في جميع الدول الأعضاء الـ 27 في الاتحاد الأوروبي. مع غرامات تصل إلى 4% من الإيرادات السنوية العالمية أو 20 مليون يورو (أيهما أعلى)، فإن الرقابة المكثفة لـ DPC على نشرات الذكاء الاصطناعي ليست مجرد عقبة تنظيمية أخرى – إنها تعيد تشكيل كيفية تعامل الشركات العالمية مع تطوير الذكاء الاصطناعي. يمتد هذا التدقيق إلى ما وراء حماية البيانات التقليدية إلى أراض جديدة: كيف تقوم الشركات بتدريب ونشر نماذج الذكاء الاصطناعي، خاصة عند إعادة استخدام بيانات المستخدم للتعلم الآلي.

ما يجعل هذا مثيرًا للاهتمام بشكل خاص هو أن العديد من هذه الشركات ليست لاعبين تقليديين في مجال التكنولوجيا. إنها شركات تقليدية تستخدم الذكاء الاصطناعي لتحسين العمليات وتجربة العملاء – من خدمة العملاء إلى توصيات المنتجات. وهذا هو السبب بالضبط في أن قصتهم مهمة: إنهم يمثلون المستقبل حيث ستكون كل شركة شركة ذكاء اصطناعي.

تأثير ميتا

لفهم كيف وصلنا إلى هنا، نحتاج إلى النظر في التحديات التنظيمية الأخيرة لشركة ميتا. عندما أعلنت ميتا أنها تستخدم منشورات فيسبوك وإنستغرام العامة لتدريب نماذج الذكاء الاصطناعي، أحدثت سلسلة من ردود الفعل. كانت استجابة DPC سريعة وشديدة، حيث منعت ميتا فعليًا من تدريب نماذج الذكاء الاصطناعي على البيانات الأوروبية. تبعت البرازيل بسرعة.

لم يكن الأمر يتعلق بميتا فقط. لقد خلق سابقة جديدة: أي شركة تستخدم بيانات العملاء لتدريب الذكاء الاصطناعي، حتى البيانات العامة، تحتاج إلى الحذر. أيام "التحرك بسرعة وكسر الأشياء" انتهت، على الأقل عندما يتعلق الأمر بالذكاء الاصطناعي وبيانات المستخدم.

دليل الشركات الجديد للذكاء الاصطناعي

ما يضيء بشكل خاص حول كيفية استجابة الشركات العالمية هو إطارها الناشئ لتطوير الذكاء الاصطناعي المسؤول:

  1. إحاطة مسبقة للجهات التنظيمية: تقوم الشركات الآن بالتواصل بشكل استباقي مع الجهات التنظيمية قبل نشر ميزات الذكاء الاصطناعي المهمة. بينما قد يبطئ هذا التطوير، فإنه يخلق مسارًا مستدامًا للمستقبل.

  2. ضوابط المستخدم: تنفيذ آليات قوية للانسحاب يمنح المستخدمين التحكم في كيفية استخدام بياناتهم في تدريب الذكاء الاصطناعي.

  3. إزالة الهوية والحفاظ على الخصوصية: يتم استخدام حلول تقنية مثل الخصوصية التفاضلية وتقنيات إزالة الهوية المتقدمة لحماية بيانات المستخدم مع تمكين الابتكار في الذكاء الاصطناعي.

  4. التوثيق والتبرير: أصبح التوثيق الشامل وتقييم التأثيرات جزءًا قياسيًا من عملية التطوير، مما يخلق المساءلة والشفافية.

الطريق إلى الأمام

ما يجعلني متفائلًا هو أننا نشهد ظهور إطار عملي لتطوير الذكاء الاصطناعي المسؤول. نعم، هناك قيود وعمليات جديدة للتنقل فيها. لكن هذه الحواجز لا توقف الابتكار – إنها توجهه في اتجاه أكثر استدامة.

الشركات التي تتقن هذا ستتمتع بميزة تنافسية كبيرة. ستبني الثقة مع المستخدمين والجهات التنظيمية على حد سواء، مما يمكنها من نشر ميزات الذكاء الاصطناعي بشكل أسرع على المدى الطويل. تظهر تجارب المتبنين الأوائل أنه حتى تحت التدقيق التنظيمي المكثف، من الممكن الاستمرار في الابتكار مع الذكاء الاصطناعي مع احترام مخاوف الخصوصية.

ماذا يعني هذا للمستقبل

تمتد الآثار إلى ما هو أبعد من قطاع التكنولوجيا. مع انتشار الذكاء الاصطناعي، ستحتاج كل شركة إلى التعامل مع هذه القضايا. الشركات التي تزدهر ستكون تلك التي:

  • تبني اعتبارات الخصوصية في تطوير الذكاء الاصطناعي منذ اليوم الأول
  • تستثمر في حلول تقنية لحماية البيانات
  • تخلق عمليات شفافة للتحكم في المستخدم واستخدام البيانات
  • تحافظ على حوار مفتوح مع الجهات التنظيمية

الصورة الأكبر

ما يحدث هنا ليس فقط حول الامتثال أو التنظيم. إنه يتعلق ببناء أنظمة ذكاء اصطناعي يمكن للناس الوثوق بها. وهذا أمر حاسم لنجاح تكنولوجيا الذكاء الاصطناعي على المدى الطويل.

الشركات التي ترى في لوائح الخصوصية ليست عقبات ولكن كقيود تصميم ستكون هي التي تنجح في هذه الحقبة الجديدة. ستبني منتجات أفضل، تكسب المزيد من الثقة، وفي النهاية تخلق قيمة أكبر.

بالنسبة لأولئك الذين يقلقون من أن لوائح الخصوصية ستعيق ابتكار الذكاء الاصطناعي، تشير الأدلة المبكرة إلى خلاف ذلك. إنها تظهر لنا أنه مع النهج الصحيح، يمكننا الحصول على أنظمة ذكاء اصطناعي قوية وحماية قوية للخصوصية. هذا ليس فقط أخلاقيات جيدة – إنه عمل جيد.

البيئة: تقاطع الذكاء الاصطناعي و Web3 - تحليل نقدي لتكامل السوق الحالي

· 11 دقائق قراءة
Lark Birdy
Chief Bird Officer

مع تطور التكنولوجيا، قلة من الاتجاهات تكون تحويلية ومترابطة مثل الذكاء الاصطناعي (AI) و Web3. في السنوات الأخيرة، سعت الشركات الكبرى والشركات الناشئة على حد سواء إلى دمج هذه التقنيات لإعادة تشكيل ليس فقط النماذج المالية والحكومية ولكن أيضًا مشهد الإنتاج الإبداعي. في جوهره، يتحدى تكامل الذكاء الاصطناعي و Web3 الوضع الراهن، واعدًا بالكفاءة التشغيلية، وتعزيز الأمان، ونماذج الأعمال الجديدة التي تعيد القوة إلى أيدي المبدعين والمستخدمين. هذا التقرير يكسر تكاملات السوق الحالية، ويفحص دراسات حالة محورية، ويناقش كل من الفرص والتحديات لهذا التقارب. طوال الوقت، نحافظ على منظور مستقبلي، مدفوع بالبيانات، ولكنه نقدي سيروق لصناع القرار الأذكياء والناجحين والمبدعين المبتكرين.

البيئة: تقاطع الذكاء الاصطناعي و Web3 - تحليل نقدي لتكامل السوق الحالي

مقدمة

العصر الرقمي يتميز بإعادة الابتكار المستمرة. مع بزوغ شبكات اللامركزية (Web3) والتسارع السريع للذكاء الاصطناعي، يتم إعادة اختراع الطريقة التي نتفاعل بها مع التكنولوجيا بشكل جذري. وعد Web3 بالتحكم المستخدم والثقة المدعومة بالبلوكشين يجد نفسه الآن مكملًا بشكل فريد بقدرات التحليل والأتمتة للذكاء الاصطناعي. هذا التحالف ليس مجرد تكنولوجي—إنه ثقافي واقتصادي، يعيد تعريف الصناعات من التمويل والخدمات الاستهلاكية إلى الفن والتجارب الرقمية الغامرة.

في شبكة كوكو، حيث مهمتنا هي تغذية الثورة الإبداعية من خلال أدوات الذكاء الاصطناعي اللامركزية، يفتح هذا التكامل الأبواب لنظام بيئي نابض بالحياة للبناة والمبدعين. نحن نشهد تحولًا محيطًا حيث تصبح الإبداع مزيجًا من الفن والرمز والأتمتة الذكية—مما يمهد الطريق لمستقبل يمكن لأي شخص فيه تسخير القوة المغناطيسية للذكاء الاصطناعي اللامركزي. في هذا البيئة، الابتكارات مثل توليد الفن المدعوم بالذكاء الاصطناعي وموارد الحوسبة اللامركزية ليست فقط تحسن الكفاءة؛ بل تعيد تشكيل نسيج الثقافة الرقمية.

تقارب الذكاء الاصطناعي و Web3: المشاريع التعاونية وزخم السوق

المبادرات الرئيسية والشراكات الاستراتيجية

تسلط التطورات الأخيرة الضوء على اتجاه متسارع للتعاونات متعددة التخصصات:

  • شراكة دويتشه تيليكوم ومؤسسة Fetch.ai: في خطوة تجسد الدمج بين شركات الاتصالات التقليدية والشركات الناشئة في التكنولوجيا الجيل القادم، قامت شركة دويتشه تيليكوم التابعة MMS بالشراكة مع مؤسسة Fetch.ai في أوائل 2024. من خلال نشر وكلاء مستقلين مدعومين بالذكاء الاصطناعي كمحققين في شبكة لامركزية، كانوا يهدفون إلى تعزيز كفاءة الخدمة اللامركزية، الأمان، وقابلية التوسع. هذه المبادرة هي إشارة واضحة للسوق: دمج الذكاء الاصطناعي مع البلوكشين يمكن أن يحسن المعايير التشغيلية وثقة المستخدم في الشبكات اللامركزية. تعرف على المزيد

  • تعاون Petoshi و EMC Protocol: وبالمثل، انضمت Petoshi—منصة "اضغط لتكسب"—إلى EMC Protocol. يركز تعاونهم على تمكين المطورين من سد الفجوة بين التطبيقات اللامركزية القائمة على الذكاء الاصطناعي (dApps) وقوة الحوسبة التي غالبًا ما تكون صعبة التشغيل بكفاءة. يظهر هذا التعاون كحل لتحديات قابلية التوسع في النظام البيئي المتوسع بسرعة للتطبيقات اللامركزية، ويبرز كيف يمكن للأداء، عندما يكون مدعومًا بالذكاء الاصطناعي، أن يعزز بشكل كبير المشاريع الإبداعية والتجارية. اكتشف التكامل

  • حوارات الصناعة: في أحداث كبرى مثل Axios BFD نيويورك 2024، أكد قادة الصناعة مثل المؤسس المشارك لإيثريوم جوزيف لوبين على الأدوار التكاملية للذكاء الاصطناعي و Web3. هذه المناقشات قد رسخت الفكرة بأن الذكاء الاصطناعي يمكن أن يقود التفاعل من خلال المحتوى المخصص والتحليل الذكي، بينما يوفر Web3 مساحة آمنة ومحكومة من قبل المستخدم لهذه الابتكارات لتزدهر. شاهد ملخص الحدث

اتجاهات رأس المال الاستثماري والاستثمار

تسلط اتجاهات الاستثمار الضوء على هذا التقارب:

  • زيادة في الاستثمارات في الذكاء الاصطناعي: في 2023، حصلت الشركات الناشئة في الذكاء الاصطناعي على دعم كبير—مما أدى إلى زيادة بنسبة 30% في تمويل رأس المال الاستثماري في الولايات المتحدة. بشكل ملحوظ، جولات التمويل الكبيرة لشركات مثل OpenAI و xAI التابعة لإيلون ماسك قد أكدت ثقة المستثمرين في الإمكانات التخريبية للذكاء الاصطناعي. من المتوقع أن تدفع الشركات التقنية الكبرى النفقات الرأسمالية إلى ما يزيد عن 200 مليار دولار في المبادرات المتعلقة بالذكاء الاصطناعي في 2024 وما بعدها. رويترز

  • ديناميات تمويل Web3: على النقيض من ذلك، واجه قطاع Web3 انخفاضًا مؤقتًا مع انخفاض بنسبة 79% في تمويل رأس المال الاستثماري في الربع الأول من 2023—انخفاض يُنظر إليه على أنه إعادة ضبط بدلاً من تراجع طويل الأجل. على الرغم من ذلك، بلغ إجمالي التمويل في 2023 9.043 مليار دولار، مع توجيه رأس مال كبير إلى البنية التحتية للمؤسسات وأمان المستخدم. أداء البيتكوين القوي، بما في ذلك مكاسب سنوية بنسبة 160%، يوضح بشكل أكبر مرونة السوق داخل مساحة البلوكشين. RootData

معًا، ترسم هذه الاتجاهات صورة لنظام بيئي تقني حيث يتحول الزخم نحو دمج الذكاء الاصطناعي ضمن الأطر اللامركزية—استراتيجية لا تعالج فقط الكفاءات الحالية ولكن أيضًا تفتح مصادر دخل جديدة تمامًا وإمكانات إبداعية.

فوائد دمج الذكاء الاصطناعي و Web3

تعزيز الأمان وإدارة البيانات اللامركزية

واحدة من أكثر الفوائد إقناعًا لدمج الذكاء الاصطناعي مع Web3 هي التأثير العميق على الأمان وسلامة البيانات. يمكن للخوارزميات الذكاء الاصطناعي—عند تضمينها في الشبكات اللامركزية—مراقبة وتحليل معاملات البلوكشين لتحديد وإحباط الأنشطة الاحتيالية في الوقت الفعلي. تُستخدم تقنيات مثل اكتشاف الشذوذ، معالجة اللغة الطبيعية (NLP)، والتحليل السلوكي لتحديد الشذوذات، مما يضمن بقاء كل من المستخدمين والبنية التحتية آمنة. على سبيل المثال، دور الذكاء الاصطناعي في حماية العقود الذكية من الثغرات مثل هجمات إعادة الدخول والتلاعب بالسياق أثبت أنه لا يقدر بثمن في حماية الأصول الرقمية.

علاوة على ذلك، تزدهر الأنظمة اللامركزية على الشفافية. توفر دفاتر Web3 غير القابلة للتغيير مسارًا قابلًا للتدقيق لقرارات الذكاء الاصطناعي، مما يزيل الغموض عن الطبيعة "الصندوق الأسود" للعديد من الخوارزميات. هذا التآزر ذو أهمية خاصة في التطبيقات الإبداعية والمالية حيث الثقة هي عملة حاسمة. تعرف على المزيد حول الأمان المعزز بالذكاء الاصطناعي

ثورة في الكفاءة التشغيلية وقابلية التوسع

الذكاء الاصطناعي ليس مجرد أداة للأمان—إنه محرك قوي للكفاءة التشغيلية. في الشبكات اللامركزية، يمكن لوكلاء الذكاء الاصطناعي تحسين تخصيص موارد الحوسبة، مما يضمن توازن أعباء العمل وتقليل استهلاك الطاقة. على سبيل المثال، من خلال التنبؤ بالعقد المثلى للتحقق من المعاملات، تعزز خوارزميات الذكاء الاصطناعي قابلية التوسع في البنى التحتية للبلوكشين. هذه الكفاءة لا تؤدي فقط إلى خفض التكاليف التشغيلية ولكن أيضًا تمهد الطريق لممارسات أكثر استدامة في بيئات البلوكشين.

بالإضافة إلى ذلك، مع سعي المنصات للاستفادة من قوة الحوسبة الموزعة، تُظهر الشراكات مثل تلك بين Petoshi و EMC Protocol كيف يمكن للذكاء الاصطناعي تبسيط الطريقة التي تصل بها التطبيقات اللامركزية إلى الموارد الحاسوبية. هذه القدرة حاسمة للتوسع السريع والحفاظ على جودة الخدمة مع نمو اعتماد المستخدم—عامل رئيسي للمطورين والشركات الذين يتطلعون إلى بناء تطبيقات لامركزية قوية.

تطبيقات إبداعية تحويلية: دراسات حالة في الفن والألعاب وأتمتة المحتوى

ربما تكون الجبهة الأكثر إثارة هي التأثير التحويلي لتقارب الذكاء الاصطناعي و Web3 على الصناعات الإبداعية. دعونا نستكشف بعض دراسات الحالة:

  1. الفن و NFTs: منصات مثل "Eponym" التابعة لـ Art AI قد أخذت عالم الفن الرقمي بعاصفة. أُطلقت في الأصل كحل للتجارة الإلكترونية، تحولت Eponym إلى نموذج Web3 من خلال تمكين الفنانين والمجمعين من سك الأعمال الفنية المولدة بالذكاء الاصطناعي كرموز غير قابلة للاستبدال (NFTs) على بلوكشين إيثريوم. في غضون 10 ساعات فقط، حققت المنصة 3 ملايين دولار في الإيرادات وأثارت أكثر من 16 مليون دولار في حجم السوق الثانوي. هذا الاختراق لا يعرض فقط الجدوى المالية للفن المولد بالذكاء الاصطناعي ولكنه أيضًا يدمقرط التعبير الإبداعي من خلال لامركزية سوق الفن. اقرأ دراسة الحالة

  2. أتمتة المحتوى: أظهرت Thirdweb، منصة المطور الرائدة، فائدة الذكاء الاصطناعي في توسيع إنتاج المحتوى. من خلال دمج الذكاء الاصطناعي لتحويل مقاطع فيديو يوتيوب إلى أدلة محسنة لمحركات البحث، وإنشاء دراسات حالة من ملاحظات العملاء، وإنتاج نشرات إخبارية جذابة، حققت Thirdweb زيادة عشرة أضعاف في إنتاج المحتوى وأداء تحسين محركات البحث. هذا النموذج له صدى خاص مع المحترفين المبدعين الذين يسعون إلى تعزيز حضورهم الرقمي دون زيادة الجهد اليدوي بشكل متناسب. اكتشف التأثير

  3. الألعاب: في مجال الألعاب الديناميكي، تقوم اللامركزية والذكاء الاصطناعي بصياغة عوالم افتراضية غامرة ومتطورة باستمرار. دمجت لعبة Web3 نظام ذكاء اصطناعي متعدد الوكلاء لتوليد محتوى جديد داخل اللعبة تلقائيًا—بدءًا من الشخصيات إلى البيئات الشاسعة. هذه الطريقة لا تعزز فقط تجربة الألعاب بل تقلل أيضًا الاعتماد على التطوير البشري المستمر، مما يضمن أن اللعبة يمكن أن تتطور بشكل عضوي مع مرور الوقت. شاهد التكامل في العمل

  4. تبادل البيانات وأسواق التنبؤ: خارج التطبيقات الإبداعية التقليدية، تستخدم المنصات التي تركز على البيانات مثل Ocean Protocol الذكاء الاصطناعي لتحليل بيانات سلسلة التوريد المشتركة، وتحسين العمليات وإبلاغ القرارات الاستراتيجية عبر الصناعات. وبالمثل، تستخدم أسواق التنبؤ مثل Augur الذكاء الاصطناعي لتحليل البيانات بقوة من مصادر متنوعة، مما يحسن دقة نتائج الأحداث—الأمر الذي يعزز بدوره الثقة في الأنظمة المالية اللامركزية. استكشف أمثلة أخرى

تعمل هذه دراسات الحالة كدليل ملموس على أن قابلية التوسع والإمكانات الابتكارية للذكاء الاصطناعي اللامركزي ليست محصورة في قطاع واحد بل لها تأثيرات متتالية عبر المناظر الإبداعية والمالية والمستهلكة.

التحديات والاعتبارات

بينما يعد وعد تكامل الذكاء الاصطناعي و Web3 هائلًا، هناك عدة تحديات تستحق النظر بعناية:

خصوصية البيانات وتعقيدات التنظيم

يُحتفى بـ Web3 لتركيزه على ملكية البيانات والشفافية. ومع ذلك، يعتمد نجاح الذكاء الاصطناعي على الوصول إلى كميات هائلة من البيانات—وهو مطلب يمكن أن يتعارض مع بروتوكولات البلوكشين التي تحافظ على الخصوصية. تتعقد هذه التوترات بشكل أكبر بسبب الأطر التنظيمية العالمية المتطورة. مع سعي الحكومات لتحقيق التوازن بين الابتكار وحماية المستهلك، تمهد مبادرات مثل إطار SAFE للابتكار والجهود الدولية مثل إعلان بليتشلي الطريق لاتخاذ إجراءات تنظيمية حذرة ولكن متضافرة. تعرف على المزيد حول الجهود التنظيمية

مخاطر المركزية في عالم لامركزي

واحدة من التحديات الأكثر تناقضًا هي المركزية المحتملة لتطوير الذكاء الاصطناعي. على الرغم من أن روح Web3 هي توزيع السلطة، فإن الكثير من الابتكار في الذكاء الاصطناعي يتركز في أيدي عدد قليل من اللاعبين التقنيين الكبار. يمكن أن تفرض هذه المراكز المركزية للتطوير هيكلًا هرميًا على الشبكات اللامركزية بطبيعتها، مما يقوض مبادئ Web3 الأساسية مثل الشفافية والتحكم المجتمعي. يتطلب التخفيف من ذلك جهودًا مفتوحة المصدر ومصادر بيانات متنوعة لضمان بقاء أنظمة الذكاء الاصطناعي عادلة وغير متحيزة. اكتشف المزيد من الأفكار

التعقيد التقني واستهلاك الطاقة

دمج الذكاء الاصطناعي في بيئات Web3 ليس بالأمر السهل. يتطلب الجمع بين هذين النظامين المعقدين موارد حوسبة كبيرة، مما يثير بدوره مخاوف بشأن استهلاك الطاقة والاستدامة البيئية. يستكشف المطورون والباحثون بنشاط نماذج الذكاء الاصطناعي الموفرة للطاقة وطرق الحوسبة الموزعة، إلا أن هذه لا تزال مجالات بحث ناشئة. سيكون المفتاح هو موازنة الابتكار مع الاستدامة—وهو تحدٍ يتطلب تحسينًا تكنولوجيًا مستمرًا وتعاونًا صناعيًا.

مستقبل الذكاء الاصطناعي اللامركزي في المشهد الإبداعي

التقاء الذكاء الاصطناعي و Web3 ليس مجرد ترقية تقنية؛ إنه تحول نموذجي—واحد يمس الأبعاد الثقافية والاقتصادية والإبداعية. في شبكة كوكو، تشير مهمتنا لتغذية التفاؤل بالذكاء الاصطناعي اللامركزي إلى مستقبل حيث يجني المحترفون المبدعون فوائد غير مسبوقة:

تمكين اقتصاد المبدعين

تخيل عالماً يتمتع فيه كل فرد مبدع بإمكانية الوصول إلى أدوات ذكاء اصطناعي قوية تكون ديمقراطية مثل الشبكات اللامركزية التي تدعمها. هذا هو وعد منصات مثل Cuckoo Chain—بنية تحتية لامركزية تتيح للمبدعين توليد فنون ذكاء اصطناعي مذهلة، والانخراط في تجارب محادثة غنية، وتشغيل تطبيقات Gen AI الجيل القادم باستخدام موارد الحوسبة الشخصية. في نظام إبداعي لامركزي، لم يعد الفنانون والكتاب والبناة رهائن للمنصات المركزية. بدلاً من ذلك، يعملون في بيئة محكومة من قبل المجتمع حيث يتم مشاركة الابتكارات وتحقيق الدخل منها بشكل أكثر إنصافًا.

سد الفجوة بين التكنولوجيا والإبداع

دمج الذكاء الاصطناعي و Web3 يمحو الحدود التقليدية بين التكنولوجيا والفن. مع تعلم نماذج الذكاء الاصطناعي من مجموعات بيانات لامركزية ضخمة، تصبح أفضل في ليس فقط فهم المدخلات الإبداعية ولكن أيضًا في توليد مخرجات تدفع الحدود الفنية التقليدية. هذا التطور يخلق شكلًا جديدًا من الحرفية الرقمية—حيث يتم تعزيز الإبداع من خلال القوة الحاسوبية للذكاء الاصطناعي وشفافية البلوكشين، مما يضمن أن كل إبداع يكون مبتكرًا وأصيلًا بشكل يمكن إثباته.

دور المنظورات الجديدة والتحليل المدعوم بالبيانات

بينما نتنقل في هذه الجبهة، من الضروري تقييم الجدة وفعالية النماذج والتكاملات الجديدة باستمرار. تشير قادة السوق واتجاهات رأس المال الاستثماري والبحث الأكاديمي جميعها إلى حقيقة واحدة: دمج الذكاء الاصطناعي و Web3 في مرحلته الناشئة ولكن المتفجرة. يدعم تحليلنا الرأي القائل بأنه، على الرغم من التحديات مثل خصوصية البيانات ومخاطر المركزية، فإن الانفجار الإبداعي الذي يغذيه الذكاء الاصطناعي اللامركزي سيمهد الطريق لفرص اقتصادية غير مسبوقة وتحولات ثقافية. البقاء في الطليعة يتطلب دمج البيانات التجريبية، وفحص النتائج الواقعية، وضمان أن الأطر التنظيمية تدعم الابتكار بدلاً من خنقه.

الخاتمة

التكامل المحيط للذكاء الاصطناعي و Web3 يقف كواحد من أكثر الاتجاهات الواعدة والمزعزعة في طليعة التكنولوجيا. من تعزيز الأمان والكفاءة التشغيلية إلى ديمقراطية الإنتاج الإبداعي وتمكين جيل جديد من الحرفيين الرقميين، فإن دمج هذه التقنيات يعيد تشكيل الصناعات عبر اللوحة. ومع ذلك، بينما نتطلع إلى المستقبل، فإن الطريق أمامنا ليس بدون تحدياته. سيكون معالجة القضايا التنظيمية والتقنية والمركزية أمرًا حاسمًا للاستفادة الكاملة من إمكانات الذكاء الاصطناعي اللامركزي.

بالنسبة للمبدعين والبناة، هذا التقارب هو دعوة للعمل—دعوة لإعادة تصور عالم حيث لا تمكّن الأنظمة اللامركزية الابتكار فحسب، بل تدفع أيضًا الشمولية والاستدامة. من خلال الاستفادة من النماذج الناشئة للامركزية المعززة بالذكاء الاصطناعي، يمكننا بناء مستقبل آمن وفعال بقدر ما هو إبداعي ومتفائل.

بينما يستمر السوق في التطور مع دراسات حالة جديدة، وشراكات استراتيجية، وأدلة مدعومة بالبيانات، يبقى شيء واحد واضحًا: تقاطع الذكاء الاصطناعي و Web3 هو أكثر من مجرد اتجاه—إنه الأساس الذي ستبنى عليه الموجة التالية من الابتكار الرقمي. سواء كنت مستثمرًا مخضرمًا، أو رائد أعمال تقني، أو مبدعًا ذو رؤية، فإن الوقت لاحتضان هذا النموذج هو الآن.

ابقوا على اطلاع بينما نواصل المضي قدمًا، مستكشفين كل تفاصيل هذا التكامل المثير. في شبكة كوكو، نحن ملتزمون بجعل العالم أكثر تفاؤلاً من خلال تكنولوجيا الذكاء الاصطناعي اللامركزي، وندعوكم للانضمام إلينا في هذه الرحلة التحويلية.


المراجع:


من خلال الاعتراف بكل من الفرص والتحديات في هذا التقارب، لا نجهز أنفسنا للمستقبل فحسب، بل نلهم أيضًا حركة نحو نظام رقمي أكثر لامركزية وإبداعًا.

المصمم في الآلة: كيف تعيد الذكاء الاصطناعي تشكيل إنشاء المنتجات

· 5 دقائق قراءة
Lark Birdy
Chief Bird Officer

نشهد تحولًا جذريًا في الإنشاء الرقمي. ولت الأيام التي كان فيها تصميم المنتجات وتطويرها يعتمد فقط على العمليات اليدوية التي يقودها الإنسان. اليوم، لا يقوم الذكاء الاصطناعي بأتمتة المهام فحسب، بل يصبح شريكًا إبداعيًا، مما يغير كيفية تصميمنا وبرمجتنا وتخصيصنا للمنتجات.

لكن ماذا يعني هذا للمصممين والمطورين والمؤسسين؟ هل الذكاء الاصطناعي تهديد أم قوة خارقة؟ وأي الأدوات تقدم فعلاً؟ دعونا نستكشف.

مجموعة تصميم الذكاء الاصطناعي الجديدة: من المفهوم إلى الشفرة

يعيد الذكاء الاصطناعي تشكيل كل مرحلة من مراحل إنشاء المنتجات. إليك كيف:

1. توليد واجهة المستخدم/تجربة المستخدم: من اللوحة الفارغة إلى التصميم المدفوع بالتوجيهات

تقوم أدوات مثل Galileo AI وUizard بتحويل التوجيهات النصية إلى تصميمات واجهة مستخدم كاملة في ثوانٍ. على سبيل المثال، يمكن لتوجيه مثل "صمم شاشة رئيسية لتطبيق مواعدة حديث" أن يولد نقطة انطلاق، مما يحرر المصممين من اللوحة الفارغة.

يحول هذا دور المصمم من دافع بكسل إلى مهندس توجيهات ومنسق. كما تقوم منصات مثل Figma وAdobe بدمج ميزات الذكاء الاصطناعي (مثل التحديد الذكي، التخطيط التلقائي) لتبسيط المهام المتكررة، مما يسمح للمصممين بالتركيز على الإبداع والتنقيح.

2. توليد الشفرات: الذكاء الاصطناعي كشريك في البرمجة

يعد GitHub Copilot، الذي يستخدمه أكثر من 1.3 مليون مطور، مثالاً على تأثير الذكاء الاصطناعي في البرمجة. فهو لا يكمل الأسطر فحسب، بل يولد وظائف كاملة بناءً على السياق، مما يعزز الإنتاجية بنسبة 55%. يصفه المطورون بأنه مبرمج مبتدئ لا يكل يعرف كل مكتبة.

توفر البدائل مثل CodeWhisperer من أمازون (المثالي لبيئات AWS) وTabnine (المركز على الخصوصية) حلولًا مخصصة. النتيجة؟ يقضي المهندسون وقتًا أقل في الشفرات الأساسية وأكثر في حل المشكلات الفريدة.

3. الاختبار والبحث: توقع سلوك المستخدم

تتوقع أدوات الذكاء الاصطناعي مثل Attention Insight وNeurons تفاعلات المستخدم قبل بدء الاختبار، وتولد خرائط حرارية وتحدد المشكلات المحتملة. للحصول على رؤى نوعية، تقوم منصات مثل MonkeyLearn وDovetail بتحليل ملاحظات المستخدم على نطاق واسع، مما يكشف عن الأنماط والمشاعر في دقائق.

4. التخصيص: تخصيص التجارب على نطاق واسع

يتجاوز الذكاء الاصطناعي التخصيص إلى ما هو أبعد من التوصيات. تُمكن أدوات مثل Dynamic Yield وAdobe Target الواجهات من التكيف ديناميكيًا بناءً على سلوك المستخدم، مثل إعادة تنظيم التنقل، وضبط الإشعارات، والمزيد. هذا المستوى من التخصيص، الذي كان محجوزًا لعمالقة التكنولوجيا، أصبح الآن متاحًا للفرق الأصغر.

التأثير الواقعي: السرعة، الحجم، والإبداع

1. التكرار الأسرع

يضغط الذكاء الاصطناعي الجداول الزمنية بشكل كبير. يذكر المؤسسون أنهم ينتقلون من المفهوم إلى النموذج الأولي في أيام، وليس أسابيع. تشجع هذه السرعة على التجريب وتقلل من تكلفة الفشل، مما يعزز الابتكار الجريء.

2. القيام بالمزيد بموارد أقل

يعمل الذكاء الاصطناعي كقوة مضاعفة، مما يمكن الفرق الصغيرة من تحقيق ما كان يتطلب فرقًا أكبر. يمكن للمصممين استكشاف مفاهيم متعددة في الوقت الذي استغرقه إنشاء واحد، بينما يحافظ المطورون على قواعد الشفرات بكفاءة أكبر.

3. شراكة إبداعية جديدة

لا يقوم الذكاء الاصطناعي بتنفيذ المهام فحسب، بل يقدم وجهات نظر جديدة. كما قال أحد المصممين، "يقترح الذكاء الاصطناعي أساليب لم أكن لأفكر فيها، مما يخرجني من أنماطي." تعزز هذه الشراكة الإبداع البشري بدلاً من استبداله.

ما لا يمكن للذكاء الاصطناعي استبداله: الحافة البشرية

على الرغم من قدراته، فإن الذكاء الاصطناعي يقصر في مجالات رئيسية:

  1. التفكير الاستراتيجي: لا يمكن للذكاء الاصطناعي تحديد الأهداف التجارية أو فهم احتياجات المستخدم بعمق.
  2. التعاطف: لا يمكنه فهم التأثير العاطفي للتصميم.
  3. السياق الثقافي: غالبًا ما تبدو التصميمات التي يولدها الذكاء الاصطناعي عامة، تفتقر إلى الفروق الثقافية التي يجلبها المصممون البشريون.
  4. ضمان الجودة: قد تحتوي الشفرات التي يولدها الذكاء الاصطناعي على أخطاء أو ثغرات دقيقة، مما يتطلب إشرافًا بشريًا.

ترى الفرق الأكثر نجاحًا الذكاء الاصطناعي كتعزيز، وليس أتمتة، حيث يتولى المهام الروتينية بينما يركز البشر على الإبداع والحكم والاتصال.

خطوات عملية للفرق

  1. ابدأ صغيرًا: استخدم الذكاء الاصطناعي لتوليد الأفكار والمهام ذات المخاطر المنخفضة قبل دمجه في سير العمل الحرج.
  2. إتقان هندسة التوجيهات: أصبح صياغة التوجيهات الفعالة أمرًا حيويًا مثل مهارات التصميم أو البرمجة التقليدية.
  3. مراجعة مخرجات الذكاء الاصطناعي: وضع بروتوكولات للتحقق من التصميمات والشفرات التي يولدها الذكاء الاصطناعي، خاصة للوظائف الحرجة من حيث الأمان.
  4. قياس التأثير: تتبع المقاييس مثل سرعة التكرار ومخرجات الابتكار لقياس فوائد الذكاء الاصطناعي.
  5. مزج الأساليب: استخدم الذكاء الاصطناعي حيث يتفوق، لكن لا تجبره على المهام التي تناسب الأساليب التقليدية بشكل أفضل.

ماذا بعد؟ مستقبل الذكاء الاصطناعي في التصميم

  1. تكامل أضيق بين التصميم والتطوير: ستعمل الأدوات على سد الفجوة بين Figma والشفرة، مما يمكن من الانتقال السلس من التصميم إلى المكونات الوظيفية.
  2. الذكاء الاصطناعي الواعي بالسياق: ستتوافق الأدوات المستقبلية مع التصميمات مع معايير العلامة التجارية وبيانات المستخدم والأهداف التجارية.
  3. التخصيص الجذري: ستتكيف الواجهات ديناميكيًا مع المستخدمين الفرديين، مما يعيد تعريف كيفية تفاعلنا مع البرمجيات.

الخاتمة: المبدع المعزز

لا يستبدل الذكاء الاصطناعي الإبداع البشري، بل يطوره. من خلال التعامل مع المهام الروتينية وتوسيع الإمكانيات، يحرر الذكاء الاصطناعي المصممين والمطورين للتركيز على ما يهم حقًا: إنشاء منتجات تتجاوب مع احتياجات ومشاعر الإنسان.

المستقبل ينتمي إلى المبدع المعزز - أولئك الذين يستخدمون الذكاء الاصطناعي كشريك، يجمعون بين الإبداع البشري والذكاء الآلي لبناء منتجات أفضل وأسرع وأكثر معنى.

مع تقدم الذكاء الاصطناعي، يصبح العنصر البشري ليس أقل أهمية، بل أكثر أهمية. تتغير التكنولوجيا، لكن الحاجة إلى التواصل مع المستخدمين تظل ثابتة. هذا مستقبل يستحق الاحتضان.

كسر حاجز سياق الذكاء الاصطناعي: فهم بروتوكول سياق النموذج

· 5 دقائق قراءة
Lark Birdy
Chief Bird Officer

نتحدث كثيرًا عن النماذج الأكبر، ونوافذ السياق الأوسع، والمزيد من المعلمات. لكن الاختراق الحقيقي قد لا يكون متعلقًا بالحجم على الإطلاق. يمثل بروتوكول سياق النموذج (MCP) تحولًا جذريًا في كيفية تفاعل مساعدي الذكاء الاصطناعي مع العالم من حولهم، وهو يحدث الآن.

هيكل MCP

المشكلة الحقيقية مع مساعدي الذكاء الاصطناعي

إليك سيناريو يعرفه كل مطور: أنت تستخدم مساعد ذكاء اصطناعي للمساعدة في تصحيح الأخطاء في الكود، لكنه لا يمكنه رؤية مستودعك. أو تسأله عن بيانات السوق، لكن معرفته قديمة بعدة أشهر. القيد الأساسي ليس ذكاء الذكاء الاصطناعي - إنه عدم قدرته على الوصول إلى العالم الحقيقي.

كانت نماذج اللغة الكبيرة (LLMs) مثل العلماء البارعين المحبوسين في غرفة مع بيانات تدريبهم فقط. بغض النظر عن مدى ذكائهم، لا يمكنهم التحقق من أسعار الأسهم الحالية، أو النظر إلى قاعدة الكود الخاصة بك، أو التفاعل مع أدواتك. حتى الآن.

دخول بروتوكول سياق النموذج (MCP)

يعيد MCP تخيل كيفية تفاعل مساعدي الذكاء الاصطناعي مع الأنظمة الخارجية بشكل جذري. بدلاً من محاولة حشر المزيد من السياق في نماذج المعلمات المتزايدة الحجم، ينشئ MCP طريقة موحدة للذكاء الاصطناعي للوصول الديناميكي إلى المعلومات والأنظمة حسب الحاجة.

الهيكل بسيط بشكل أنيق ولكنه قوي:

  • مضيفو MCP: برامج أو أدوات مثل Claude Desktop حيث تعمل نماذج الذكاء الاصطناعي وتتفاعل مع الخدمات المختلفة. يوفر المضيف بيئة التشغيل وحدود الأمان لمساعد الذكاء الاصطناعي.

  • عملاء MCP: مكونات داخل مساعد الذكاء الاصطناعي تقوم ببدء الطلبات والتعامل مع الاتصال مع خوادم MCP. يحتفظ كل عميل باتصال مخصص لأداء مهام محددة أو الوصول إلى موارد معينة، وإدارة دورة الطلب والاستجابة.

  • خوادم MCP: برامج متخصصة وخفيفة الوزن تعرض قدرات خدمات محددة. كل خادم مصمم خصيصًا للتعامل مع نوع واحد من التكامل، سواء كان ذلك البحث في الويب عبر Brave، أو الوصول إلى مستودعات GitHub، أو استعلام قواعد البيانات المحلية. هناك خوادم مفتوحة المصدر.

  • الموارد المحلية والبعيدة: مصادر البيانات والخدمات الأساسية التي يمكن لخوادم MCP الوصول إليها. تشمل الموارد المحلية الملفات وقواعد البيانات والخدمات على جهاز الكمبيوتر الخاص بك، بينما تشمل الموارد البعيدة واجهات برمجة التطبيقات الخارجية والخدمات السحابية التي يمكن للخوادم الاتصال بها بأمان.

فكر في الأمر على أنه إعطاء مساعدي الذكاء الاصطناعي نظامًا حسيًا مدفوعًا بواجهة برمجة التطبيقات. بدلاً من محاولة حفظ كل شيء أثناء التدريب، يمكنهم الآن الوصول والاستعلام عما يحتاجون إلى معرفته.

لماذا هذا مهم: الاختراقات الثلاثة

  1. الذكاء الفوري: بدلاً من الاعتماد على بيانات التدريب القديمة، يمكن لمساعدي الذكاء الاصطناعي الآن سحب المعلومات الحالية من المصادر الموثوقة. عندما تسأل عن سعر البيتكوين، تحصل على الرقم اليوم، وليس العام الماضي.
  2. تكامل الأنظمة: يتيح MCP التفاعل المباشر مع بيئات التطوير، وأدوات الأعمال، وواجهات برمجة التطبيقات. مساعد الذكاء الاصطناعي الخاص بك لا يتحدث فقط عن الكود - يمكنه بالفعل رؤية والتفاعل مع مستودعك.
  3. الأمان حسب التصميم: يخلق نموذج العميل-المضيف-الخادم حدود أمان واضحة. يمكن للمؤسسات تنفيذ ضوابط وصول دقيقة مع الحفاظ على فوائد مساعدة الذكاء الاصطناعي. لا مزيد من الاختيار بين الأمان والقدرة.

الرؤية هي الإيمان: MCP في العمل

لنقم بإعداد مثال عملي باستخدام تطبيق Claude Desktop وأداة Brave Search MCP. سيمكن هذا Claude من البحث في الويب في الوقت الفعلي:

1. تثبيت Claude Desktop

2. الحصول على مفتاح API لـ Brave

3. إنشاء ملف تكوين

open ~/Library/Application\ Support/Claude
touch ~/Library/Application\ Support/Claude/claude_desktop_config.json

ثم تعديل الملف ليكون كالتالي:


{
"mcpServers": {
"brave-search": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-brave-search"
],
"env": {
"BRAVE_API_KEY": "YOUR_API_KEY_HERE"
}
}
}
}

4. إعادة تشغيل تطبيق Claude Desktop

على الجانب الأيمن من التطبيق، ستلاحظ وجود أداتين جديدتين (مميزتين بالدائرة الحمراء في الصورة أدناه) للبحث في الإنترنت باستخدام أداة Brave Search MCP.

بمجرد التكوين، يصبح التحول سلسًا. اسأل Claude عن أحدث مباراة لمانشستر يونايتد، وبدلاً من الاعتماد على بيانات التدريب القديمة، يقوم بإجراء عمليات بحث في الويب في الوقت الفعلي لتقديم معلومات دقيقة وحديثة.

الصورة الأكبر: لماذا يغير MCP كل شيء

تتجاوز التداعيات هنا عمليات البحث البسيطة على الويب. يخلق MCP نموذجًا جديدًا لمساعدة الذكاء الاصطناعي:

  1. تكامل الأدوات: يمكن لمساعدي الذكاء الاصطناعي الآن استخدام أي أداة تحتوي على واجهة برمجة تطبيقات. فكر في عمليات Git، أو استعلامات قواعد البيانات، أو رسائل Slack.
  2. التأصيل في العالم الحقيقي: من خلال الوصول إلى البيانات الحالية، تصبح استجابات الذكاء الاصطناعي متأصلة في الواقع بدلاً من بيانات التدريب.
  3. التمدد: تم تصميم البروتوكول للتوسع. مع ظهور أدوات وواجهات برمجة تطبيقات جديدة، يمكن دمجها بسرعة في نظام MCP البيئي.

ما هو التالي لـ MCP

نحن فقط نرى بداية ما هو ممكن مع MCP. تخيل مساعدي الذكاء الاصطناعي الذين يمكنهم:

  • سحب وتحليل بيانات السوق في الوقت الفعلي
  • التفاعل مباشرة مع بيئة التطوير الخاصة بك
  • الوصول إلى وتلخيص وثائق شركتك الداخلية
  • التنسيق عبر أدوات الأعمال المتعددة لأتمتة سير العمل

الطريق إلى الأمام

يمثل MCP تحولًا جذريًا في كيفية تفكيرنا في قدرات الذكاء الاصطناعي. بدلاً من بناء نماذج أكبر مع نوافذ سياق أوسع، نحن نخلق طرقًا أكثر ذكاءً للذكاء الاصطناعي للتفاعل مع الأنظمة والبيانات الحالية.

بالنسبة للمطورين والمحللين وقادة التكنولوجيا، يفتح MCP إمكانيات جديدة لتكامل الذكاء الاصطناعي. الأمر لا يتعلق فقط بما يعرفه الذكاء الاصطناعي - بل يتعلق بما يمكنه فعله.

قد لا تكون الثورة الحقيقية في الذكاء الاصطناعي حول جعل النماذج أكبر. قد تكون حول جعلها أكثر اتصالاً. ومع MCP، فإن تلك الثورة موجودة بالفعل.

ثورة DeepSeek مفتوحة المصدر: رؤى من قمة AI مغلقة الأبواب

· 6 دقائق قراءة
Lark Birdy
Chief Bird Officer

ثورة DeepSeek مفتوحة المصدر: رؤى من قمة AI مغلقة الأبواب

تأخذ DeepSeek عالم الذكاء الاصطناعي بعاصفة. تمامًا كما لم تهدأ النقاشات حول DeepSeek-R1، أسقط الفريق قنبلة أخرى: نموذج متعدد الوسائط مفتوح المصدر، Janus-Pro. الوتيرة مذهلة، والطموحات واضحة.

ثورة DeepSeek مفتوحة المصدر: رؤى من قمة AI مغلقة الأبواب

قبل يومين، اجتمع مجموعة من كبار الباحثين والمطورين والمستثمرين في مجال الذكاء الاصطناعي لمناقشة مغلقة الأبواب استضافها Shixiang، وركزت حصريًا على DeepSeek. على مدى ثلاث ساعات، قاموا بتفكيك ابتكارات DeepSeek التقنية، وهيكلها التنظيمي، والآثار الأوسع لنهوضها—على نماذج الأعمال في الذكاء الاصطناعي، والأسواق الثانوية، والمسار الطويل الأمد لأبحاث الذكاء الاصطناعي.

اتباعًا لروح الشفافية مفتوحة المصدر لدى DeepSeek، نحن نفتح أفكارنا الجماعية للجمهور. هنا رؤى مستخلصة من المناقشة، تمتد عبر استراتيجية DeepSeek، وابتكاراتها التقنية، والتأثير الذي يمكن أن تحدثه على صناعة الذكاء الاصطناعي.

DeepSeek: الغموض والمهمة

  • المهمة الأساسية لـ DeepSeek: الرئيس التنفيذي ليانغ وينفنغ ليس مجرد رائد أعمال في مجال الذكاء الاصطناعي—بل هو مهندس في القلب. على عكس سام ألتمان، يركز على التنفيذ الفني، وليس فقط الرؤية.
  • لماذا كسبت DeepSeek الاحترام: إن بنية MoE (مزيج الخبراء) هي فارق رئيسي. كان التكرار المبكر لنموذج OpenAI o1 مجرد البداية—التحدي الحقيقي هو التوسع بموارد محدودة.
  • التوسع بدون مباركة NVIDIA: على الرغم من الادعاءات بامتلاك 50,000 وحدة معالجة رسومية، من المحتمل أن تعمل DeepSeek بحوالي 10,000 وحدة A100 قديمة و3,000 وحدة H800 قبل الحظر. على عكس المختبرات الأمريكية، التي تلقي بالحوسبة على كل مشكلة، تُجبر DeepSeek على الكفاءة.
  • التركيز الحقيقي لـ DeepSeek: على عكس OpenAI أو Anthropic، لا تركز DeepSeek على "الذكاء الاصطناعي لخدمة البشر". بدلاً من ذلك، تسعى وراء الذكاء نفسه. قد يكون هذا سلاحها السري.

المستكشفون مقابل الأتباع: قوانين القوة في الذكاء الاصطناعي

  • تطوير الذكاء الاصطناعي هو وظيفة خطوة: تكلفة اللحاق أقل بعشر مرات من القيادة. يستفيد "الأتباع" من الاختراقات السابقة بجزء من تكلفة الحوسبة، بينما يجب على "المستكشفين" المضي قدمًا بشكل أعمى، متحملين نفقات ضخمة في البحث والتطوير.
  • هل ستتجاوز DeepSeek OpenAI؟ من الممكن—ولكن فقط إذا تعثرت OpenAI. لا يزال الذكاء الاصطناعي مشكلة مفتوحة، ونهج DeepSeek لنماذج التفكير هو رهان قوي.

الابتكارات التقنية وراء DeepSeek

1. نهاية التوليف الفائق الإشراف (SFT)؟

  • الادعاء الأكثر اضطرابًا لـ DeepSeek: قد لا يكون SFT ضروريًا بعد الآن لمهام التفكير. إذا كان صحيحًا، فهذا يمثل تحولًا في النموذج.
  • لكن ليس بهذه السرعة... لا يزال DeepSeek-R1 يعتمد على SFT، خاصةً للتوافق. التحول الحقيقي هو كيفية استخدام SFT—تقطير مهام التفكير بشكل أكثر فعالية.

2. كفاءة البيانات: الخندق الحقيقي

  • لماذا تعطي DeepSeek الأولوية لوضع العلامات على البيانات: يقال إن ليانغ وينفنغ يضع العلامات على البيانات بنفسه، مما يؤكد أهميتها. جاء نجاح Tesla في القيادة الذاتية من التعليقات البشرية الدقيقة—تطبق DeepSeek نفس الدقة.
  • البيانات متعددة الوسائط: ليست جاهزة بعد—على الرغم من إصدار Janus-Pro، لا يزال التعلم متعدد الوسائط مكلفًا بشكل محظور. لم يظهر أي مختبر بعد مكاسب مقنعة.

3. تقطير النموذج: سيف ذو حدين

  • يعزز التقطير الكفاءة ولكنه يقلل من التنوع: يمكن أن يحد هذا من قدرات النموذج على المدى الطويل.
  • "الدين الخفي" للتقطير: بدون فهم التحديات الأساسية لتدريب الذكاء الاصطناعي، يمكن أن يؤدي الاعتماد على التقطير إلى عقبات غير متوقعة عند ظهور البنى المعمارية من الجيل التالي.

4. مكافأة العملية: حدود جديدة في توافق الذكاء الاصطناعي

  • الإشراف على النتائج يحدد السقف: قد يمنع التعلم المعزز القائم على العملية القرصنة، لكن الحد الأقصى للذكاء لا يزال يعتمد على التغذية الراجعة المدفوعة بالنتائج.
  • مفارقة RL: لا تحتوي النماذج اللغوية الكبيرة (LLMs) على حالة فوز محددة مثل الشطرنج. عمل AlphaZero لأن النصر كان ثنائيًا. يفتقر التفكير في الذكاء الاصطناعي إلى هذا الوضوح.

لماذا لم تستخدم OpenAI طرق DeepSeek؟

  • مسألة تركيز: تركز OpenAI على التوسع، وليس الكفاءة.
  • "الحرب الخفية للذكاء الاصطناعي" في الولايات المتحدة: قد تكون OpenAI وAnthropic قد تجاهلتا نهج DeepSeek، لكنهما لن تفعلا ذلك لفترة طويلة. إذا أثبتت DeepSeek جدواها، توقع تحولًا في اتجاه البحث.

مستقبل الذكاء الاصطناعي في 2025

  • ما بعد Transformers؟ من المحتمل أن يتفرع الذكاء الاصطناعي إلى هياكل معمارية مختلفة. لا يزال المجال مهووسًا بـ Transformers، لكن النماذج البديلة قد تظهر.
  • الإمكانات غير المستغلة لـ RL: لا يزال التعلم المعزز غير مستغل خارج المجالات الضيقة مثل الرياضيات والبرمجة.
  • عام وكلاء الذكاء الاصطناعي؟ على الرغم من الضجة، لم يقدم أي مختبر بعد وكيل ذكاء اصطناعي ثوري.

هل سينتقل المطورون إلى DeepSeek؟

  • ليس بعد. لا تزال قدرات OpenAI الفائقة في البرمجة واتباع التعليمات تمنحها ميزة.
  • لكن الفجوة تضيق. إذا حافظت DeepSeek على الزخم، فقد يتحول المطورون في 2025.

رهان OpenAI Stargate بقيمة 500 مليار دولار: هل لا يزال منطقيًا؟

  • صعود DeepSeek يلقي بظلال من الشك على هيمنة NVIDIA. إذا كانت الكفاءة تتفوق على التوسع بالقوة الغاشمة، فقد يبدو الحاسوب الفائق بقيمة 500 مليار دولار من OpenAI مفرطًا.
  • هل ستنفق OpenAI بالفعل 500 مليار دولار؟ SoftBank هو الداعم المالي، لكنه يفتقر إلى السيولة. يبقى التنفيذ غير مؤكد.
  • تقوم Meta بعكس هندسة DeepSeek. يؤكد هذا أهميتها، لكن ما إذا كانت Meta يمكنها تكييف خارطة طريقها لا يزال غير واضح.

تأثير السوق: الفائزون والخاسرون

  • على المدى القصير: قد تواجه أسهم رقائق الذكاء الاصطناعي، بما في ذلك NVIDIA، تقلبات.
  • على المدى الطويل: تظل قصة نمو الذكاء الاصطناعي سليمة—تثبت DeepSeek ببساطة أن الكفاءة تهم بقدر ما تهم القوة الخام.

المصدر المفتوح مقابل المصدر المغلق: جبهة المعركة الجديدة

  • إذا وصلت النماذج مفتوحة المصدر إلى 95% من أداء النماذج مغلقة المصدر، فإن نموذج الأعمال بأكمله للذكاء الاصطناعي يتغير.
  • تجبر DeepSeek يد OpenAI. إذا استمرت النماذج المفتوحة في التحسن، فقد يصبح الذكاء الاصطناعي المملوك غير مستدام.

تأثير DeepSeek على استراتيجية الذكاء الاصطناعي العالمية

  • الصين تلحق بالركب أسرع مما كان متوقعًا. قد يكون الفارق في الذكاء الاصطناعي بين الصين والولايات المتحدة لا يتجاوز 3-9 أشهر، وليس سنتين كما كان يعتقد سابقًا.
  • تعتبر DeepSeek إثباتًا لمفهوم استراتيجية الذكاء الاصطناعي في الصين. على الرغم من قيود الحوسبة، فإن الابتكار المدفوع بالكفاءة يعمل.

الكلمة الأخيرة: الرؤية تهم أكثر من التكنولوجيا

  • الفرق الحقيقي لـ DeepSeek هو طموحها. تأتي اختراقات الذكاء الاصطناعي من دفع حدود الذكاء، وليس فقط تحسين النماذج الحالية.
  • المعركة التالية هي التفكير. من سيقود الجيل القادم من نماذج التفكير في الذكاء الاصطناعي سيحدد مسار الصناعة.

تجربة فكرية: إذا كان لديك فرصة واحدة لطرح سؤال على الرئيس التنفيذي لـ DeepSeek ليانغ وينفنغ، فما هو؟ ما هي أفضل نصيحة لديك للشركة وهي تتوسع؟ شارك أفكارك—قد تحصل الردود البارزة على دعوة إلى قمة الذكاء الاصطناعي المغلقة القادمة.

فتحت DeepSeek فصلًا جديدًا في الذكاء الاصطناعي. ما إذا كانت ستعيد كتابة القصة بأكملها يبقى أن نرى.

تحليل صناعة الذكاء الاصطناعي لعام 2025: الفائزون، الخاسرون، والرهانات الحرجة

· 5 دقائق قراءة
Lark Birdy
Chief Bird Officer

المقدمة

تشهد ساحة الذكاء الاصطناعي تحولاً جذرياً. على مدى الأسبوعين الماضيين، استضفنا نقاشاً مغلقاً مع باحثين ومطورين رائدين في مجال الذكاء الاصطناعي، مما كشف عن رؤى مثيرة حول مسار الصناعة في عام 2025. ما ظهر هو إعادة تنظيم معقدة للقوة، وتحديات غير متوقعة للاعبين الراسخين، ونقاط تحول حرجة ستشكل مستقبل التكنولوجيا.

هذا ليس مجرد تقرير—إنه خريطة لمستقبل الصناعة. دعونا نغوص في الفائزين، الخاسرين، والرهانات الحرجة التي تحدد عام 2025.

تحليل صناعة الذكاء الاصطناعي لعام 2025: الفائزون، الخاسرون، والرهانات الحرجة

الفائزون: ظهور هيكل قوة جديد

أنثروبيك: الرائد البراغماتي

تبرز أنثروبيك كقائد في عام 2025، مدفوعة باستراتيجية واضحة وبراغماتية:

  • بروتوكول التحكم بالنموذج (MCP): MCP ليس مجرد مواصفة تقنية بل هو بروتوكول أساسي يهدف إلى إنشاء معايير صناعية لكتابة الأكواد وسير العمل الوكيل. فكر فيه كـ TCP/IP لعصر الوكيل—خطوة طموحة لوضع أنثروبيك في مركز قابلية التشغيل البيني للذكاء الاصطناعي.
  • إتقان البنية التحتية: تركيز أنثروبيك على كفاءة الحوسبة وتصميم الرقائق المخصص يظهر رؤية في معالجة تحديات قابلية التوسع لنشر الذكاء الاصطناعي.
  • الشراكات الاستراتيجية: من خلال التركيز حصريًا على بناء نماذج قوية وتفويض القدرات التكميلية للشركاء، تعزز أنثروبيك نظامًا بيئيًا تعاونيًا. يظل نموذج كلود 3.5 سونيت الخاص بهم بارزًا، محتلاً المركز الأول في تطبيقات البرمجة لمدة ستة أشهر—وهي فترة طويلة في مصطلحات الذكاء الاصطناعي.

جوجل: بطل التكامل الرأسي

تنبع هيمنة جوجل من سيطرتها التي لا مثيل لها على سلسلة القيمة الكاملة للذكاء الاصطناعي:

  • البنية التحتية من البداية إلى النهاية: تخلق TPUs المخصصة لجوجل، ومراكز البيانات الواسعة، والتكامل الوثيق عبر السيليكون والبرمجيات والتطبيقات خندقًا تنافسيًا لا يمكن تجاوزه.
  • أداء Gemini Exp-1206: وضعت التجارب المبكرة لـ Gemini Exp-1206 معايير جديدة، مما يعزز قدرة جوجل على تحسين الأداء عبر الطبقات.
  • حلول المؤسسات: يعمل النظام البيئي الداخلي الغني لجوجل كأرض اختبار لحلول أتمتة سير العمل. يضعهم تكاملهم الرأسي في موقع مهيمن على الذكاء الاصطناعي للمؤسسات بطرق لا يمكن للشركات المتخصصة في الذكاء الاصطناعي أو مزودي السحابة التقليديين مجاراتها.

الخاسرون: أوقات صعبة قادمة

أوبن إيه آي: عند مفترق الطرق

على الرغم من نجاحها المبكر، تواجه أوبن إيه آي تحديات متزايدة:

  • الصراعات التنظيمية: تشير المغادرات البارزة، مثل أليك رادفورد، إلى احتمال وجود عدم توافق داخلي. هل يؤثر تحول أوبن إيه آي نحو التطبيقات الاستهلاكية على تركيزها على الذكاء الاصطناعي العام؟
  • القيود الاستراتيجية: قد يكون نجاح ChatGPT، على الرغم من قيمته التجارية، مقيدًا للابتكار. بينما يستكشف المنافسون سير العمل الوكيل وتطبيقات المؤسسات، تخاطر أوبن إيه آي بأن يتم حصرها في مجال الدردشة الآلية.

أبل: تفويت موجة الذكاء الاصطناعي

تهدد التطورات المحدودة لأبل في مجال الذكاء الاصطناعي هيمنتها الطويلة على ابتكار الهواتف المحمولة:

  • النقاط العمياء الاستراتيجية: مع تحول الذكاء الاصطناعي إلى مركز النظم البيئية للهواتف المحمولة، قد يؤدي نقص مساهمات أبل المؤثرة في الحلول الشاملة المدفوعة بالذكاء الاصطناعي إلى تقويض أعمالها الأساسية.
  • الضعف التنافسي: بدون تقدم كبير في دمج الذكاء الاصطناعي في نظامها البيئي، تخاطر أبل بالتخلف عن المنافسين الذين يبتكرون بسرعة.

الرهانات الحرجة لعام 2025

قدرات النموذج: الانقسام الكبير

تقف صناعة الذكاء الاصطناعي عند مفترق طرق مع مستقبلين محتملين:

  1. قفزة الذكاء الاصطناعي العام: يمكن لاختراق في الذكاء الاصطناعي العام أن يجعل التطبيقات الحالية قديمة، مما يعيد تشكيل الصناعة بين عشية وضحاها.
  2. التطور التدريجي: من المرجح أن تدفع التحسينات التدريجية التطبيقات العملية والأتمتة الشاملة، مما يفضل الشركات التي تركز على سهولة الاستخدام بدلاً من الاختراقات الأساسية.

يجب على الشركات تحقيق توازن بين الحفاظ على البحث الأساسي وتقديم القيمة الفورية.

تطور الوكلاء: الحدود التالية

تمثل الوكلاء تحولاً تحويليًا في تفاعل الإنسان مع الذكاء الاصطناعي.

  • إدارة السياق: تتحرك المؤسسات إلى ما بعد نماذج الاستجابة البسيطة لتضمين الفهم السياقي في سير العمل. هذا يبسط البنى، مما يسمح للتطبيقات بالتطور مع قدرات النموذج.
  • التعاون بين الإنسان والذكاء الاصطناعي: تحقيق التوازن بين الاستقلالية والإشراف هو المفتاح. يمكن للابتكارات مثل MCP من أنثروبيك أن تضع الأساس لـ متجر تطبيقات الوكلاء، مما يتيح التواصل السلس بين الوكلاء وأنظمة المؤسسات.

التطلع إلى الأمام: المنصات الضخمة التالية

عصر نظام تشغيل الذكاء الاصطناعي

يستعد الذكاء الاصطناعي لإعادة تعريف نماذج المنصات، وإنشاء "أنظمة تشغيل" جديدة للعصر الرقمي:

  • نماذج الأساس كبنية تحتية: تصبح النماذج منصات في حد ذاتها، مع تطوير API أولاً وبروتوكولات الوكلاء الموحدة التي تدفع الابتكار.
  • نماذج التفاعل الجديدة: سيتجاوز الذكاء الاصطناعي الواجهات التقليدية، ويتكامل بسلاسة في الأجهزة والبيئات المحيطة. يقترب عصر الروبوتات والوكلاء القابلين للارتداء.
  • تطور الأجهزة: ستسرع الرقائق المتخصصة والحوسبة الطرفية وأشكال الأجهزة المحسنة من تبني الذكاء الاصطناعي عبر الصناعات.

الخاتمة

تدخل صناعة الذكاء الاصطناعي مرحلة حاسمة حيث تصبح التطبيقات العملية والبنية التحتية والتفاعل البشري في مركز الاهتمام. سيتفوق الفائزون في:

  • تقديم حلول شاملة تحل المشكلات الحقيقية.
  • التخصص في التطبيقات الرأسية لتجاوز المنافسين.
  • بناء بنية تحتية قوية وقابلة للتوسع للنشر الفعال.
  • تحديد نماذج التفاعل بين الإنسان والذكاء الاصطناعي التي توازن بين الاستقلالية والإشراف.

هذه لحظة حاسمة. الشركات التي ستنجح هي تلك التي تحول إمكانات الذكاء الاصطناعي إلى قيمة ملموسة وتحويلية. مع حلول عام 2025، بدأت بالفعل السباق لتعريف المنصات الضخمة والنظم البيئية التالية.

ما رأيك؟ هل نحن متجهون نحو اختراق في الذكاء الاصطناعي العام، أم أن التقدم التدريجي سيسيطر؟ شارك أفكارك وانضم إلى النقاش.

الإيردروب Cuckoo × IoTeX: توسع سلسلة Cuckoo إلى IoTeX كطبقة 2

· 3 دقائق قراءة
Lark Birdy
Chief Bird Officer

تعلن شبكة Cuckoo عن توسيعها إلى IoTeX كحل طبقة 2، مما يجلب بنيتها التحتية للذكاء الاصطناعي اللامركزي إلى نظام IoTeX المتنامي. يجمع هذا التعاون الاستراتيجي بين خبرة Cuckoo في تقديم نماذج الذكاء الاصطناعي مع بنية MachineFi القوية لـ IoTeX، مما يخلق فرصًا جديدة لكلا المجتمعين.

توسع شبكة Cuckoo

الحاجة

يحتاج مستخدمو ومطورو IoTeX إلى الوصول إلى موارد حسابات الذكاء الاصطناعي اللامركزية والفعالة، بينما يحتاج بناة تطبيقات الذكاء الاصطناعي إلى بنية تحتية بلوكشين قابلة للتوسع. من خلال البناء على IoTeX، تلبي سلسلة Cuckoo هذه الاحتياجات بينما توسع سوق الذكاء الاصطناعي اللامركزي إلى نظام جديد.

الحل

تقدم سلسلة Cuckoo على IoTeX:

  • تكامل سلس مع بنية MachineFi الخاصة بـ IoTeX
  • تكاليف معاملات أقل لخدمة نماذج الذكاء الاصطناعي
  • قابلية توسع محسنة لتطبيقات الذكاء الاصطناعي اللامركزية
  • التشغيل البيني عبر السلاسل بين IoTeX وسلسلة Cuckoo

تفاصيل الإيردروب

للاحتفال بهذا التوسع، تطلق شبكة Cuckoo حملة إيردروب لأعضاء مجتمع IoTeX وCuckoo. يمكن للمشاركين كسب رموز $CAI من خلال أنشطة تفاعل متنوعة:

  1. المتبنون الأوائل من نظام IoTeX
  2. معدنو GPU الذين يساهمون في الشبكة
  3. المشاركة الفعالة في الأنشطة عبر السلاسل
  4. التفاعل المجتمعي والمساهمات في التطوير

اقتباس من القيادة

"بناء سلسلة Cuckoo كطبقة 2 على IoTeX يمثل خطوة هامة في مهمتنا لتوزيع بنية الذكاء الاصطناعي اللامركزية"، تقول دورا نودا، رئيسة المنتجات في شبكة Cuckoo. "هذا التعاون يمكننا من تقديم حسابات الذكاء الاصطناعي الفعالة والميسورة التكلفة إلى نظام MachineFi المبتكر لـ IoTeX بينما نوسع سوق الذكاء الاصطناعي اللامركزي لدينا."

الأسئلة الشائعة

س: ما الذي يجعل طبقة L2 الخاصة بسلسلة Cuckoo على IoTeX فريدة؟

ج: تجمع طبقة L2 الخاصة بسلسلة Cuckoo على IoTeX بين تقديم نماذج الذكاء الاصطناعي اللامركزي وبنية MachineFi الخاصة بـ IoTeX، مما يمكن من حسابات الذكاء الاصطناعي الفعالة والميسورة التكلفة للأجهزة والتطبيقات.

س: كيف يمكنني المشاركة في الإيردروب؟

ج: قم بزيارة https://cuckoo.network/portal/airdrop?referer=CuckooNetworkHQ لإكمال الإجراءات المؤهلة والحصول على المكافآت.

س: كيف يمكنني الحصول على المزيد من $CAI؟

  • رهن رموز $CAI
  • تشغيل عقدة تعدين GPU
  • المشاركة في المعاملات عبر السلاسل
  • المساهمة في تطوير المجتمع

س: ما هي المتطلبات التقنية لمعدني GPU؟

ج: يحتاج معدنو GPU إلى:

  • NVIDIA GTX 3080, L4 أو أعلى
  • ذاكرة RAM لا تقل عن 8 جيجابايت
  • رهن والحصول على تصويت $CAI بين أفضل 10 معدنين
  • اتصال إنترنت موثوق للحصول على تعليمات إعداد مفصلة، قم بزيارة وثائقنا على cuckoo.network/docs

س: ما الفوائد التي يجلبها هذا لمستخدمي IoTeX؟

ج: يحصل مستخدمو IoTeX على:

  • موارد حسابات الذكاء الاصطناعي اللامركزية
  • تكاليف معاملات أقل لخدمات الذكاء الاصطناعي
  • تكامل مع تطبيقات MachineFi الحالية
  • فرص كسب جديدة من خلال تعدين GPU والرهن

س: كيف تعمل الوظائف عبر السلاسل؟

ج: سيتمكن المستخدمون من نقل الأصول بسلاسة بين IoTeX وArbitrum وسلسلة Cuckoo باستخدام بنية الجسر الخاصة بنا، مما يمكن من توفير السيولة والتشغيل البيني الموحد عبر الأنظمة. تم إطلاق جسر Arbitrum والجسر الخاص بـ IoTeX لا يزال قيد العمل.

س: ما هو الجدول الزمني للإطلاق؟

ج: الجدول الزمني:

  • أسبوع 8 يناير: بدء توزيع الإيردروب على شبكة سلسلة Cuckoo الرئيسية
  • أسبوع 29 يناير: نشر الجسر بين IoTeX وسلسلة Cuckoo
  • أسبوع 12 فبراير: الإطلاق الكامل لمنصة الوكلاء الذاتيين

س: كيف يمكن للمطورين البناء على طبقة L2 الخاصة بسلسلة Cuckoo على IoTeX؟

ج: يمكن للمطورين استخدام أدوات ولغات Ethereum المألوفة، حيث تحافظ سلسلة Cuckoo على التوافق الكامل مع EVM. ستكون الوثائق الشاملة وموارد المطورين متاحة على cuckoo.network/docs.

س: ما هو إجمالي تخصيص الإيردروب؟

ج: ستوزع حملة الإيردروب "IoTeX x Cuckoo" جزءًا من إجمالي تخصيص 1‰ المخصص للمتبنين الأوائل وأعضاء المجتمع من إجمالي المعروض من 1 مليار رمز $CAI.

معلومات الاتصال

لمزيد من المعلومات، انضم إلى مجتمعنا:

Ritual: الرهان بقيمة 25 مليون دولار لجعل البلوكشين تفكر

· 9 دقائق قراءة
Lark Birdy
Chief Bird Officer

Ritual، التي تأسست في عام 2023 من قبل المستثمر السابق في Polychain نيراج بانت وأكيلش بوتي، هي مشروع طموح عند تقاطع البلوكشين والذكاء الاصطناعي. بدعم من جولة تمويل بقيمة 25 مليون دولار بقيادة Archetype واستثمار استراتيجي من Polychain Capital، تهدف الشركة إلى معالجة الفجوات الأساسية في البنية التحتية لتمكين التفاعلات المعقدة على السلسلة وخارجها. مع فريق من 30 خبيرًا من مؤسسات وشركات رائدة، تبني Ritual بروتوكولًا يدمج قدرات الذكاء الاصطناعي مباشرة في بيئات البلوكشين، مستهدفة حالات استخدام مثل العقود الذكية المولدة باللغة الطبيعية وبروتوكولات الإقراض الديناميكية المدفوعة بالسوق.

Ritual: الرهان بقيمة 25 مليون دولار لجعل البلوكشين تفكر

لماذا يحتاج العملاء إلى Web3 للذكاء الاصطناعي

يمكن أن يخفف دمج Web3 والذكاء الاصطناعي من العديد من القيود التي تُرى في الأنظمة التقليدية والمركزية للذكاء الاصطناعي.

  1. البنية التحتية اللامركزية تساعد في تقليل خطر التلاعب: عندما يتم تنفيذ حسابات الذكاء الاصطناعي ومخرجات النماذج بواسطة عقد متعددة تعمل بشكل مستقل، يصبح من الصعب للغاية على أي كيان واحد - سواء كان المطور أو وسيطًا تجاريًا - التلاعب بالنتائج. هذا يعزز ثقة المستخدم والشفافية في التطبيقات المدفوعة بالذكاء الاصطناعي.

  2. الذكاء الاصطناعي الأصلي لـ Web3 يوسع نطاق العقود الذكية على السلسلة إلى ما هو أبعد من المنطق المالي الأساسي فقط. مع الذكاء الاصطناعي في الحلقة، يمكن للعقود أن تستجيب لبيانات السوق في الوقت الحقيقي، والمطالبات التي ينشئها المستخدم، وحتى مهام الاستدلال المعقدة. هذا يمكن من حالات استخدام مثل التداول الخوارزمي، وقرارات الإقراض الآلي، والتفاعلات داخل الدردشة (مثل FrenRug) التي ستكون مستحيلة تحت واجهات برمجة التطبيقات الحالية للذكاء الاصطناعي المنعزلة. نظرًا لأن مخرجات الذكاء الاصطناعي يمكن التحقق منها ومتكاملة مع الأصول على السلسلة، يمكن تنفيذ هذه القرارات ذات القيمة العالية أو المخاطر العالية بثقة أكبر ووسطاء أقل.

  3. توزيع عبء العمل للذكاء الاصطناعي عبر شبكة يمكن أن يقلل التكاليف ويعزز القابلية للتوسع. على الرغم من أن حسابات الذكاء الاصطناعي يمكن أن تكون مكلفة، فإن بيئة Web3 المصممة جيدًا تستمد من مجموعة عالمية من موارد الحوسبة بدلاً من مزود مركزي واحد. هذا يفتح تسعيرًا أكثر مرونة، وموثوقية محسنة، وإمكانية تدفقات عمل الذكاء الاصطناعي المستمرة على السلسلة - وكلها مدعومة بحوافز مشتركة لمشغلي العقد لتقديم قوتهم الحاسوبية.

نهج Ritual

يتكون النظام من ثلاث طبقات رئيسية—Infernet Oracle، Ritual Chain (البنية التحتية والبروتوكول)، والتطبيقات الأصلية—كل منها مصمم لمعالجة تحديات مختلفة في مجال Web3 x AI.

1. Infernet Oracle

  • ما الذي يفعله Infernet هو أول منتج لـ Ritual، يعمل كجسر بين العقود الذكية على السلسلة والحوسبة الذكاء الاصطناعي خارج السلسلة. بدلاً من مجرد جلب البيانات الخارجية، ينسق مهام استدلال نماذج الذكاء الاصطناعي، يجمع النتائج، ويعيدها على السلسلة بطريقة يمكن التحقق منها.
  • المكونات الرئيسية
    • الحاويات: بيئات آمنة لاستضافة أي عبء عمل للذكاء الاصطناعي/التعلم الآلي (مثل نماذج ONNX، Torch، Hugging Face، GPT-4).
    • infernet-ml: مكتبة محسنة لنشر تدفقات عمل الذكاء الاصطناعي/التعلم الآلي، تقدم تكاملات جاهزة للاستخدام مع أطر النماذج الشهيرة.
    • Infernet SDK: يوفر واجهة موحدة بحيث يمكن للمطورين بسهولة كتابة عقود ذكية تطلب وتستهلك نتائج استدلال الذكاء الاصطناعي.
    • عقد Infernet: يتم نشرها على خدمات مثل GCP أو AWS، تستمع هذه العقد لطلبات الاستدلال على السلسلة، تنفذ المهام في الحاويات، وتعيد النتائج على السلسلة.
    • الدفع والتحقق: يدير توزيع الرسوم (بين عقد الحوسبة والتحقق) ويدعم طرق التحقق المختلفة لضمان تنفيذ المهام بصدق.
  • لماذا يهم يتجاوز Infernet كونه أوراكل تقليدي من خلال التحقق من حسابات الذكاء الاصطناعي خارج السلسلة، وليس فقط تغذيات البيانات. كما يدعم جدولة مهام الاستدلال المتكررة أو الحساسة للوقت، مما يقلل من تعقيد ربط المهام المدفوعة بالذكاء الاصطناعي بالتطبيقات على السلسلة.

2. Ritual Chain

تدمج Ritual Chain ميزات صديقة للذكاء الاصطناعي في كل من طبقات البنية التحتية والبروتوكول. تم تصميمها للتعامل مع التفاعلات المتكررة، الآلية، والمعقدة بين العقود الذكية والحوسبة خارج السلسلة، متجاوزة بكثير ما يمكن أن تديره L1s النموذجية.

2.1 طبقة البنية التحتية

  • ما الذي تفعله تدعم بنية Ritual Chain التحتية تدفقات عمل الذكاء الاصطناعي الأكثر تعقيدًا من البلوكشين القياسية. من خلال وحدات مسبقة التجميع، وجدول زمني، وامتداد EVM يسمى EVM++، تهدف إلى تسهيل مهام الذكاء الاصطناعي المتكررة أو المتدفقة، تجريدات الحساب القوية، والتفاعلات الآلية للعقود.

  • المكونات الرئيسية

    • وحدات مسبقة التجميع

      :

      • امتدادات EIP (مثل EIP-665، EIP-5027) تزيل حدود طول الكود، تقلل الغاز للتوقيعات، وتمكن الثقة بين المهام على السلسلة وخارجها.
      • التجميعات الحسابية المسبقة توحد الأطر للاستدلال الذكاء الاصطناعي، إثباتات المعرفة الصفرية، وضبط النماذج داخل العقود الذكية.
    • الجدول الزمني: يلغي الاعتماد على العقود "Keeper" الخارجية من خلال السماح للمهام بالعمل على جدول زمني ثابت (مثل كل 10 دقائق). ضروري للأنشطة المدفوعة بالذكاء الاصطناعي المستمرة.

    • EVM++: يعزز EVM بتجريد الحساب الأصلي (EIP-7702)، مما يسمح للعقود بالموافقة التلقائية على المعاملات لفترة محددة. يدعم هذا القرارات المدفوعة بالذكاء الاصطناعي المستمرة (مثل التداول الآلي) دون تدخل بشري.

  • لماذا يهم من خلال تضمين ميزات موجهة للذكاء الاصطناعي مباشرة في بنيتها التحتية، تسهل Ritual Chain الحسابات المعقدة، المتكررة، أو الحساسة للوقت للذكاء الاصطناعي. يحصل المطورون على بيئة أكثر قوة وآلية لبناء تطبيقات لامركزية "ذكية" حقًا.

2.2 طبقة بروتوكول الإجماع

  • ما الذي تفعله تعالج طبقة بروتوكول Ritual Chain الحاجة إلى إدارة مهام الذكاء الاصطناعي المتنوعة بكفاءة. تتطلب مهام الاستدلال الكبيرة والعقد الحوسبية المتنوعة منطق سوق الرسوم الخاص ونهج إجماع جديد لضمان التنفيذ السلس والتحقق.
  • المكونات الرئيسية
    • الرنين (سوق الرسوم):
      • يقدم أدوار "المزاد" و"الوسيط" لمطابقة مهام الذكاء الاصطناعي ذات التعقيد المتفاوت مع العقد الحوسبية المناسبة.
      • يستخدم تخصيص المهام شبه الشامل أو "المجمعة" لتعظيم الإنتاجية الشبكية، مما يضمن أن العقد القوية تتعامل مع المهام المعقدة دون توقف.
    • السيمفونية (الإجماع):
      • يقسم حسابات الذكاء الاصطناعي إلى مهام فرعية متوازية للتحقق. تتحقق عقد متعددة من خطوات العملية والمخرجات بشكل منفصل.
      • يمنع المهام الكبيرة للذكاء الاصطناعي من تحميل الشبكة بشكل زائد من خلال توزيع أعباء التحقق عبر عقد متعددة.
    • vTune:
      • يوضح كيفية التحقق من ضبط النموذج الذي تقوم به العقد على السلسلة باستخدام فحوصات البيانات "الخلفية".
      • يوضح قدرة Ritual Chain الأوسع على التعامل مع مهام الذكاء الاصطناعي الأطول والأكثر تعقيدًا مع افتراضات ثقة قليلة.
  • لماذا يهم تكافح أسواق الرسوم التقليدية ونماذج الإجماع مع أعباء العمل الثقيلة أو المتنوعة للذكاء الاصطناعي. من خلال إعادة تصميم كلاهما، يمكن لـ Ritual Chain تخصيص المهام ديناميكيًا والتحقق من النتائج، مما يوسع الإمكانيات على السلسلة إلى ما هو أبعد من المنطق الأساسي للرموز أو العقود.

3. التطبيقات الأصلية

  • ما الذي تفعله بناءً على Infernet وRitual Chain، تشمل التطبيقات الأصلية سوق النماذج وشبكة التحقق، مما يوضح كيف يمكن دمج الوظائف المدفوعة بالذكاء الاصطناعي وتسييلها على السلسلة.
  • المكونات الرئيسية
    • سوق النماذج:
      • يرمز نماذج الذكاء الاصطناعي (وربما المتغيرات المضبوطة) كأصول على السلسلة.
      • يسمح للمطورين بشراء أو بيع أو ترخيص نماذج الذكاء الاصطناعي، مع مكافأة العائدات لمنشئي النماذج ومقدمي الحوسبة/البيانات.
    • شبكة التحقق و"التجميع كخدمة":
      • يقدم للبروتوكولات الخارجية (مثل L2s) بيئة موثوقة لحساب والتحقق من المهام المعقدة مثل إثباتات المعرفة الصفرية أو الاستفسارات المدفوعة بالذكاء الاصطناعي.
      • يوفر حلول تجميع مخصصة تستفيد من EVM++ لـ Ritual، وميزات الجدولة، وتصميم سوق الرسوم.
  • لماذا يهم من خلال جعل نماذج الذكاء الاصطناعي قابلة للتداول والتحقق مباشرة على السلسلة، تمدد Ritual وظائف البلوكشين إلى سوق للخدمات والبيانات الذكاء الاصطناعي. يمكن للشبكة الأوسع أيضًا الاستفادة من بنية Ritual للحوسبة المتخصصة، مما يشكل نظامًا بيئيًا موحدًا حيث تكون مهام وإثباتات الذكاء الاصطناعي أرخص وأكثر شفافية.

تطوير نظام Ritual البيئي

رؤية Ritual لشبكة "بنية تحتية مفتوحة للذكاء الاصطناعي" تسير جنبًا إلى جنب مع بناء نظام بيئي قوي. إلى جانب تصميم المنتج الأساسي، قامت الفريق ببناء شراكات عبر تخزين النماذج، الحوسبة، أنظمة الإثبات، وتطبيقات الذكاء الاصطناعي لضمان تلقي كل طبقة من الشبكة دعمًا خبيرًا. في الوقت نفسه، تستثمر Ritual بشكل كبير في موارد المطورين ونمو المجتمع لتعزيز حالات الاستخدام الواقعية على سلسلتها.

  1. التعاون في النظام البيئي
  • تخزين النماذج والنزاهة: يضمن تخزين نماذج الذكاء الاصطناعي مع Arweave أنها تظل غير قابلة للتلاعب.
  • شراكات الحوسبة: توفر IO.net حوسبة لامركزية تتناسب مع احتياجات التوسع لـ Ritual.
  • أنظمة الإثبات والطبقة الثانية: تعزز التعاون مع Starkware وArbitrum قدرات توليد الإثبات للمهام المستندة إلى EVM.
  • تطبيقات المستهلك للذكاء الاصطناعي: تجلب الشراكات مع Myshell وStory Protocol المزيد من الخدمات المدفوعة بالذكاء الاصطناعي على السلسلة.
  • طبقة أصول النماذج: توفر Pond وAllora و0xScope موارد إضافية للذكاء الاصطناعي وتدفع حدود الذكاء الاصطناعي على السلسلة.
  • تعزيزات الخصوصية: تعزز Nillion طبقة الخصوصية لـ Ritual Chain.
  • الأمان والتخزين: تساعد EigenLayer في تأمين وتخزين الشبكة.
  • توفر البيانات: تعزز وحدات EigenLayer وCelestia توفر البيانات، وهو أمر حيوي لأعباء العمل للذكاء الاصطناعي.
  1. توسيع التطبيقات
  • موارد المطورين: توفر الأدلة الشاملة تفاصيل حول كيفية تشغيل حاويات الذكاء الاصطناعي، تشغيل PyTorch، ودمج GPT-4 أو Mistral-7B في المهام على السلسلة. تقلل الأمثلة العملية - مثل توليد NFTs عبر Infernet - الحواجز أمام القادمين الجدد.
  • التمويل والتسريع: يوفر مسرع Ritual Altar ومشروع Ritual Realm رأس المال والإرشاد للفرق التي تبني تطبيقات لامركزية على Ritual Chain.
  • المشاريع البارزة:
    • Anima: مساعد DeFi متعدد الوكلاء يعالج الطلبات الطبيعية عبر الإقراض، المبادلات، واستراتيجيات العائد.
    • Opus: رموز ميم مدفوعة بالذكاء الاصطناعي مع تدفقات تداول مجدولة.
    • Relic: يدمج نماذج التنبؤ المدفوعة بالذكاء الاصطناعي في AMMs، بهدف تداول أكثر مرونة وكفاءة على السلسلة.
    • Tithe: يستفيد من التعلم الآلي لضبط بروتوكولات الإقراض ديناميكيًا، مما يحسن العائد مع تقليل المخاطر.

من خلال مواءمة تصميم المنتج، الشراكات، ومجموعة متنوعة من التطبيقات اللامركزية المدفوعة بالذكاء الاصطناعي، تضع Ritual نفسها كمركز متعدد الأوجه لـ Web3 x AI. نهجها الأول للنظام البيئي - المكمل بدعم مطور واسع وفرص تمويل حقيقية - يضع الأساس لاعتماد أوسع للذكاء الاصطناعي على السلسلة.

نظرة Ritual المستقبلية

تبدو خطط منتجات Ritual ونظامها البيئي واعدة، لكن لا تزال هناك فجوات تقنية عديدة. لا يزال المطورون بحاجة إلى حل المشكلات الأساسية مثل إعداد نقاط نهاية استدلال النماذج، تسريع مهام الذكاء الاصطناعي، وتنسيق العقد المتعددة للحسابات واسعة النطاق. في الوقت الحالي، يمكن للهيكل الأساسي التعامل مع حالات الاستخدام الأبسط؛ التحدي الحقيقي هو إلهام المطورين لبناء تطبيقات أكثر إبداعًا مدفوعة بالذكاء الاصطناعي على السلسلة.

في المستقبل، قد تركز Ritual بشكل أقل على التمويل وأكثر على جعل أصول الحوسبة أو النماذج قابلة للتداول. سيجذب هذا المشاركين ويعزز أمان الشبكة من خلال ربط رمز السلسلة بأعباء العمل العملية للذكاء الاصطناعي. على الرغم من أن التفاصيل حول تصميم الرمز لا تزال غير واضحة، فمن الواضح أن رؤية Ritual هي إشعال جيل جديد من التطبيقات المعقدة، اللامركزية، والمدفوعة بالذكاء الاصطناعي - مما يدفع Web3 إلى أعمق وأكثر إبداعًا.

شبكة كوكو وسلسلة سوان تتحدان لإحداث ثورة في الذكاء الاصطناعي اللامركزي

· 3 دقائق قراءة
Lark Birdy
Chief Bird Officer

نحن متحمسون للإعلان عن شراكة جديدة مثيرة بين شبكة كوكو وسلسلة سوان، وهما قوتان رائدتان في عالم الذكاء الاصطناعي اللامركزي وتكنولوجيا البلوكشين. تمثل هذه الشراكة خطوة كبيرة إلى الأمام في مهمتنا لتعميم الوصول إلى قدرات الذكاء الاصطناعي المتقدمة وخلق نظام بيئي للذكاء الاصطناعي أكثر كفاءة وابتكارًا.

شبكة كوكو وسلسلة سوان تتحدان لإحداث ثورة في الذكاء الاصطناعي اللامركزي

تمكين الذكاء الاصطناعي اللامركزي بموارد GPU الموسعة

في قلب هذه الشراكة يكمن دمج موارد GPU الواسعة لسلسلة سوان في منصة شبكة كوكو. من خلال الاستفادة من شبكة سلسلة سوان العالمية لمراكز البيانات ومقدمي الحوسبة، ستوسع شبكة كوكو بشكل كبير قدرتها على تقديم نماذج اللغة الكبيرة اللامركزية (LLMs).

يتماشى هذا الدمج تمامًا مع رؤى كلا الشركتين:

  • هدف شبكة كوكو في إنشاء سوق تقديم نماذج الذكاء الاصطناعي اللامركزي
  • مهمة سلسلة سوان في تسريع تبني الذكاء الاصطناعي من خلال البنية التحتية الشاملة للبلوكشين

img

إحياء شخصيات الأنمي المحبوبة باستخدام الذكاء الاصطناعي

لإظهار قوة هذه الشراكة، نحن متحمسون للإعلان عن الإصدار الأولي لعدة نماذج لغة كبيرة مستوحاة من شخصيات الأنمي المحبوبة. ستعمل هذه النماذج، التي أنشأها مجتمع مبدعي كوكو الموهوب، على موارد GPU لسلسلة سوان.

img

سيتمكن المعجبون والمطورون على حد سواء من التفاعل مع هذه النماذج الشخصية والبناء عليها، مما يفتح آفاقًا جديدة لسرد القصص الإبداعي وتطوير الألعاب والتجارب التفاعلية.

الفوائد المتبادلة والرؤية المشتركة

تجمع هذه الشراكة بين نقاط القوة في كلا المنصتين:

  • شبكة كوكو توفر السوق اللامركزي والخبرة في الذكاء الاصطناعي لتوزيع وإدارة مهام الذكاء الاصطناعي بكفاءة.
  • سلسلة سوان تساهم ببنيتها التحتية القوية للـ GPU، وسوق ZK المبتكر، والالتزام بالتعويض العادل لمقدمي الحوسبة.

معًا، نعمل نحو مستقبل تكون فيه قدرات الذكاء الاصطناعي أكثر وصولًا وكفاءة وإنصافًا للمطورين والمستخدمين في جميع أنحاء العالم.

ما يعنيه هذا لمجتمعاتنا

لمجتمع شبكة كوكو:

  • الوصول إلى مجموعة أوسع من موارد GPU، مما يمكن من معالجة أسرع ونماذج ذكاء اصطناعي أكثر تعقيدًا
  • فرص موسعة لإنشاء وتحقيق الدخل من نماذج الذكاء الاصطناعي الفريدة
  • إمكانية تقليل التكاليف بفضل البنية التحتية الفعالة لسلسلة سوان

لمجتمع سلسلة سوان:

  • طرق جديدة لتحقيق الدخل من موارد GPU من خلال سوق شبكة كوكو
  • التعرض لتطبيقات الذكاء الاصطناعي المتطورة ومجتمع مبدعين نابض بالحياة
  • إمكانية زيادة الطلب والاستفادة من بنية سلسلة سوان التحتية

النظر إلى المستقبل

هذه الشراكة هي البداية فقط. بينما نمضي قدمًا، سنستكشف طرقًا إضافية لدمج تقنياتنا وخلق قيمة لكلا النظامين البيئيين. نحن متحمسون بشكل خاص للإمكانية التي يوفرها سوق ZK ونموذج الدخل الأساسي العالمي لسلسلة سوان لخلق المزيد من الفرص لمقدمي GPU ومطوري الذكاء الاصطناعي.

ابقوا على اطلاع لمزيد من التحديثات بينما ننطلق في هذه الرحلة المثيرة معًا. مستقبل الذكاء الاصطناعي اللامركزي مشرق، ومع شركاء مثل سلسلة سوان، نحن خطوة أقرب لجعل هذا المستقبل حقيقة.

ندعو كلا المجتمعين للانضمام إلينا في الاحتفال بهذه الشراكة. معًا، نحن لا نبني التكنولوجيا فقط – نحن نشكل مستقبل الذكاء الاصطناعي ونمكّن المبدعين في جميع أنحاء العالم.

شبكة كوكو

المزيد عن سلسلة سوان