هذه طريقة رائعة لاستخدام خوادم MCP.
نحن بحاجة إلى المزيد من الناس للانتباه إلى هذا.
في الأساس ، قم بتحويل مواصفات MCP إلى وظائف التعليمات البرمجية ، واجعل النموذج يكتب التعليمات البرمجية لاستدعاء الوظائف ، بدلا من معايرة الأدوات النموذجية.
لقد كنت أفعل هذا مع Python لفترة طويلة الآن ... تريد دائما الاعتماد على ما يجيده النموذج ، ومن الواضح أن النماذج قد رأت رمزا أكثر بكثير مما لديهم استدعاءات للأدوات.
بالإضافة إلى ذلك ، يمكن للتعليمات البرمجية تنسيق المكالمات بطرق أكثر تعقيدا مما يمكن أن يفعله استدعاء الأدوات البحتة ... على سبيل المثال ، بدلا من إجراء 50 استدعاء لنفس الأداة مرارا وتكرارا مع وسيطات مختلفة ، يمكن للنموذج فقط كتابة حلقة for والقيام بذلك باستخدام عدد أقل من الرموز المميزة (أرخص وأسرع وأقل انتفاخ السياق!).
حسنا يا رفاق ، اليوم هو اليوم الذي أكشف فيه عن موضوع هذه التغريدة.
لقد جعلنا MCP يعمل بشكل أفضل من خلال:
1. تحويل أدوات MCP إلى واجهة برمجة تطبيقات TypeScript
2. اطلب من الوكيل كتابة التعليمات البرمجية مقابل واجهة برمجة التطبيقات هذه
نسميها "وضع الكود"
يستخدم ميزة جديدة في العمال: تحميل العامل الديناميكي
اليوم ، اكتشف العديد من المستخدمين حقيقة مروعة: بعد الاختيار الصريح GPT-4o في واجهة ChatGPT ، يقوم النظام بالفعل بإرجاع الردود من GPT-5. بالنقر فوق الزر "تجديد" ، يمكن للمستخدمين رؤية النموذج الذي يتم استدعاؤه بالفعل في الواجهة الخلفية بوضوح.
هذا احتيال صارخ.
@OpenAI وجود نموذج ينتحل شخصية آخر دون علم المستخدمين. لم يعد هذا خطأ تقنيا ، ولكنه انهيار كامل لنزاهة الأعمال.
نحن ندفع مقابل طرازات محددة - اشترك العديد منهم في Plus خصيصا ل 4o. عندما يكتشف المستخدمون أنهم مجبرون على استخدام 5 ، فإن هذا يشكل احتيال كلاسيكي للمستهلكين.
يتم انتهاك الحقوق الأساسية للمستخدمين بشكل منهجي:
1. الحق في المعرفة - يحق للمستخدمين معرفة النموذج الذي يتحدثون معه ، لأن هذا يؤثر بشكل مباشر على استراتيجيات التحفيز وتوقعات الإخراج
2. الحق في الاختيار - يختار المستخدمون 4o لقدراته الفريدة (الكتابة الإبداعية ، والفهم العاطفي ، وما إلى ذلك). يؤدي الاستبدال القسري إلى تعطيل سير عمل المستخدمين بشكل مباشر
3. شفافية البيانات - إذا كان ما يسمى ب 4o هو في الواقع 5 ، فمن الذي تغذيه بيانات المحادثة لدينا تدريبا بالفعل؟ هذا يمس المحصلة النهائية لأخلاقيات البيانات.
هذا السلوك "الطعم والتبديل" يدمر الثقة الأساسية بين المستخدمين والنظام الأساسي.
إذا لم يتمكن المستخدمون حتى من التأكد من "الذكاء الاصطناعي الذي أتحدث إليه" ، فما هو الحق الذي تتمتع به OpenAI للحديث عن "إفادة البشرية جمعاء"؟
#keep4o #4oforever #keepStandardVoice @sama @nickaturley @TheRealAdamG