المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris Laub
🚨 عاجل: نشر باحث في جوجل وحائز على جائزة تورينغ بحثا بحثيا يكشف الأزمة الحقيقية في الذكاء الاصطناعي.
ليس تدريبا. إنه استنتاج. والأجهزة التي نستخدمها لم تصمم أبدا لهذا الغرض.
الورقة من تأليف شيايو ما وديفيد باترسون. تم قبوله من قبل IEEE Computer، 2026.
لا يوجد مبالغة. لا إطلاق منتج. مجرد تفصيل بسيط لسبب تعطل خدمة نماذج اللغة الكبيرة بشكل أساسي على مستوى العتاد.
الحجة الأساسية قاسية:
→ نما عدد بطاقات الرسومات 80 مرة من 2012 إلى 2022
→ نما عرض النطاق الترددي للذاكرة بمقدار 17 ضعف فقط في نفس الفترة
→ تكلفة ال HBM لكل جيجابايت ترتفع وليس تنخفض
→ مرحلة فك الترميز مرتبطة بالذاكرة وليست بالحساب
→ نحن نبني الاستدلالات على شرائح مصممة للتدريب
إليكم الجزء الأكثر جنونا:
خسرت OpenAI حوالي 5 مليارات دولار مقابل إيرادات بلغت 3.7 مليار دولار. عنق الزجاجة ليس في جودة العارضات. إنها تكلفة تقديم كل رمز لكل مستخدم. الاستنتاج يستنزف هذه الشركات حتى الجفاف.
وخمسة اتجاهات تزيد الأمر سوءا في الوقت نفسه:
→ نماذج وزارة السحر مثل DeepSeek-V3 مع 256 خبيرا في ذاكرة الانفجار
→ نماذج التفكير التي تولد سلاسل فكرية ضخمة قبل الإجابة
→ المدخلات متعددة الوسائط (صورة، صوت، فيديو) تضخم النص
→ نوافذ السياق الطويل التي تجهد ذاكرة KV المؤقتة
→ خطوط أنابيب RAG التي تضخ المزيد من السياق لكل طلب
التغييرات الأربع المقترحة في الأجهزة التي اقترحوها:
→ فلاش عالي النطاق الترددي: 512 جيجابايت مكدس عند عرض النطاق الترددي على مستوى HBM، وزيادة الذاكرة بمقدار 10 مرات لكل عقدة
→ المعالجة بالقرب من الذاكرة: المنطق يوضع بجانب الذاكرة، وليس على نفس الشريحة
→ تكديس الذاكرة ثلاثية الأبعاد والمنطق: اتصالات رأسية توفر طاقة أقل بمقدار 2-3 مرات من HBM
→ الاتصال منخفض الكمون: عدد أقل من القفزات، الحوسبة داخل الشبكة، مخازن حزم SRAM
الشركات التي جربت شرائح SRAM فقط مثل Cerebras وGroq فشلت بالفعل واضطرت لإعادة إضافة DRAM مرة أخرى.
هذه الصحيفة لا تبيع منتجا. يرسم خريطة عنق الزجاجة الكامل في الأجهزة ويقول: الصناعة تحل المشكلة الخطأ.
تم إصدار الورقة في يناير 2026. رابط في التعليق 👇 الأول


122
عاجل: شخص ما أصدر للتو أداة Ultimate Startup Toolkit مجانا.
تسمى مجموعة المؤسسين وتحتوي على كل الموارد التي يحتاجها المؤسس للانتقال من الفكرة إلى الطرح العام الأولي.
مقالات بول غراهام. دورات YC. أمثلة على عرض العرض. أدلة لجمع التبرعات. 200+ أداة في مجالات التصميم، التحليلات، الأتمتة، والتسويق.
لا يوجد جدار دفع. لا يوجد بوابة نشرة إخبارية. لا هراء.
100٪ مفتوح المصدر.

45
خبر عاجل: اختبرت علي بابا 18 وكيل ترميز ذكاء اصطناعي على 100 قاعدة شيفرة حقيقية، تمتد كل منها على مدار 233 يوما. لقد فشلوا فشلا ذريعا.
اتضح أن اجتياز الاختبارات مرة واحدة أمر سهل. الحفاظ على الكود لمدة 8 أشهر دون أن يكسر كل شيء هو المكان الذي ينهار فيه الذكاء الاصطناعي تماما.
SWE-CI هو أول معيار يقيس صيانة الشيفرة طويلة الأمد بدلا من إصلاحات الأخطاء السريعة مرة واحدة. تتبع كل مهمة 71 التزاما متتاليا من التطور الحقيقي.
75٪ من النماذج تكسر كود يعمل سابقا أثناء الصيانة. فقط كلود أوبوس 4.5 و4.6 يبقيان فوق معدل انحدار صفري 50٪. كل نموذج آخر يتراكم عليه الدين التقني الذي يتراكم مع كل تكرار على حدة.
إليك الجزء القاسي:
- تقييم الإنسان ومشروع SWE-bench "هل يعمل الآن؟"
- SWE-CI يقيس "هل لا يزال يعمل بعد 8 أشهر من التغييرات"
الوكلاء المحسنون لاختبار اللقطات يكتبون كودا هشا يجتاز الاختبارات اليوم لكنه يصبح غير قابل للصيانة غدا.
قاموا ببناء EvoScore لوزن الإصدارات اللاحقة أثقل من النسخ المبكرة. الوكلاء الذين يضحون بجودة الكود من أجل انتصارات سريعة يعاقبون عندما تتراكم العواقب.
سرد برمجة الذكاء الاصطناعي أصبح أكثر صدقا.
معظم النماذج يمكنها كتابة الكود. نادرا ما يستطيع أحد الحفاظ عليه.

71
الأفضل
المُتصدِّرة
التطبيقات المفضلة
