बीएमएस, बस, औद्योगिक, इंस्ट्रूमेंटेशन केबल के लिए।

एलोन मस्क और XAI टीम ने आधिकारिक तौर पर एक लाइवस्ट्रीम के दौरान ग्रोक, ग्रोक 3 का नवीनतम संस्करण लॉन्च किया। इस घटना से पहले, संबंधित जानकारी की एक महत्वपूर्ण राशि, मस्क के 24/7 प्रचार प्रचार के साथ मिलकर, GROK3 के लिए अभूतपूर्व स्तर तक वैश्विक अपेक्षाओं को उठाया। ठीक एक हफ्ते पहले, कस्तूरी ने दीपसेक आर 1 पर टिप्पणी करते हुए एक लाइवस्ट्रीम के दौरान आत्मविश्वास से कहा, "ज़ाई एक बेहतर एआई मॉडल लॉन्च करने वाला है।" लाइव प्रस्तुत आंकड़ों से, GROK3 ने कथित तौर पर गणित, विज्ञान और प्रोग्रामिंग के लिए बेंचमार्क में सभी वर्तमान मुख्यधारा के मॉडल को पार कर लिया है, कस्तूरी के साथ यह भी दावा किया गया है कि GROK3 का उपयोग स्पेसएक्स के मंगल मिशन से संबंधित कम्प्यूटेशनल कार्यों के लिए किया जाएगा, जो कि तीन वर्षों के भीतर नोबेल पुरस्कार स्तर पर "सफलताओं की भविष्यवाणी करता है।" हालांकि, ये वर्तमान में सिर्फ मस्क के दावे हैं। लॉन्च के बाद, मैंने GROK3 के नवीनतम बीटा संस्करण का परीक्षण किया और बड़े मॉडलों के लिए क्लासिक ट्रिक प्रश्न प्रस्तुत किया: "जो बड़ा है, 9.11 या 9.9?" अफसोस, किसी भी क्वालिफायर या चिह्नों के बिना, तथाकथित चतुर GROK3 अभी भी इस प्रश्न का सही जवाब नहीं दे सकता है। GROK3 प्रश्न के अर्थ की सही पहचान करने में विफल रहा।
इस परीक्षण ने कई दोस्तों से काफी ध्यान आकर्षित किया, और संयोग से, विदेशों में इसी तरह के विभिन्न परीक्षणों ने GROK3 को बुनियादी भौतिकी/गणित के सवालों से जूझते हुए दिखाया है जैसे "कौन सा गेंद पहले पिसा के झुकाव टॉवर से फॉल्स है?" इस प्रकार, इसे हास्यपूर्वक "सरल प्रश्नों के उत्तर देने के लिए अनिच्छुक प्रतिभा" के रूप में लेबल किया गया है।

GROK3 अच्छा है, लेकिन यह R1 या O1-Pro से बेहतर नहीं है।
GROK3 ने व्यवहार में कई सामान्य ज्ञान परीक्षणों पर "विफलताओं" का अनुभव किया। XAI लॉन्च इवेंट के दौरान, मस्क ने Exile 2 के गेम पथ से चरित्र वर्गों और प्रभावों का विश्लेषण करने के लिए GROK3 का उपयोग करके प्रदर्शन किया, जिसे उन्होंने अक्सर खेलने का दावा किया, लेकिन GROK3 द्वारा प्रदान किए गए अधिकांश उत्तर गलत थे। लिवस्ट्रीम के दौरान मस्क ने इस स्पष्ट मुद्दे पर ध्यान नहीं दिया।
इस गलती ने न केवल विदेशी नेटिज़ेंस के लिए गेमिंग में "एक विकल्प खोजने" के लिए कस्तूरी का मजाक उड़ाने के लिए और सबूत दिए, बल्कि व्यावहारिक अनुप्रयोगों में GROK3 की विश्वसनीयता के बारे में महत्वपूर्ण चिंताओं को भी उठाया। इस तरह के एक "प्रतिभा" के लिए, इसकी वास्तविक क्षमताओं की परवाह किए बिना, बेहद जटिल अनुप्रयोग परिदृश्यों में इसकी विश्वसनीयता, जैसे कि मंगल अन्वेषण कार्यों, संदेह में बनी हुई है।
वर्तमान में, कई परीक्षकों को जिन्होंने GROK3 सप्ताह पहले पहुंच प्राप्त की थी, और जिन्होंने कल कुछ घंटों के लिए मॉडल क्षमताओं का परीक्षण किया था, सभी एक सामान्य निष्कर्ष की ओर इशारा करते हैं: "GROK3 अच्छा है, लेकिन यह R1 या O1-Pro से बेहतर नहीं है।"

"एनवीडिया को बाधित करने" पर एक महत्वपूर्ण परिप्रेक्ष्य
रिलीज के दौरान आधिकारिक तौर पर प्रस्तुत पीपीटी में, GROK3 को चैटबॉट एरिना में "दूर से आगे" दिखाया गया था, लेकिन यह चतुराई से इस्तेमाल किया गया ग्राफिक तकनीकों का उपयोग किया गया था: लीडरबोर्ड पर ऊर्ध्वाधर अक्ष केवल 1400-1300 स्कोर रेंज में सूचीबद्ध परिणामों को सूचीबद्ध करता है, जिससे परीक्षण परिणामों में मूल 1% अंतर इस प्रस्तुति में असाधारण रूप से महत्वपूर्ण दिखाई देता है।

वास्तविक मॉडल स्कोरिंग परिणामों में, GROK3 डीपसेक R1 और GPT-4.0 से सिर्फ 1-2% आगे है, जो व्यावहारिक परीक्षणों में कई उपयोगकर्ताओं के अनुभवों से मेल खाता है, जिसमें "कोई ध्यान देने योग्य अंतर नहीं पाया गया।" GROK3 केवल अपने उत्तराधिकारियों से 1%-2%से अधिक है।

हालांकि GROK3 ने वर्तमान में सार्वजनिक रूप से परीक्षण किए गए मॉडल की तुलना में अधिक स्कोर किया है, कई लोग इसे गंभीरता से नहीं लेते हैं: आखिरकार, XAI को पहले GROK2 युग में "स्कोर हेरफेर" के लिए आलोचना की गई है। जैसा कि लीडरबोर्ड ने उत्तर लंबाई की शैली को दंडित किया, स्कोर बहुत कम हो गया, प्रमुख उद्योग के अंदरूनी सूत्र अक्सर "उच्च स्कोरिंग लेकिन कम क्षमता" की घटना की आलोचना करते हैं।
चाहे लीडरबोर्ड "हेरफेर" के माध्यम से या चित्रों में डिज़ाइन ट्रिक्स, वे मॉडल क्षमताओं में "अग्रणी द पैक" की धारणा के साथ XAI और मस्क के जुनून को प्रकट करते हैं। मस्क ने इन मार्जिन के लिए एक खड़ी कीमत का भुगतान किया: लॉन्च के दौरान, उन्होंने 200,000 H100 GPU का उपयोग करने का दावा किया (लिवेस्ट्रीम के दौरान "100,000 से अधिक" का दावा करते हुए) और 200 मिलियन घंटे के कुल प्रशिक्षण समय को प्राप्त किया। इससे कुछ लोग यह मानते हैं कि यह GPU उद्योग के लिए एक और महत्वपूर्ण वरदान का प्रतिनिधित्व करता है और इस क्षेत्र पर दीपसेक के प्रभाव को "मूर्ख" मानता है। विशेष रूप से, कुछ का मानना है कि सरासर कम्प्यूटेशनल पावर मॉडल प्रशिक्षण का भविष्य होगा।
हालांकि, कुछ नेटिज़ेंस ने डीपसेक वी 3 का उत्पादन करने के लिए दो महीने में 2000 एच 800 जीपीयू की खपत की तुलना की, यह गणना की कि ग्रोक 3 की वास्तविक प्रशिक्षण शक्ति की खपत वी 3 से 263 गुना है। दीपसेक V3 के बीच की खाई, जिसने 1402 अंक बनाए, और GROK3 सिर्फ 100 अंकों से कम है। इस डेटा की रिलीज़ के बाद, कई लोगों ने जल्दी से महसूस किया कि "दुनिया के सबसे मजबूत" के रूप में GROK3 के शीर्षक के पीछे एक स्पष्ट सीमांत उपयोगिता प्रभाव है - मजबूत प्रदर्शन उत्पन्न करने वाले बड़े मॉडलों के तर्क ने कम रिटर्न दिखाना शुरू कर दिया है।

यहां तक कि "उच्च स्कोरिंग लेकिन कम क्षमता" के साथ, GROK2 में उपयोग का समर्थन करने के लिए X (ट्विटर) प्लेटफॉर्म से उच्च गुणवत्ता वाले प्रथम-पक्षीय डेटा की विशाल मात्रा थी। हालांकि, GROK3 के प्रशिक्षण में, XAI ने स्वाभाविक रूप से "छत" का सामना किया, जो कि Openai वर्तमान में सामना करता है - प्रीमियम प्रशिक्षण डेटा की कमी तेजी से मॉडल की क्षमताओं की सीमांत उपयोगिता को उजागर करती है।
GROK3 और MUSK के डेवलपर्स इन तथ्यों को गहराई से समझने और पहचानने के लिए सबसे पहले हैं, यही कारण है कि मस्क ने सोशल मीडिया पर लगातार उल्लेख किया है कि संस्करण उपयोगकर्ता अब अनुभव कर रहे हैं "अभी भी सिर्फ बीटा" है और यह कि "आने वाले महीनों में पूर्ण संस्करण जारी किया जाएगा।" मस्क ने GROK3 के उत्पाद प्रबंधक की भूमिका निभाई है, उपयोगकर्ताओं को टिप्पणी अनुभाग में आने वाले विभिन्न मुद्दों पर प्रतिक्रिया प्रदान करते हैं।
फिर भी, एक दिन के भीतर, GROK3 के प्रदर्शन ने निस्संदेह उन लोगों के लिए अलार्म उठाया जो "बड़े पैमाने पर कम्प्यूटेशनल मांसपेशी" पर भरोसा करने की उम्मीद कर रहे थे, जो बड़े पैमाने पर बड़े मॉडलों को प्रशिक्षित करने के लिए थे: सार्वजनिक रूप से उपलब्ध Microsoft जानकारी के आधार पर, Openai के GPT-4 में GPT-3 के दस बार से अधिक 1.8 ट्रिलियन मापदंडों का एक पैरामीटर आकार है। अफवाहें बताती हैं कि GPT-4.5 का पैरामीटर आकार और भी बड़ा हो सकता है।
मॉडल पैरामीटर आकार के रूप में, प्रशिक्षण लागत भी आसमान छूती है। GROK3 की उपस्थिति के साथ, GPT-4.5 और अन्य जैसे दावेदार जो पैरामीटर आकार के माध्यम से बेहतर मॉडल प्रदर्शन को प्राप्त करने के लिए "बर्निंग मनी" जारी रखना चाहते हैं, उन्हें छत पर विचार करना चाहिए जो अब स्पष्ट रूप से दृष्टि में है और चिंतन करें कि इसे कैसे दूर किया जाए। इस समय, ओपनई के पूर्व मुख्य वैज्ञानिक इल्या सुत्सकेवर ने पहले पिछले दिसंबर में कहा था, "हम जिस पूर्व-प्रशिक्षण से परिचित हैं, वह समाप्त हो जाएगा," जो चर्चाओं में पुनर्जीवित हो गया है, बड़े मॉडलों को प्रशिक्षित करने के लिए सही मार्ग खोजने के प्रयासों को प्रेरित करता है।

इल्या के दृष्टिकोण ने उद्योग में अलार्म बजाया है। उन्होंने सटीक रूप से सुलभ नए डेटा की आसन्न थकावट का अनुमान लगाया, एक ऐसी स्थिति के लिए अग्रणी जहां प्रदर्शन को डेटा अधिग्रहण के माध्यम से बढ़ाया नहीं जा सकता है, इसे जीवाश्म ईंधन की थकावट की तुलना में। उन्होंने संकेत दिया कि "जैसे तेल, इंटरनेट पर मानव-जनित सामग्री एक सीमित संसाधन है।" Sutskever की भविष्यवाणियों में, मॉडल की अगली पीढ़ी, पोस्ट-ट्रेनिंग, "सच्ची स्वायत्तता" और तर्क क्षमताओं "मानव मस्तिष्क के समान" के पास होगी।
आज के पूर्व-प्रशिक्षित मॉडल के विपरीत, जो मुख्य रूप से सामग्री मिलान (पहले से सीखी गई मॉडल सामग्री के आधार पर) पर निर्भर करते हैं, भविष्य के एआई सिस्टम मानव मस्तिष्क के "सोच" के लिए समस्याओं को हल करने के लिए सीखने और स्थापित करने में सक्षम होंगे। एक मानव सिर्फ बुनियादी पेशेवर साहित्य के साथ एक विषय में मौलिक प्रवीणता प्राप्त कर सकता है, जबकि एक बड़े मॉडल को केवल सबसे बुनियादी प्रवेश-स्तरीय प्रभावकारिता प्राप्त करने के लिए लाखों डेटा बिंदुओं की आवश्यकता होती है। यहां तक कि जब शब्दों को थोड़ा बदल दिया जाता है, तो इन मूलभूत प्रश्नों को सही ढंग से समझा नहीं जा सकता है, यह दर्शाता है कि मॉडल को वास्तव में बुद्धि में सुधार नहीं किया गया है: लेख की शुरुआत में उल्लिखित मूल अभी तक बेतरतीब प्रश्न इस घटना के एक स्पष्ट उदाहरण का प्रतिनिधित्व करते हैं।

निष्कर्ष
हालांकि, क्रूर बल से परे, अगर GROK3 वास्तव में उद्योग को यह खुलासा करने में सफल होता है कि "पूर्व-प्रशिक्षित मॉडल अपने अंत के करीब आ रहे हैं," यह क्षेत्र के लिए महत्वपूर्ण निहितार्थ ले जाएगा।
शायद GROK3 के आसपास के उन्माद के बाद धीरे-धीरे कम हो जाते हैं, हम Fei-Fei Li के उदाहरणों को "केवल $ 50 के लिए एक विशिष्ट डेटासेट पर उच्च-प्रदर्शन वाले मॉडल को ट्यूनिंग करने के उदाहरण" के उदाहरणों को देखेंगे, अंततः AGI के लिए सही पथ की खोज करते हैं।
नियंत्रण केबल
संरचित केबल प्रणाली
नेटवर्क और डेटा, फाइबर-ऑप्टिक केबल, पैच कॉर्ड, मॉड्यूल, फेसप्लेट
Apr.16th-18th, 2024 दुबई में मध्य-पूर्व-ऊर्जा
मास्को में अप्रैल .16th-18th, 2024 सिक्योरिका
मई .9, 2024 नए उत्पादों और प्रौद्योगिकियों ने शंघाई में इवेंट लॉन्च किया
अक्टूबर .22nd-25th, 2024 बीजिंग में सुरक्षा चीन
Nov.19-20, 2024 कनेक्टेड वर्ल्ड केएसए
पोस्ट टाइम: फरवरी -19-2025