.

لماذا يعد تطوير الذكاء الاصطناعي باهظ الثمن؟…

صدى الملاعب26 يونيو 2024
لماذا يعد تطوير الذكاء الاصطناعي باهظ الثمن؟…

دستور نيوز

بعد أكثر من 18 شهرًا من الهوس بالذكاء الاصطناعي، أثبتت بعض أكبر شركات التكنولوجيا أن التكنولوجيا يمكن أن تكون مصدرًا حقيقيًا للإيرادات، ولكنها أيضًا تمثل فجوة كبيرة في النفقات. أعلنت شركتا مايكروسوفت وألفابت جوجل عن ارتفاع إيراداتهما من أقسام الخدمات السحابية في أحدث نتائجهما ربع السنوية، حيث أنفق العملاء المزيد على خدمات الذكاء الاصطناعي. وقالت Meta Platforms إن جهودها في مجال الذكاء الاصطناعي ساعدت في تعزيز مشاركة المستخدمين واستهداف الإعلانات، على الرغم من أنها لا تزال متخلفة كثيرًا في تحقيق الدخل من التكنولوجيا. ولتحقيق هذه المكاسب المبكرة، أنفقت الشركات الثلاث المليارات على تطوير الذكاء الاصطناعي، وتخطط لزيادة هذه الاستثمارات بشكل أكبر. في 25 أبريل، ذكرت شركة مايكروسوفت أن نفقاتها الرأسمالية بلغت في مجموعها 14 مليار دولار في الربع الأخير، وتتوقع “زيادات كبيرة في هذه التكاليف”، مدفوعة جزئيا باستثمارات البنية التحتية للذكاء الاصطناعي. ويمثل ذلك زيادة بنسبة 79٪ عن نفس الربع من العام السابق. وأنفقت شركة ألفابت 12 مليار دولار في هذا الربع، بزيادة 91% عن العام السابق، وتتوقع أن يكون الإنفاق لبقية العام “عند نفس المستوى أو أعلى منه”، حيث تركز على فرص الذكاء الاصطناعي. وفي الوقت نفسه، رفعت ميتا تقديراتها الاستثمارية لهذا العام، وتتوقع الآن أن تتراوح النفقات الرأسمالية بين 35 مليار دولار و40 مليار دولار، أي بزيادة قدرها 42% عند الحد الأقصى للنطاق. وأشار إلى الاستثمار الضخم في أبحاث وتطوير الذكاء الاصطناعي. تكاليف الذكاء الاصطناعي لقد فاجأ ارتفاع تكلفة الذكاء الاصطناعي بعض المستثمرين. انخفض سهم Meta، على وجه الخصوص، بسبب توقعات الإنفاق إلى جانب نمو المبيعات الأبطأ من المتوقع. ولكن في مجال صناعة التكنولوجيا، كان من المعروف منذ فترة طويلة أن تكاليف الذكاء الاصطناعي سوف ترتفع. ويرجع ذلك إلى سببين رئيسيين: أن نماذج الذكاء الاصطناعي أصبحت أكبر وأكثر تكلفة في التطوير، وأن الطلب العالمي على خدمات الذكاء الاصطناعي يتطلب المزيد من مراكز البيانات لدعمها. يمكن للشركات التي تجرب خدمات الذكاء الاصطناعي أن تنفق الملايين لتخصيص المنتجات من OpenAI أو Google. بمجرد تشغيله، تكون هناك تكلفة إضافية في كل مرة ترسل فيها استفسارًا إلى برنامج الدردشة الآلي أو تطلب من خدمة الذكاء الاصطناعي تحليل بيانات المبيعات. لكن العمل الأكثر تكلفة هو بناء الأساس لأنظمة الذكاء الاصطناعي هذه، وبعض أبرز الجهود هي: نماذج اللغة الكبيرة تكبر. تعتمد منتجات الذكاء الاصطناعي الأكثر شعبية اليوم، مثل ChatGPT من OpenAI، على نماذج لغوية كبيرة – أنظمة تغذيها كميات هائلة. البيانات، بما في ذلك الكتب والمقالات والتعليقات عبر الإنترنت، لتوفير أفضل الإجابات الممكنة على استفسارات المستخدم. تراهن العديد من شركات الذكاء الاصطناعي الرائدة على أن الطريق إلى ذكاء اصطناعي أكثر تقدما، وربما حتى الأنظمة التي يمكنها التفوق على البشر في العديد من المهام، هو جعل هذه النماذج اللغوية الكبيرة أكبر. ويتطلب ذلك المزيد من البيانات والمزيد من القوة الحاسوبية، وتدريب أنظمة الذكاء الاصطناعي لفترة أطول. قال داريو أمودي، الرئيس التنفيذي لشركة Anthropic المنافسة لـ OpenAI، في مقابلة عبر البث الصوتي في أوائل أبريل: إن نماذج الذكاء الاصطناعي الموجودة حاليًا في السوق تكلف تدريبها حوالي 100 مليون دولار. وقال: “النماذج التي يتم تدريبها الآن والتي ستأتي في وقت لاحق من هذا العام أو أوائل العام المقبل تقترب من مليار دولار، وأعتقد أنها ستكون في مكان ما بين 5 مليارات و10 مليارات دولار في عامي 2025 و2026”. تكاليف الرقائق والحوسبة يرتبط جزء كبير من التكلفة بالرقائق. هذه ليست وحدات المعالجة المركزية التي جعلت شركة Intel والشركات الصغيرة التي تشغل مليارات الهواتف الذكية مشهورة. تعتمد شركات الذكاء الاصطناعي على وحدات معالجة الرسومات، التي يمكنها معالجة كميات هائلة من البيانات بسرعات عالية، لتدريب نماذج لغوية كبيرة. هذه الرقائق ليست نادرة فحسب، بل إنها باهظة الثمن أيضًا، حيث يتم تصنيع الميزات الأكثر تقدمًا بشكل أساسي بواسطة شركة واحدة: Nvidia. تم بيع شريحة الرسومات H100 من Nvidia، وهي المعيار الذهبي لتدريب نماذج الذكاء الاصطناعي، بحوالي 30 ألف دولار، ويعرضها بعض البائعين بأضعاف هذا المبلغ. تحتاج شركات التكنولوجيا الكبرى إلى الكثير منها: قال مارك زوكربيرج، الرئيس التنفيذي لشركة Meta، في وقت سابق إن شركته تخطط للحصول على 350 ألف شريحة H100 بحلول نهاية العام لدعم جهودها البحثية في مجال الذكاء الاصطناعي. وحتى لو حصل على خصم على الشراء بالجملة، فإن هذه الخطوة ستظل بمثابة استثمار بمليارات الدولارات. يمكن لشركات تأجير الرقائق القيام بذلك دون شراء الرقائق الفعلية، لكن استئجارها مكلف أيضًا. تقوم الوحدة السحابية التابعة لشركة Amazon.com Inc. بتأجير مجموعة كبيرة من المعالجات القوية المصممة بواسطة شركة Intel لعملائها مقابل حوالي 6 دولارات في الساعة. وبالمقارنة، تبلغ تكلفة استئجار شرائح Nvidia H100 حوالي 100 دولار في الساعة. في الشهر الماضي، كشفت Nvidia عن تصميم جديد للمعالج يسمى Blackwell، وهو سريع في التعامل مع نماذج اللغات الكبيرة ومن المتوقع أن يتم تسعيره بشكل مشابه لخط رقائق Hopper، والذي يتضمن H100. وقالت إنفيديا إن الأمر سيستغرق حوالي 2000 وحدة معالجة رسوميات من شركة بلاكويل لتدريب نموذج الذكاء الاصطناعي مع 1.8 تريليون معلمة. هذا هو الحجم المقدر لنموذج ChatGPT-4 الخاص بشركة OpenAI، وفقًا لدعوى قضائية رفعتها صحيفة نيويورك تايمز بشأن استخدام الشركة الناشئة لمقالاتها لتدريب أنظمة الذكاء الاصطناعي. وعلى النقيض من ذلك، قالت شركة Nvidia إن الأمر سيتطلب 8000 وحدة معالجة رسوميات من نوع Hopper للقيام بنفس المهمة. لكن هذا التحسن يمكن تعويضه مع سعي الصناعة لبناء نماذج أكبر للذكاء الاصطناعي، وفقًا لبلومبرج.

لماذا يعد تطوير الذكاء الاصطناعي باهظ الثمن؟…

– الدستور نيوز

.