الجزيرة نت تستشرف من مكاتب غوغل كلاود مستقبل الذكاء الاصطناعي بالمنطقة العربية

بعد عام من لقائه لأول مرة في مؤتمر الذكاء الاصطناعي الأول الذي نظمه معهد الجزيرة عام 2023 والذي كان من أوائل المؤتمرات التي واكبت انطلاق ثورة الذكاء الاصطناعي في المنطقة، تلتقي الجزيرة نت الدكتورَ شوقي توبي مسؤول الذكاء الاصطناعي في قسم الشركاء، ولكن هذه المرة في مكاتب غوغل كلاود بالدوحة والذي كان لنا معه هذا اللقاء.

  • بعد عام على مؤتمر الذكاء الاصطناعي في الدوحة تغير الكثير في مشهد الذكاء الاصطناعي التوليدي في العالم وفي غوغل بشكل خاص هل من الممكن أن تقول لنا ما الذي تغير؟

تغير الكثير، فكما تعلم غوغل كانت من رواد هذه التكنولوجيا فهي من أطلقت تكنولوجيا "الترانسفورمر" (Transformer)، سنة 2017، وجعلت مصدرها مفتوحا للجميع ثم قامت شركات بالبناء على هذا النموذج ومنهم شركة "أوبن إيه آي" (Open AI)

ببرنامجها "شات جي بي تي"، فحرف "تي" هو اختصار لكلمة "ترانسفورمر".

ولكن مع هذا كانت غوغل متحفظة بعض الشيء في إطلاق نماذج ذكاء اصطناعي توليدي للجمهور حتى مؤتمرها للمطورين في مايو/أيار 2023 والذي أعلنت فيه عن منتجها "بارد" (Bard) وهو برنامج دردشة باستخدام الذكاء الاصطناعي الموجه للمستخدمين مبني على برنامج "بالم" (Palm) الذي هو عبارة عن نموذج لغوي فائق الحجم (LLM) .

وفي نفس الوقت أطلقنا 6 "نماذج تأسيسية" (Foundation Models) من الذكاء الاصطناعي متخصصة بمهام معينة مثل "إيماجن" (Imagen) لخلق الصور أو "كودي" (Codey) لخلق البرامج، واستمرت غوغل بإطلاق عدة نماذج حتى وصلنا لإطلاق "جيميني" (Gemini) في نهاية 2023.

جيميني هو أول نظام يمكن اعتباره متعدد النماذج فهو ليس مختص فقط بإنشاء النصوص ولكنه يستطيع إنشاء النصوص والصور والفيديو من نفس النظام وهو الوحيد الذي يجمع عدة نماذج في نظام واحد.


مصدر الصورة
غوغل استمرت بإطلاق عدة نماذج للذكاد الاصطناعي حتى وصلت لإطلاق "جيميني"  في نهاية 2023 (غوغل)

 

ومع إطلاق جيميني بدأت الأمور تتسارع مع غوغل فبعد إطلاق النسخة 1.0 من جيميني في ديسمبر/كانون الأول 2023, أطلقنا جميني 1.5 في يناير/كانون الثاني 2024، وهو النسخة المطورة والذي يتقبل كميات ضخمة من البيانات في "البرومت" (Prompt) تصل إلى "مليون توكينز" (1M Tokens) أو ما يعادل ساعة كاملة من الفيديو أو 11 ساعة من الصوت. ونخطط لإطلاق نسخة منه على الموبايل تسمى نانو وهذه نسخة مخصصة للأجهزة المفصولة والتي تقوم بعمليات ذكاء اصطناعي داخلية إلى جانب نسختين إضافيتين تسمى آلترا وأخرى برو.

غوغل يطرح تصورين لتقديم جيميني إلى العالم: واحد موجه للأفراد وهو يسمى ببساطة "جيميني" (gemini.google.com)، والآخر للشركات، متاح عن طريق منصة متخصصة "فيرتكس إيه آي" (Vertex AI) لمساعدتهم على بناء برامج خاصة مبنية على الذكاء الاصطناعي التوليدي.

بالإضافة لكل ذلك غوغل يقدم "جيميني فور وركسبايس" (Gemini for Workspace) الموازي لـ"كوبايلوت" (Copilot) و"جيميني فور غوغل كلود" (Gemini for Google Cloud) المتخصص في مساعدة المستخدمين على التفاعل مع منصة "غوغل كلود" (Google Cloud) بطريقة سهلة مبنية على اللغة الطبيعية.

ومن جهة ثانية "فيرتكس إيه آي" يقدم تقنية "الأدابترز" (Adaptors) وهي طريقة تسمح للشركات بإعادة تدريب جيميني، بمساعدة بياناتها الخاصة التي يريد المستخدم تدريبه عليها. وفي العادة تستخدم هذه التقنية للاستفادة من قدرات "جيميني"، ولكن بناء على الأنظمة والخبرات الموجودة في المنظمة أو الشركة.

الدكتور شوقي توبي يرى أنه يجب تحليل الحالات التي كان بها الذكاء الاصطناعي غير مسؤول (الجزيرة)

أيضا في هذا المجال لدينا نسخ من الذكاء الاصطناعي التوليدي متخصصة في في مجالات محددة تهم قطاعات بعينها فمثلا لدينا الآن "ميد إل إم" (MedLM) خاص بالقطاع الصحي الذي يمكن أن يكون جزءا من آلية مساعدة الأطباء في عمليات التشخيص على سبيل المثال، فهذا النظام مخصص فقط للقطاع الصحي فإذا طلبت أن يكتب لك مقالة فربما لا تكون بالشكل الذي تريده ولكن في الطلبات الخاصة بالقطاع الصحي سوف يكون أفضل بكثير من الذكاء الاصطناعي العام، لأنه مدرب بشكل حصري على هذه المعلومات. وهنالك "سيك إل إم" (SecLM) المختص بالأمن السيبراني.

  • هذا العدد الكبير في أنظمة الذكاء الاصطناعي التي تقدمها غوغل تجعلنا نتساءل عن قدرة غوغل على إنشاء ذكاء اصطناعي مسؤول؟ خصوصا بعد الحوادث التي حدثت عند إطلاق عدد من هذه الخدمات والتي أثارت الجدل حول التحديات التي تواجه هذه التكنولوجيا. 

للإجابة عن هذا السؤال يجب أن نحلل الحالات التي تظهر مشاكل معينة بشكل منفرد، ويجب أن نبدأ بالحالات التي كان بها الذكاء الاصطناعي غير مسؤول، ثم يجب أن ندخل بعمق أكثر في البيانات التي تدرب عليها الذكاء الاصطناعي في كل حالة من هذه الحالات. بهذه الطريقة سوف نعرف كيف حصلت هذه الحالات وما هو مصدر هذه المشاكل.

لا تنس أن الذكاء الاصطناعي يتعلم من عدد هائل من البيانات التي يتم تزويده بها وهذه البيانات جزء كبير منها موجود من مصادر مفتوحة مثل الإنترنت ولذلك فهي قد تكون بيانات غير مصنفة بشكل سليم تعلم عليها الذكاء الاصطناعي وأفرزت هذه الحالات التي نجدها متحيزة ولكنها وصلت للذكاء الاصطناعي عن طريق البشر، وهو ما يجب أن نفرق بينه وبين القول إن هذه التكنولوجيا متحيزة.

برنامج "بالم" هو نموذج لغوي فائق الحجم (غيتي)
  • هذا يقودنا إلى المسؤولية عن انتشار هذه التكنولوجيا المهمة فكما نعلم هناك العديد من أنظمة الذكاء الاصطناعي مفتوحة المصدر وآخرها إعلان ماسك أنه سوف يجعل نظامه مفتوح المصدر ولكن ما خطورة هذا على مستقبل الذكاء الاصطناعي؟

الحقيقة هذا الموضوع مهم جدا في الذكاء الاصطناعي كأي تكنولوجيا قد يستخدم في الخير أو الشر، مثل الكثير من التقنيات التي كان الهدف من تطويرها خير البشرية ولكن كان لها مع الأسف استخدامات ضارة، ولهذا يجب وضع ضوابط ومعايير خاصة لاستخدام الذكاء الاصطناعي كما هو الحال بأي تكنولوجيا.

حتى يتم هذا، يجب في البداية وضع ميثاق متفق عليه كما هو الحال في بعض مواثيق الأمم المتحدة، بحيث يحدد هذا الميثاق كيف يجب أن تدار كافة الأنشطة المتعلقة بهذه التكنولوجيا بداية من البحوث والتطوير ونهاية بالاستخدامات والتأثير المتوقع على البشرية.

لذلك فالحد من انتشار هذه التكنولوجيا والحرص على وصولها بمسؤولية لأيدي الأفراد والشركات والدول هو مسؤولية الشركات المطورة ولكن أيضا هذه العملية يجب أن تخضع لضوابط ومعايير عالمية تشارك فيها الدول والشركات والمؤسسات ومنظمات المجتمع المدني.

وسائل التواصل الاجتماعي كانت تعتبر تكنولوجيا تواصل جميلة في البداية ولكن ظهرت تأثيرات الاستخدام الخاطئ بعد ذلك مثل انتهاكات الخصوصية وإساءة استخدام بيانات الأفراد، وهو ما استدعى الجهات التشريعية في أوروبا بإطلاق "النظام العام لحماية البيانات" أو ما يعرف اختصارا بـ(GDPR) لحماية الأفراد والمؤسسات الأوروبية من إساءة استغلال هذه التكنولوجيا. فالشركات مجبرة على الالتزام بهذه التشريعات وإلا سوف تطالها عقوبات كبيرة ربما لا تستطيع أن تتحمل تكلفتها المادية والمعنوية.

الذكاء الاصطناعي المفتوح المصدر يجعل من السهل على العديد من المطورين والشركات وحتى المجموعات الاستفادة من هذه التكنولوجيا لعمل برامج خبيثة أو استخدامه في تحسين عمل النشاطات المشبوهة ومن هذا المنطلق كانت غوغل حريصة على ألا تتعجل في إطلاق هذه التكنولوجيا بالرغم من أنها من روادها، ولكن مرة أخرى هذا التنظيم يجب أن يأتي من جهات أعلى من المؤسسات ويجب أن يكون الجهد مشترك بين جميع الدول.

هناك العديد من المشاريع التي تعمل عليها غوغل مع دول المنطقة وخصوصا منطقة الخليج وقطر (الجزيرة)
  • التخوفات العالمية يصاحبها تخوفات من نوع آخر حول هذه التكنولوجيا وهي تخوفات الأفراد من تغول الذكاء الاصطناعي على وظائفهم فهل هذه المخاوف مشروعة وهل يمكن أن نجد أن ما صنعناه بأيدينا أخذ وظائفنا؟

التغير موجود في كل الثورات الصناعية وقد أثرت على الكثير من الوظائف، الاختلاف الآن هو في التسارع، ولكن حتى هذا التسارع لن يلغي الوجود البشري، فهذا الانتقال من الاعتماد على البشر للاعتماد على الذكاء الاصطناعي سيمر بمراحل هي:

1- مرحلة زيادة الإنتاجية وهي مرحلة عدم الثقة بالذكاء الاصطناعي، فالوضع الحالي يمكن للذكاء الاصطناعي أن يقوم بالأعمال ومساعدة البشر في زيادة إنتاجيتهم ولكن لا يمكن أن يحل بديلا عنهم بسبب عدم وجود الثقة في أدائه فلا يمكن أن تستبدل شخص خبير في مجاله برنامج ذكاء اصطناعي بل أنت تحتاج لهذا الخبير حتى يتأكد من أن مخرجات الذكاء الاصطناعي جيدة في الوقت الحالي.

2- أما المرحلة الثانية فهي زيادة السوق وتغيير المفاهيم، وهنا نعم سيحل الذكاء الاصطناعي الجيد والمسؤول محل بعض الوظائف شأنه شأن الآلة الطابعة والحاسوب ولكن هنا سوف يكون هناك زيادة وت ....

لقراءة المقال كاملا إضغط هنا للذهاب إلى الموقع الرسمي

إقرأ أيضا