كيف يمكننا ضمان أن يعمل الذكاء الاصطناعي لصالحنا

 ومضات معرفية من كتاب ترويض وادي السيليكون: كيف يمكننا ضمان أن يعمل الذكاء الاصطناعي لصالحنا

ترجمة وبتصرف: عبدالله سلمان العوامي

تاريخ نشر الترجمة: ٤ مارس ٢٠٢٥م

تاريخ اصدار الكتاب بغلاف ورقي: ١٧ مارس ٢٠٢٤م

مؤلف الكتاب: السيد غاري ماركوس Gary Marcus، نبذة مختصرة عن سيرته الذاتية تجدها في الصفحة الأخيرة.

المصدر: منصة الوميض التجارية Blinkist لتلخيص الكتب.

اسم الكتاب باللغة الإنجليزية:

Taming Silicon Valley: How We Can Ensure That AI Works for Us 

تنصل:

هذه الترجمة لا تعكس بالضرورة تأييدًا أو رفضًا لمحتوى المادة الأصلية، بل تهدف إلى نشر المعرفة وتقديم وجهات نظر متنوعة. قد تتضمن بعض المعلومات جوانب لا تتماشى مع بعض المعتقدات أو التوجهات، ولكنها محاولة جادة لنقل الفكرة الرئيسية للنص مع الحفاظ على السياق العام، وإن لم تكن دقيقة تمامًا. تسعى الترجمة إلى توسيع آفاق التفكير عبر نقل الأبحاث والرؤى المختلفة في مجالات مثل الصحة، التقنية، والاقتصاد، وغيرها مما يتيح للأفراد الاطلاع على المعلومات بلغاتهم وتعزيز التفاهم بين الثقافات، إلى جانب فتح المجال للنقاش الموضوعي والاستفادة منها أو نقدها بوعي.

تعريف مختصر بالكتاب:

كتاب “ترويض وادي السيليكون Taming Silicon Valley ” (والذي تم إصداره في عام ٢٠٢٤م) يأخذك في رحلة ملحة عبر المشهد الخطير للذكاء الاصطناعي والسيطرة المتزايدة لشركات التكنولوجيا الكبرى على حياتنا، حيث ستكتشف كيف تقوم هذه الشركات التقنية الكبرى بالتلاعب بالرأي العام والسياسات الحكومية، بينما تتعرف على الإمكانات الحقيقية والمخاطر الكامنة في تطوير الذكاء الاصطناعي. من خلال حلول عملية ومقترحات سياسية ملموسة، ستكتسب المعرفة اللازمة للدفاع عن مستقبل يكون فيه الذكاء الاصطناعي في خدمة البشرية بدلاً من أن يتحكم بها.

المحتوى التالي هو من تلخيص منصة الوميض Blinkist. وهو مكون من مقدمة وخاتمة بالإضافة الى ٥ ومضات معرفية، وتعتبر كل ومضة تلخيصا لفصل كامل من الكتاب:

المقدمة – الفائدة من هذا الكتاب هي مقاومة تلاعب تقنيات الذكاء الاصطناعي من خلال المعرفة والعمل:

يُشكّل الذكاء الاصطناعي تجاربك اليومية بطرق خفية. في كل مرة تفتح هاتفك، أو تقرأ بريدك الإلكتروني، أو تتصفح منصات وسائل التواصل الاجتماعي، تعمل أنظمة الذكاء الاصطناعي بهدوء في الخلفية، لتقديم اقتراحات وتعديل ما تراه. هذه التفاعلات الصغيرة تتراكم بمرور الوقت لتُحدث تغييرات كبيرة في كيفية معالجتك للمعلومات، واتخاذك للقرارات، ورؤيتك للعالم من حولك.

في هذا الملخص، ستتعرف على القدرات الحقيقية لأنظمة الذكاء الاصطناعي الحالية، وستكتشف ما يحدث فعليًا خلف تلك الواجهات السلسة والرسائل التسويقية المصقولة. ستتعلم طرقًا عملية لاكتشاف المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، وحماية معلوماتك الشخصية، واتخاذ قرارات ذكية بشأن أدوات الذكاء الاصطناعي التي تستحق ثقتك. ستساعدك هذه الرؤى على تعزيز وعيك التقني وتزويدك بإرشادات واضحة لاستخدام الذكاء الاصطناعي بفعالية، سواء في عملك أو في حياتك الشخصية.

لنبدأ بالتعرف على كيفية عمل هذه الأنظمة فعليًا – وأين تكمن أوجه القصور فيها.

ومضة رقم ١ – لماذا الذكاء الاصطناعي الحالي ليس هو ما نحتاجه:

يعد الذكاء الاصطناعي بمستقبل مليء بالاختراقات التكنولوجية والتقدم. ولكن أنظمة الذكاء الاصطناعي الحالية، بما في ذلك روبوتات الدردشة الشهيرة وأدوات الإبداع، تُظهر قيودًا كبيرة تثير تساؤلات جدية حول موثوقيتها وفائدتها.

دعونا نلقي نظرة على كيفية عمل هذه الأنظمة – وأين تفشل. يُعد تشات جي بي تي ChatGPT مثالًا بارزًا. فقد تبدو محادثاته ذكية على السطح، لكن الآليات الأساسية تروي لنا قصة مختلفة. فهو ببساطة يتنبأ بالكلمة التالية بناءً على أنماط البيانات، دون أي فهم حقيقي أو تفكير منطقي. وهذا يؤدي إلى ما يسميه الباحثون “الهلوسات” – وهي بيانات خاطئة تُعرض بثقة زائفة.

هناك أمثلة واضحة تمامًا على ذلك. عند سؤاله عن خلفية أحد أساتذة القانون، اختلق تشات جي بي تي ChatGPT فضيحة تحرش جنسي وهمية، مع ذكر مراجع لمقالات إخبارية لم تكن موجودة أصلًا. وفي حالة أخرى، زعم أن ٢ كيلوغرام من الريش يزن أقل من ١ كيلوغرام من الطوب. تكشف هذه الأخطاء الأساسية عن الفجوة بين الذكاء الظاهري والفهم الحقيقي.

تواجه أنظمة الذكاء الاصطناعي المرئية مشاكل مماثلة. عند الطلب من أحد الأنظمة إنشاء صورة لـ “رجل حكيم مسن يحتضن وحيد القرن”، أنتج مشهدًا مزعجًا حيث اخترق قرن وحيد القرن جسد الرجل، ومع ذلك ظل تعبير وجه الرجل هادئًا – ما يدل على أن الذكاء الاصطناعي فشل في ملاحظة هذا التناقض الواضح. وفي مرة أخرى، عند تكليفه بإخفاء فيل في مشهد على الشاطئ، قام النظام برسم سحابة على شكل فيل، مما أظهر عدم قدرته على فهم مفهوم الإخفاء.

تشير هذه المشكلات إلى قضية أكبر: لا يزال الذكاء الاصطناعي بحاجة إلى مزيد من التطوير قبل طرحه على نطاق واسع. فالأنظمة الحالية قادرة على إنتاج نصوص سلسة وصور مذهلة، لكنها تفتقر إلى مهارات التفكير الأساسية. فهي لا تستطيع التحقق من الحقائق، أو حل المسائل الرياضية البسيطة، أو الحفاظ على التناسق المنطقي.

لقد بدأت العواقب الواقعية لهذه المشكلات بالظهور بالفعل. فقد استشهدت أنظمة الذكاء الاصطناعي القانونية بقضايا محكمة وهمية، مما أجبر المحامين على تقديم تصحيحات محرجة والاعتذار للقضاة. كما أن روبوتات الدردشة الطبية تقدم نصائح مثيرة للقلق – حيث وجدت دراسة أجرتها جامعة ستانفورد Stanford أنها تقدم معلومات صحيحة بنسبة لا تتجاوز ٤١% من الوقت.

تستمر هذه الأنظمة في الانتشار على الرغم من عدم موثوقيتها، وذلك بسبب العوامل الاقتصادية في تطوير الذكاء الاصطناعي. تجد الشركات أنه من الأسهل والأكثر فعالية من حيث التكلفة توسيع نطاق الأساليب الحالية بدلاً من معالجة المشكلات الأساسية المتعلقة بفهم الآلة والتفكير المنطقي. هذا التسرع في الطرح والتسويق لا يخلق مشاكل تقنية فحسب، بل يفتح الباب أمام مخاطر اجتماعية جسيمة.

إن الجمع بين الأنظمة غير الموثوقة والانتشار السريع قد خلق ظروفًا مثالية لحدوث أضرار واسعة النطاق. ومع انتشار هذه الأدوات المعيبة للذكاء الاصطناعي في المجتمع، فإنها تجلب معها مخاطر تتجاوز مجرد الأعطال التقنية البسيطة. بدءًا من التدخل في الانتخابات وصولًا إلى انتهاكات الخصوصية، تتطلب هذه المخاطر انتباهنا الفوري – وفهمها يبدأ بإدراك مدى التأثير العميق الذي بدأ بالفعل يشكله الذكاء الاصطناعي على عالمنا.

ومضة رقم ٢ – التهديدات الأكثر إلحاحًا:

تثير العيوب الأساسية في أنظمة الذكاء الاصطناعي مخاوف جدية، لكن انتشارها السريع في المجتمع قد أدى إلى خلق مخاطر فورية. فقد تحولت المشكلات التقنية إلى تهديدات حقيقية تؤثر على عالمنا في الوقت الحالي.

تواجه ثقة الجمهور تحديات خطيرة مع قدرة أنظمة الذكاء الاصطناعي على إنشاء محتوى مزيفا بسرعة وبدقة غير مسبوقة. خذ على سبيل المثال الانتخابات السلوفاكية Slovak election لعام ٢٠٢٣م – حيث انتشرت تسجيلات صوتية مزيفة في جميع أنحاء البلاد، تزعم زورًا أن المرشح الأبرز كان يخطط لتزوير الانتخابات. لم تكن هذه الحادثة حالة منفردة، إذ سرعان ما ظهرت خدع مماثلة تعتمد على الذكاء الاصطناعي في دول أخرى، مستهدفةً الانتخابات المحلية والنزاعات الدولية، مما غيّر بشكل جذري طبيعة الحروب المعلوماتية.

تمتد هذه الخدع إلى الأمن الشخصي، مما يمنح المجرمين طرقًا جديدة لخداع الناس وسرقة أموالهم. أصبح الذكاء الاصطناعي قادرًا الآن على تقليد الأصوات وإنشاء مقاطع فيديو واقعية لدرجة أن حتى المحترفين ذوي الخبرة يقعون ضحية لعمليات الاحتيالات. تخيل هذا السيناريو: يتلقى الآباء مكالمات هاتفية تبدو تمامًا مثل أصوات أطفالهم، حيث يستخدم المجرمون هذه الأصوات المزيفة لاختلاق عمليات اختطاف وطلب فدية. لقد تطورت هذه التقنية بشكل مذهل لدرجة أنه بحلول أوائل عام ٢٠٢٤م، تمكن المحتالون من سرقة ٢٥ مليون دولار من أحد البنوك في هونغ كونغ باستخدام مكالمات فيديو مزيفة بدت وكأنها من مسؤولين تنفيذيين حقيقيين في الشركة.

وبالحديث عن مقاطع الفيديو المزيفة، فإن تقنية التزييف العميق (Deepfake) تشكل تهديدًا مباشرًا للكرامة الشخصية ولمدى قدرتنا على الثقة فيما نراه. أصبح إنشاء المحتوى المزيف سريعًا، وغير مكلف، ومقنعًا للغاية. لنأخذ مثالًا على ذلك: في أوائل عام ٢٠٢٤م، انتشرت صور فاضحة مزيفة للمغنية المشهورة تايلور سويفت Taylor Swift تم إنشاؤها بالذكاء الاصطناعي عبر الإنترنت. وخلال ساعات فقط، حيث نشأت من مجتمع على منصة 4chan ووصلت إلى ملايين المستخدمين على وسائل التواصل الاجتماعي قبل إزالتها. وفي وقت لاحق من نفس العام، في شهر أغسطس، شارك الرئيس ترامب صورًا مزيفة أنشأها الذكاء الاصطناعي، زاعمًا خطأً أن المغنية سويفت ومعجبيها يدعمون حملته، على الرغم من تاريخ سجلها في تأييد المرشحين الديمقراطيين. انتشرت هذه المشكلة أيضًا في المدارس، حيث بدأ الطلاب بإنشاء صور فاضحة مزيفة لزملائهم في الفصل. كما استخدم بعض الموظفين هذه التقنية لإنشاء تسجيلات مزيفة لزملائهم ورؤسائهم في العمل.

تتجاوز مشكلات الخصوصية هذه الأحداث الفردية. تعمل أنظمة الذكاء الاصطناعي الحديثة كشبكات ضخمة لجمع البيانات، حيث تقوم بجمع ودراسة المعلومات الشخصية باستمرار. في كل مرة يستخدم فيها شخص ما نظام ذكاء اصطناعي، قد تصبح بياناته جزءًا من مواد التدريب، حيث يتم جمعها ودراستها، وأحيانًا تسريبها بطرق غير متوقعة. تقوم شركات تأجير السيارات الآن بجمع كميات هائلة من البيانات الشخصية – بما في ذلك أماكن تنقلك، ورسائلك الهاتفية، وحتى تفاصيل خاصة عن حياتك – دون الحصول على إذن واضح أو اتباع قواعد شفافة. كما بدأت أنظمة الذكاء الاصطناعي اللغوية في تسريب المعلومات الخاصة أيضًا. على سبيل المثال، قام تشات جي بي تي ChatGPT بعرض محادثات خاصة لمستخدمين لا علاقة لهم ببعضهم البعض تمامًا.

تثير هذه التهديدات المتشابكة تساؤلات حول الصورة الأكبر. تعكس المشكلات التقنية التي نراها اليوم قرارات اتخذت في غرف اجتماعات مجالس إدارة الشركات وغرف اجتماعات المستثمرين. وحين التتبع لمسار الأموال تكشف أنماطًا تتجاوز مجرد أخطاء برمجية أو أعطال في الأنظمة – أنماط قد تفسر سبب استمرار تفاقم هذه المشكلات بدلًا من تحسنها.

ومضة رقم ٣ – كيف يتلاعب وادي السيليكون بنا:

لقد أنشأت عمالقة التكنولوجيا في وادي السيليكون شبكة من الخداع تمتد بعمق عبر كل مستوى من مستويات الصناعة. يُظهر تلاعبهم المدروس بالرأي العام والسياسات الحكومية كيف تقوم شركات التكنولوجيا الكبرى بحجب الرقابة الحقيقية بينما تدفع بأنظمة محفوفة بالمخاطر إلى الأسواق، مع الترويج بتقديم صورة مصممة بعناية عن الابتكار المسؤول. يمتد هذا التلاعب من الحملات الإعلامية على وسائل التواصل الاجتماعي إلى تمويل الأبحاث الأكاديمية، مما يخلق إحساسًا زائفًا بالأمان حول تطوير الذكاء الاصطناعي.

انظر كيف تغيرت هذه الشركات. بدأت شركة جوجل Google بقاعدة بسيطة، تحت عنوان: “لا تكن شريرًا”. أما شركة أوبن أي آي OpenAI فقد بدأت كمنظمة غير ربحية، مدعية أنها تسعى لخدمة الإنسانية. ولكن بحلول عام ٢٠٢٤م، أصبحت شركة أوبن أي آي OpenAI مرتبطة بشركة مايكروسوفت Microsoft من خلال صفقات معقدة تضمن لشركة مايكروسوفت ما يقرب من نصف أول ٩٢ مليار دولار من أرباح شركة أوبن أي آي OpenAI. وخلال فترة الإقالة القصيرة للمدير التنفيذي السيد سام ألتمان Sam Altman، أظهر الموظفون ولاءً علنيًا – لكن مصادر خاصة كشفت أن دافعهم الرئيسي كان حماية عملية بيع أسهم قادمة تقدر قيمة الشركة بـ ٨٦ مليار دولار، رغم أنها لم تحقق أي أرباح فعلية. هذا النمط يتكرر في وادي السيليكون، حيث تتلاشى المثالية الأولية أمام القرارات المدفوعة بالربح.

يقود المدراء التنفيذيون في شركات التكنولوجيا حملات علاقات عامة متطورة تهدف إلى تضليل الجمهور، مستخدمين رسائل مصاغة بعناية وتوقيتًا استراتيجيًا. يوقعون على رسائل تحذر من مخاطر الذكاء الاصطناعي المستقبلية، بينما يعارضون الحلول للمشكلات الحالية. خذ على سبيل المثال كبير علماء الكمبيوتر في شركة ميتا Meta (الشركة الأم لشركة فيسبوك)، السيد يان ليكون Yann LeCun، الذي زعم أن المعلومات الزائفة التي ينشئها الذكاء الاصطناعي ستظل تحت السيطرة – في الوقت الذي كانت شركته تطور النسخة الثانية من نظام لاما Llama-2، وهو نظام يجعل إنشاء المحتوى المزيف أمرًا سهلاً ومتاحًا لأي شخص يمتلك مهارات تقنية أساسية. أو انظر إلى شركة جوجل Google، التي أطلقت عرضًا تجريبيًا مضللًا لنظام جيميناي Gemini، مما أدى إلى ارتفاع سعر أسهمها بنسبة ٥٪، مما يظهر كيف أن تحقيق الأرباح في الأسواق أصبح أكثر أهمية من الصدق في تقديم المنتجات.

يتزايد نفوذ قطاع صناعة التكنولوجيا باستمرار. ففي عام ٢٠٢٣م، قفز عدد جماعات الضغط العاملة في مجال الذكاء الاصطناعي إلى ٤٥٠ منظمة، أي ضعف العدد في العام السابق. تجاوز إنفاق شركات التكنولوجيا الأوروبية على أنشطة الضغط ١٠٠ مليون يورو خلال ١٢ شهرًا فقط، مما مكنها من تأمين ٨٤ اجتماعًا مع قادة المفوضية الأوروبية، في حين لم تحصل مجموعات المصالح العامة سوى على ١٢ فرصة فقط للتحدث. أما السيد سام ألتمان، المدير التنفيذي لـشركة أوبن آي OpenAI، فقد لعب على الجانبين ببراعة: حيث أيد القوانين علنًا، بينما كان لوبي شركته يعمل في الكواليس لإضعاف قانون الذكاء الاصطناعي الأوروبي والدفع باتجاه استثناءات لحقوق النشر.

يمتد هذا النفوذ عبر قنوات خاصة أيضًا، مكونًا شبكة ظل من القوة والتأثير. يمول المؤسس المشارك لشركة فيسبوك Facebook، السيد داستن موسكوفيتز Dustin Moskovitz، شبكات من مستشاري الذكاء الاصطناعي الذين شغلوا مناصب مؤثرة في المؤسسات الرئيسية في العاصمة الامريكية واشنطن. وقد ساهمت آراؤهم في تشكيل الأمر التنفيذي للبيت الأبيض بشأن الذكاء الاصطناعي، حيث امتدت أموال شركات التكنولوجيا إلى دعم موظفي الكونغرس الذين يكتبون قوانين الذكاء الاصطناعي. كما أنشأت الشركات مسارات مهنية بين الحكومة وقطاع التكنولوجيا – مثل تعيين نائب رئيس الوزراء البريطاني السابق، السيد نيك كليغ Nick Clegg، في منصب تنفيذي رفيع في شركة ميتا Meta، أو انضمام المسؤول الفرنسي السابق السيد سيدريك أو Cédric O إلى إحدى شركات الذكاء الاصطناعي، مما كاد أن يؤدي إلى عرقلة القوانين الأوروبية الخاصة بالذكاء الاصطناعي. إن هذه الأبواب الدوارة بين الحكومة والصناعة تخلق تضاربًا في المصالح يقوض الرقابة العامة.

إن تركّز القوة في أيدي الشركات يجعل وضع قواعد واضحة أكثر أهمية من أي وقت مضى. نحن بحاجة إلى حماية محددة وملزمة لموازنة تأثير الشركات وضمان أن يخدم الذكاء الاصطناعي الصالح العام بدلاً من أن يكون مجرد وسيلة لتحقيق الأرباح. إن سيطرة صناعة التكنولوجيا على كل من الرأي العام والسياسات الحكومية لا تترك مجالًا للتأخير.

ومضة رقم ٤ – الحمايات الأساسية التي نحتاجها الآن:

في مواجهة القوة المركزة والتلاعب الذي تمارسه شركات وادي السيليكون، برزت ثلاث وسائل حماية أساسية باعتبارها ضمانات ضرورية لمستقبل الذكاء الاصطناعي. وتشمل هذه المتطلبات الأساسية – حقوق البيانات، وحماية الخصوصية، والشفافية – التي يجب أن تشكل الأساس لأي نظام رقابي فعال، مع معايير واضحة قابلة للتنفيذ بدلاً من مجرد وعود غامضة.

تتصدر حقوق البيانات الخطوط الامامية في هذه المعركة. خذ على سبيل المثال السيد إد نيوتن-ريكس Ed Newton-Rex، الباحث في مجال الذكاء الاصطناعي والملحن، الذي اثار اهتمام الصحافة وتصدّر عناوين الأخبار عندما استقال من منصبه القيادي في شركة استبيليتي أي آي Stability AI. لم يستطع تقبل أنظمة تستخدم أعمال المبدعين دون إذن أو تعويض. دفع موقفه هذا إلى المطالبة بمفهوم “كرامة البيانات” – أي ضمان حصول الأشخاص على مقابل عندما تتعلم أنظمة الذكاء الاصطناعي من أعمالهم الإبداعية أو بياناتهم الشخصية. يمكن تشبيه ذلك بحقوق الملكية الموسيقية: مدفوعات صغيرة تتراكم مع كل مرة يساهم فيها عمل شخص ما في تطوير نظام ذكاء اصطناعي. لكن حماية الحقوق الإبداعية لا تحل سوى جزء بسيط من المشكلة فقط.

تواجه الخصوصية الشخصية تهديدات مماثلة من أنظمة الذكاء الاصطناعي غير المنظمة. وتُظهر التحركات الأخيرة للاتحاد الأوروبي مسارًا محتملًا للمستقبل. فقد أقر الاتحاد في أواخر عام ٢٠٢٣م توجيه المسؤولية عن المنتجات، الذي يُلزم الشركات بتقديم أدلة إذا ادعى أحد الأشخاص أن خصوصيته قد انتهكت. يساعد هذا الإجراء الأفراد العاديين في مقاضاة الشركات التكنولوجية الكبرى من خلال إزالة العقبات التقنية التي تحول دون إثبات ادعاءاتهم، وهذا يعيد المزيد من السيطرة إلى أيدي الناس.

تجعل الحاجة إلى الوضوح والشفافية من هذه القضية محورًا أساسيًا لأي إصلاح هادف. فقد أنشأ فريق بحثي يضم جامعة ستانفورد Stanford، ومعهد ماساتشوستس للتكنولوجيا (MIT)، وجامعة برينستون Princeton اختبارًا يضم ١٠٠ معيار، يغطي كل شيء من معاملة العمال إلى إجراءات السلامة. وقد فشلت جميع شركات الذكاء الاصطناعي في اجتياز هذا الاختبار. يمكن للمعايير الأفضل أن تلزم الشركات بتوثيق مصادر بيانات التدريب الخاصة بها، ومشاركة أساليب الاختبار، والسماح للخبراء من خارج هذه الشركات بمراجعة أعمالها. كما يجب أن تلتزم الشركات بتتبع المشكلات والإبلاغ عن التأثيرات السلبية لأنظمتها.

تعمل وسائل الحماية الثلاث هذه معًا لإحداث تغيير جذري في تطوير الذكاء الاصطناعي. تخيل نظامًا يتم فيه دفع مقابل عادل لكل جزء من بيانات التدريب، وتفرض الغرامات تلقائيًا عند انتهاك الخصوصية، ويستطيع العلماء بحرية البحث عن المشكلات في أنظمة الذكاء الاصطناعي. بالتأكيد، قد يؤدي ذلك إلى إبطاء التقدم بعض الشيء، لكنه يبقى أفضل من الاندفاع غير المسؤول نحو تقنيات خطيرة.

يتطلب تحقيق هذه الرؤية قوة قانونية جديدة. يوفر قانون حماية الخصوصية والبيانات الأمريكي إطارًا أوليًا ولكنه بحاجة إلى أسنان أكثر حدة (تعزيز صارم). كما يقدم نهج الاتحاد الأوروبي في محاسبة الشركات مسارًا واعدًا آخر. يعتمد النجاح في هذا المجال على وضع خبراء تقنيين مستقلين – وليس أصدقاء الشركات أو الموظفين البيروقراطيين – في مواقع المسؤولية عن تنفيذ هذه القوانين.

قد يقلق النقاد من أن القواعد الصارمة قد تعيق التقدم، لكن القوانين القوية لا تقتل الابتكار – بل توجهه نحو نتائج أفضل. لم تمنع قواعد السلامة شركات الأدوية من تطوير أدوية جديدة؛ بل جعلت هذه الأدوية أكثر أمانًا. من شأن قوانين حماية الذكاء الاصطناعي أن تدفع الشركات إلى بناء أنظمة تحترم الحقوق الإنسانية الأساسية، مما يخلق رقابة قوية قادرة على مواجهة النفوذ الهائل لوادي السيليكون.

سوف تعيد هذه الحماية المتكاملة تشكيل تطور الذكاء الاصطناعي من أساسه. ستحتاج الشركات إلى إثبات أن أنظمتها تفيد البشرية بدلاً من أن تضرها، وأن تعرض آليات عملها بشفافية، وتتحمل مسؤولية التزاماتها، وتصلح أخطائها. قد يبدو هذا المسار أبطأ، لكنه يضمن تطورًا للذكاء الاصطناعي يخدم الناس بدلاً من أن يكون مجرد وسيلة لتحقيق الأرباح.

ومضة رقم ٥ – اتخاذ الإجراءات:

إن مسار تنفيذ هذه الحماية الأساسية للذكاء الاصطناعي لا يعتمد فقط على الحكومات أو الشركات، بل يتطلب أيضًا تحركًا فرديًا وجماعيًا. وعلى الرغم من أن التحديات قد تبدو هائلة، فإن التاريخ يثبت أن المواطنين المنظمين يمكنهم مواجهة المصالح التكنولوجية القوية وإعادة تشكيل مسار تطوير التقنيات التحويلية.

تجسد قصة مشروع كوايسايد في مدية تورونتو Toronto في كندا هذه القوة بوضوح. فقد خططت شركة ألفابت Alphabet، الشركة الأم لشركة جوجل، لبناء حي مليء بالمستشعرات على الواجهة البحرية لمدينة تورونتو. وبفضل دعم عمدة المدينة ورئيس الوزراء وقادة التكنولوجيا، بدا أن المشروع سيمضي قدمًا دون عوائق. ولكن الناشطة المحلية السيدة بيانكا وايلي Bianca Wylie بدأت بطرح تساؤلات حول الخصوصية والرقابة العامة. وسرعان ما تحول فريقها الصغير إلى حركة كبيرة سلطت الضوء على المخاطر المترتبة على السماح للشركات الخاصة بالتحكم في المساحات العامة. وبفضل جهودهم المستمرة، نجحوا في الضغط على الشركة، مما أجبر شركة ألفابت في عام ٢٠٢٠م على إلغاء المشروع بالكامل، وهو انتصار كبير لحقوق المواطنين على مصالح الشركات.

يمكن للناس إحداث التغيير من خلال قنوات عديدة تتجاوز الاحتجاجات. يُظهر نجاح شهادة (التدريب العادل) “Fairly Trained” تأثير الخيارات الاستهلاكية الذكية. حيث يمنح هذا البرنامج ختم الموافقة لنماذج الذكاء الاصطناعي التي تدفع بشكل عادل مقابل بيانات التدريب التي تعتمد عليها. أدركت شركة أدوبي Adobe هذا الاتجاه وبدأت في ترخيص أعمالها الفنية الخاصة لأنظمة الذكاء الاصطناعي، مما يثبت أن الشركات يمكنها بناء ذكاء اصطناعي أخلاقي مع الحفاظ على الربحية واحترام حقوق المبدعين.

استنادًا إلى هذه الجهود الاستهلاكية، بدأت المجموعات المهنية في ممارسة قوتها الجماعية. بعد أن مكّن برنامج المصمم Designerمن شركة مايكروسوفت Microsoft من إنشاء محتوى إباحي مزيف، مما جعل الفنانون والمبدعون القيام بتنظيم حملات مقاطعة وحملات توعية عامة. أجبر صوتهم الموحد شركات التكنولوجيا على مواجهة الأضرار الحقيقية التي قد تسببها منتجاتهم، مما أدى إلى تغييرات كبيرة في تصميم المنتجات وتنفيذها.

يستمر نمو المشاركة العامة من خلال التجمعات المدنية. قدمت فرنسا نموذجًا لما يمكن تحقيقه من خلال “النقاش الوطني الكبير”، حيث شارك أكثر من مليون شخص في مناقشات حول دور التكنولوجيا في المجتمع. ساهمت هذه المداولات في إحداث تغييرات حقيقية في السياسات، مما أدى إلى إنشاء نموذج لكيفية تأثير المنتديات العامة على تطور التكنولوجيا. يمكن أن تساعد مناقشات مماثلة تركز على الذكاء الاصطناعي في سد الفجوة بين المعرفة التقنية والحكمة المجتمعية.

يلعب التعليم دورًا رئيسيًا في تطوير الذكاء الاصطناعي بشكل مسؤول. يهدف قانون محو الأمية بالذكاء الاصطناعي المطروح في الكونغرس الامريكي إلى تعليم الناس ما يمكن للذكاء الاصطناعي القيام به وما لا يمكنه تحقيقه. دعم هذه البرامج يعزز المعرفة العامة، مما يؤدي إلى رقابة أقوى على شركات التكنولوجيا واتخاذ قرارات أكثر وعيًا بشأن كيفية تطبيق الذكاء الاصطناعي في المجتمع.

تتحد هذه الأساليب في استراتيجية واضحة: الجمع بين التنظيم الشعبي والضغط على المؤسسات، مع إنشاء أساليب أفضل لتطوير التكنولوجيا. إحداث تغيير دائم يتطلب العمل على عدة مسارات في الوقت نفسه – دعم الشركات المسؤولة، والتصدي للممارسات الضارة، والمطالبة باتخاذ إجراءات سياسية، وإنشاء آليات جديدة تمكن الجمهور من المشاركة المستمرة في القرارات التكنولوجية.

في الوقت الحالي، لا يزال لدى الناس فرصة للتأثير على كيفية تطور الذكاء الاصطناعي، لكن هذه النافذة لن تظل متاحة للأبد. فكلما أصبح الذكاء الاصطناعي أكثر اندماجًا وعمقا في الحياة اليومية، كلما قلت الفرص المتاحة للتأثير على مساره. لكن هذه القصص الناجحة تثبت أن المواطنين المنظمين لا يزال بإمكانهم توجيه مسار التكنولوجيا، وضمان أن يخدم الذكاء الاصطناعي البشر بدلاً من أن يكون مجرد أداة لتعظيم أرباح الشركات. المفتاح يكمن في اتخاذ إجراءات حاسمة بينما لا يزال بإمكان المشاركة العامة إحداث فرق حقيقي.

الملخص النهائي:

في هذا الملخص لكتاب “ترويض وادي السيليكون” بقلم الكاتب السيد غاري إف. ماركوس Gary F. Marcus، تعلمت أن الذكاء الاصطناعي، على الرغم من وعوده بتقديم تطورات ثورية، لا يزال تقنية مليئة بالعيوب التي تهدد خصوصيتنا وأمننا وقدرتنا على الوثوق بما نراه ونسمعه.

تمتد هذه المشكلات إلى جذور عميقة – من أنظمة الذكاء الاصطناعي التي ترتكب أخطاء منطقية أساسية وتنشر المعلومات المضللة، وصولا إلى عمالقة التكنولوجيا الذين يضعون الأرباح فوق السلامة ويعرقلون أي رقابة حقيقية. ومع ذلك، لا يزال هناك أمل من خلال العمل الجماعي، كما أثبتت الحركات الشعبية الناجحة التي أجبرت الشركات على تعديل تطوير الذكاء الاصطناعي. من خلال خيارات المستهلك، والنشاط المنظم، والمشاركة العامة في مناقشات السياسات، لا يزال بإمكاننا تشكيل مسار هذه التكنولوجيا – لكن فقط إذا اتخذنا إجراءات الآن، بينما لا تزال لدينا الفرصة لضمان أن يخدم الذكاء الاصطناعي المصلحة العامة وليس مجرد مصالح الشركات.

نبذة مختصرة عن المؤلف:

السيد غاري ماركوس Gary Marcus  هو عالم معرفي (علم الإدراك)  وأستاذ فخري في جامعة نيويورك، متخصص في تقاطع علم النفس، علم الأعصاب، والذكاء الاصطناعي. يُعرف بأبحاثه في علم الإدراك وتطوير تقنيات الذكاء الاصطناعي، إضافةً إلى نقده البناء لمحدوديات الأنظمة الحالية.

وهو مؤلف لعدة كتب، منها Guitar Zero وKluge، ومؤسس شركة Geometric Intelligence، التي استحوذت عليها لاحقًا شركة أوبر. كما أسس شركة Robust.AI، التي تهدف إلى تطوير ذكاء اصطناعي أكثر موثوقية وقدرة على الفهم. بفضل خبرته الواسعة، يُعد السيد ماركوس صوتًا مؤثرًا في النقاشات حول مستقبل الذكاء الاصطناعي وتأثيره على المجتمع.

Previous post توصيات علمية للصيام في رمضان وفقًا لمنصات غربية متخصصة
Next post العقل الخارق: اكتشف إمكانيات دماغك اللامحدودة

Average Rating

5 Star
0%
4 Star
0%
3 Star
0%
2 Star
0%
1 Star
0%

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *