استطلاع رأي

أي من هذه الدول تمارس الدور الأكثر إيجابية في حرب غزة؟

السعودية

مصر

قطر

إيران

تركيا

أهم الموضوعات

طبقات اليمين الإسرائيلي وبصيرة دا سيلفا

عن أوهام التفاؤل الأميركي

أزمة اقتصاد مصر وانتظار الفرج من الخارج

نحو وقف الحرب على غزة

سيناريو اليوم التالي للحرب

زيف وعود «تشات جي بي تي»

الثلاثاء 21 مارس 2023 05:52 ص

زيف وعود «تشات جي بي تي»

العقل البشري نظام فعال وأنيق ومدهش يعمل بكميات معلومات صغيرة ولا يسعى لاستنتاج الارتباطات الفجة بين نقاط البيانات لكن لتقديم تفسيرات.

سلالة الذكاء الاصطناعي الأكثر شعبية وعصرية - التعلم الآلي- تنتقص من علمنا وتنحدر بأخلاقياتنا عبر دمج مفهوم خاطئ للغة والمعرفة في تقنيتنا.

برامج التعلم الآلي تستقبل كميات بيانات هائلة وتبحث عن نماذج فيها وتتزايد براعتها في توليد مخرجات محتملة إحصائيا كاللغة والأفكار التي تبدو بشرية.

لذكاء الحقيقي قادر على التفكير الأخلاقي. هذا يعني تقييد الإبداع اللامحدود لعقولنا بمجموعة من المبادئ الأخلاقية التي تحدد ما يجب وما لا يجب أن يكون.

برامج التعلم الآلي تختلف بعمق عن تفكير البشر واستخدامهم للغة، اختلافات تضع قيودا كبيرة على ما تستطيع فعله، مما يؤدي لعيوب في ترميزها لا يمكن القضاء عليها.

تم التنبؤ طويلا بلحظة تتفوق فيها العقول الميكانيكية على العقول البشرية كميا بسرعة المعالجة وحجم الذاكرة، ونوعيا من حيث البصيرة الفكرية والإبداع الفني وكل ملكة بشرية أخرى مميزة.

* * *

السلالة الأكثر بروزاً في الذكاء الاصطناعي تُشفر مفهومًا خاطئا للغة والمعرفة. وكتب الشاعر الأرجنتيني خورخي لويس بورخيس ذات يوم أن العيش في زمن الأخطار والوعود العظيمة بمثابة مكابدة للمأساة والكوميديا معًا، مع «اقتراب الكشف» في فهم أنفسنا والعالم.

وتطوراتنا الثورية المفترضة اليوم في الذكاء الاصطناعي هي بالفعل مدعاة للقلق والتفاؤل. التفاؤل لأن الذكاء هو الوسيلة التي نحل بها المشكلات. والقلق لأننا نخشى أن تكون سلالة الذكاء الاصطناعي الأكثر شعبية وعصرية - التعلم الآلي- ستنتقص من قدر علمنا وتنحدر بأخلاقياتنا من خلال دمج مفهوم خاطئ بشكل أساسي للغة والمعرفة في تقنيتنا.

وبرنامجchatGPT من شركة OpenAI "أوبن إيه آي" وبرنامج براد لشركة غوغل وبرنامج سيدني لمايكروسوفت من الكائنات الخارقة في عالم التعلم الآلي.

ويمكن القول بصفة عامة إن هذه البرامج تستقبل كميات هائلة من البيانات، وتبحث عن نماذج فيها وتتزايد براعتها في توليد مخرجات محتملة إحصائيا - مثل اللغة والأفكار التي تبدو بشرية.

وحظيت هذه البرامج بترحيب باعتبارها أول بصيص في أفق الذكاء الاصطناعي العام وهي اللحظة التي تم التنبؤ بها منذ فترة طويلة وحينها تتفوق العقول الميكانيكية على العقول البشرية ليس فقط كميا، من حيث سرعة المعالجة وحجم الذاكرة، لكن أيضا نوعيا من حيث البصيرة الفكرية والإبداع الفني وكل ملكة بشرية أخرى مميزة.

وقد يأتي ذلك اليوم، لكن فجره لم ينبلج بعد، على عكس ما يمكن قراءته في مبالغات العناوين والاستثمارات الطائشة. لم ولن يحدث الكشف البورخيسي عن الفهم – ونظن أنه لا يمكن أن يحدث - إذا استمرت برامج التعلم الآلي مثل chatGPT في السيطرة على مجال الذكاء الاصطناعي.

ومهما كانت هذه البرامج مفيدة في بعض المجالات الضيقة، فقد تكون مفيدة في برمجة الحاسوب، مثلا، لكننا نعلم من علم اللغويات وفلسفة المعرفة أنها تختلف اختلافا عميقا عن تفكير البشر واستخدامهم للغة. وتضع هذه الاختلافات قيودا كبيرة على ما تستطيع هذه البرامج فعله، مما يؤدي إلى عيوب في ترميزها لا يمكن القضاء عليها.

ومن الملهاة المأساوية في آن واحد، كما لاحظ بورخيس ربما، أن يتركز كثير من المال والاهتمام على شيء صغير جدا، شيء تافه جدا عند مقارنته بالعقل البشري الذي فيما يتعلق باللغة، على حد تعبير فيلهلم فون هومبولت، يمكن «استخدامه بشكل غير محدود من وسائل محدودة»، ويخلق أفكاراً ونظريات ذات أفق عالمي.

والعقل البشري ليس، مثل chatGPT وأضرابه، محركاً إحصائيا لمطابقة الأنماط، يلتهم مئات التيرابايت من البيانات ويستنبط استجابة المحادثة الأكثر احتمالاً أو الإجابة الأكثر احتمالاً لسؤال علمي.

وعلى العكس، العقل البشري نظام فعال وحتى أنيق بشكل مدهش يعمل بكميات صغيرة من المعلومات، ولا يسعى إلى استنتاج الارتباطات الفجة بين نقاط البيانات لكن لتقديم تفسيرات.

وعلى سبيل المثال، يتطور اكتساب طفل صغير للغة بشكل لا شعوري وتلقائي وسريع من بيانات ضئيلة، مثل قواعد اللغة، وهو نظام معقد للغاية من المبادئ والمعايير المنطقية.

ويمكن فهم هذه القواعد على أنها تعبير عن «نظام التشغيل» الفطري المثبت وراثياً، والذي يمنح البشر القدرة على توليد جمل معقدة وقطع خطوات طويلة من التفكير.

وحين يسعى اللغويون إلى تطوير نظرية تفسر سبب عمل لغة معينة بطريقة معينة - لماذا تعتبر هذه الجمل وليس تلك هي الصحيحة قواعديا، فهم يبنون بوعي وبكدح نسخة صريحة من القواعد اللغوية التي يبنيها الطفل بشكل غريزي وبأقل قدر من التعرض للمعلومات. ويختلف نظام تشغيل الطفل تماما عن نظام التعلم الآلي.

والواقع أن هذه البرامج عالقة في مرحلة ما قبل الإنسان أو اللا إنسان من التطور المعرفي. وعيبها الأعمق هو عدم وجود القدرة الأكثر أهمية لأي ذكاء، أي عدم الاقتصار على قول ما هي القضية، ما كانت عليه وما ستكون عليه - أي الوصف والتنبؤ - لكن أيضا إخبارنا بما لا يمثل القضية وما يمكن ولا يمكن أن تكون عليه القضية. وهذه هي مقومات التفسير وهي علامة الذكاء الحقيقي.

وإليكم مثال. افترض أن في يدك تفاحة ثم تركتها، ستلاحظ النتيجة وتقول «التفاحة تسقط». وهذا وصف. وربما كان التنبؤ عبارة «ستسقط التفاحة إذا فتحت يدي». وكلاهما ذو قيمة، وكلاهما قد يكون صحيحا.

لكن التفسير هو شيء أكثر من ذلك. فهو لا يشمل فقط الأوصاف والتنبؤات لكن أيضا التخمينات المضادة مثل «أي كائن من هذا القبيل سيسقط»، بالإضافة إلى الجملة الإضافية «بسبب قوة الجاذبية» أو «بسبب خضوع الزمكان» أو أيا كان. وهذا تفسير لعبارة «ما كان للتفاحة أن تسقط لولا قوة الجاذبية»، وهذا هو التفكير.

وجوهر التعلم الآلي هو الوصف والتنبؤ. ولا يطرح أي آليات عليه أو قوانين فيزيائية. وبالطبع، أي تفسير على غرار البشر ليس بالضرورة صحيحا، نحن غير معصومين. لكن هذا جزء مما يعنيه التفكير: كي تكون على صواب، يجب أن يكون من المحتمل أن تكون مخطئا. ولا يتكون الذكاء فقط من التخمينات الإبداعية ولكن أيضا من النقد الإبداعي.

ويعتمد أسلوب التفكير البشري على التفسيرات المحتملة وتصحيح الأخطاء، وهي عملية تحد تدريجيا من الاحتمالات التي يمكن اعتبارها عقلانية. كما قال شيرلوك هولمز للدكتور واتسون «إذا قضيت على المستحيل، فكل ما تبقى، مهما كان بعيد الاحتمال، لا بد أن يكون هو الحقيقة».

لكن chatGPT والبرامج المماثلة، بحكم تصميمها، غير مقتصرة فيما يمكن أن «تتعلمه» (أي حفظه في الذاكرة)، وهي غير قادرة على التمييز بين الممكن والمستحيل.

وبعكس البشر الذين يتمتعون بقواعد لغوية عالمية تقتصر اللغات التي يمكننا تعلمها على تلك التي تتمتع بنوع معين من التأنق الرياضي تقريبا، تتعلم هذه البرامج اللغات الممكنة إنسانيا والمستحيلة بشريا مع تسهيلات متساوية.

والبشر محدودون في أنواع التفسيرات التي يمكننا تخمينها بشكل منطقي، لكن أنظمة التعلم الآلي يمكنها أن تتعلم أن الأرض مسطحة وأن الأرض كروية. فهي تتداول وكفى الاحتمالات التي تتغير بمرور الوقت.

ولهذا السبب، ستظل تنبؤات أنظمة التعلم الآلي دائما سطحية ومشكوك فيها. ونظرا لأن هذه البرامج لا يمكنها شرح تراكيب الجملة الإنجليزية، مثلا، فقد تتنبأ، بالخطأ، أن عبارة «جون عنيد لدرجة تحول دون التحدث إليه» تعني أن جون عنيد جدا لدرجة أنه لن يتحدث إلى شخص أو آخر، بدلا من المعني الذي مفاده أن جون أعند من أن تقنعه بشيء.

ولماذا يتنبأ برنامج التعلم الآلي بشيء غريب جدا؟ لأنه قد تشابه لديه النمط الذي استنتجه من جمل مثل «جون أكل تفاحة» و«جون أكل» وفي الأخيرة تعني أن جون أكل شيئا أو آخر.

وقد يتنبأ البرنامج أنه نظرا لأن عبارة «جون عنيد جدا في التحدث إلى بيل» مشابهة لعبارة «جون أكل تفاحة»، ولذا يجب أن تكون عبارة «جون أعند من أن تقنعه» مشابهة لعبارة «جون أكل». والتفسيرات الصحيحة للغة معقدة ولا يمكن تعلمها بمجرد التنقيب في كم هائل من البيانات.

وعلى العكس من ذلك، يبدو أن بعض المتحمسين للتعلم الآلي يفتخرون بأن إبداعاتهم يمكن أن تولد تنبؤات «علمية» صحيحة (على سبيل المثال، حول حركة الأجسام المادية) دون استخدام التفسيرات (التي تتضمن، على سبيل المثال، قوانين نيوتن للحركة والجاذبية العامة). لكن هذا النوع من التنبؤ، حتى إذا نجح، هو علم زائف.

وصحيح أن العلماء يسعون بالتأكيد إلى نظريات تتمتع بدرجة عالية من الإثبات التجريبي، كما أشار الفيلسوف كارل بوبر، «نحن لا نسعى إلى نظريات عالية الترجيح لكننا نبحث عن تفسيرات. وهذا يعني نظريات قوية وغير مرجحة بشدة».

والنظرية القائلة بأن التفاحة تسقط على الأرض لأن هذا هو مكانها الطبيعي (وجهة نظر أرسطو) ممكنة، لكنها تدعو فقط إلى مزيد من الأسئلة، مثل: لماذا الأرض مكانها الطبيعي؟

النظرية القائلة بأن التفاح يسقط على الأرض لأن الكتلة ضغطت على الزمكان (وجهة نظر أينشتاين) غير محتملة للغاية، لكنها تخبرك في الواقع عن سبب سقوطها. ويتجلى الذكاء الحقيقي في القدرة على التفكير والتعبير عن أشياء غير محتملة لكنها ثاقبة.

الذكاء الحقيقي قادر أيضاً على التفكير الأخلاقي. هذا يعني تقييد الإبداع اللامحدود لعقولنا بمجموعة من المبادئ الأخلاقية التي تحدد ما يجب وما لا يجب أن يكون (وبالطبع إخضاع هذه المبادئ نفسها للنقد الإبداعي).

ولكي تكون مفيدة، يجب تمكين chatGPT لتوليد مخرجات تبدو جديدة، لكي تكون مقبولة لدى معظم مستخدميها، ويجب أن تبتعد عن المحتوى المرفوض أخلاقياً.

لكن مبرمجي chatGPT وكائنات التعلم الآلي الأخرى الخارقة كافحوا وسيظلون يكافحون لتحقيق هذا النوع من التوازن. ففي عام 2016، مثلا، غرق برنامج تاي تشاتبوت للشركة (مقدمةchatGPT) في محتوى كاره للنساء وعنصري، بعد أن لوثه متنمرون على الإنترنت ببيانات مهينة.

كيف يمكن حل المشكلة في المستقبل؟ في غياب القدرة على التفكير عبر المبادئ الأخلاقية، قيد مبرمجو chatGPT بصرامة برنامجهم من المساهمة بأي شيء جديد في مناقشات مثيرة للجدل، أي مهمة. فقد ضحى بالإبداع من أجل درجة ما من البعد عن الجدل الأخلاقي.

خذ في اعتبارك ما أجراه أحدنا (دكتور واتومول) في الآونة الأخيرة من جدل مع chatGPT حول مدى أخلاقية تحويل المريخ لدعم الحياة البشرية. ولاحظ، رغم كل الأفكار واللغة التي تبدو معقدة، فاللامبالاة الأخلاقية ولدت من رحم انعدام الذكاء.

وهنا، يقدم chatGPT شيئا يشبه عادية الشر: الانتحال واللامبالاة والتحاشي. إنه يلخص الحجج القياسية في الأدبيات من خلال نوع من الإكمال التلقائي الفائق، ويرفض اتخاذ موقف بشأن أي شيء، ولا يدافع عن الجهل فحسب، بل يفتقر إلى الذكاء.

ويقدم في النهاية دفاع مفاده «أتبع الأوامر فحسب»، ويلقي بالمسؤولية على مبتكريه. وباختصار، chatGPT وإخوانه غير قادرين تكوينيا على الموازنة بين الإبداع والقيود.

فهذه البرامج إما تفرط في إنتاج كل من الحقائق والأكاذيب وتؤيد القرارات الأخلاقية وغير الأخلاقية على حد سواء، أو تقتر في الإنتاج بعدم الالتزام بأي قرارات واللامبالاة بالعواقب. بالنظر إلى غياب الأخلاقية والعلم الزائف وعدم الكفاءة اللغوية لهذه الأنظمة، ليس لنا إلا أن نضحك أو نبكي من شعبيتها.

*نعوم تشومسكي مفكر وأكاديمي وفيلسوف أمريكي

المصدر | نيويورك تايمز

  كلمات مفتاحية

الأخلاق التنبؤ الوصف العقل البشري قواعد اللغة الذكاء الاصطناعي التعلم الآلي OpenAI تشات جي بي تي ChatGPT

مجموعة السبع تطالب بتبني قواعد تنظيمية للذكاء الاصطناعي

شات "جي بي تي" يواجه نكسة وضعفا غير مسبوق في الإقبال

تشات جي بي تي يطلق منصة جديدة لتحقيق أرباح للمستخدمين