القائمة الرئيسية

الصفحات

هل يُشكل الذكاء الاِصطناعي تهديدًا حقيقيًا لإنهيار الحضارة البشرية؟

هل يشكل الذكاء الاصطناعي تهديدًا للبشرية؟
هل يشكل الذكاء الاصطناعي تهديدًا للبشرية؟

أدى الاِبتكار السريع في الذكاء الاِصطناعي إلى إثارة الجدل بين خُبراء الصناعة حول التهديد الوجودي
الذي تُشكله الآلات التي يُمكنها أداء المهام التي كان البشر يقومون بها في السابق.
- يُجادل المُتشائمون بأن الذكاء العام الاِصطناعي "وهو آلة قادرة على التفكير وتجربة العالم
مثل الإنسان" سيحدث في وقت أقرب من المتوقع وسيتفوق علينا.

- على المدى القصير، يحذرون من أن اِعتمادنا المُفرط على أنظمة الذكاء الاِصطناعي
يُمكن أن يؤدي إلى كارثة: سوف تغمر المعلومات المُضللة عبر الإنترنت.
*وبمقال (
هل يُشكل الذكاء الاِصطناعي تهديدًا حقيقيًا لإنهيار الحضارة البشرية؟)
سنكتشف ماهية الذماء الإصطناعي كخطر وجودي يُهدد حياة البشر وأعمالهم وسنتناول أيضًا
إيجابيات وسلبيات المُحتوى الذي تم إنشاؤه بواسطة الذكاء الاِصطناعي!!

أولاً: هل الذكاء الاِصطناعي يُمثل خطر علي البشرية؟

الذكاء الاِصطناعي يُشكل تهديدًا وجوديًا، ولكن ليس بالطريقة التي تُفكر بها
الذكاء الاِصطناعي يُشكل تهديدًا وجوديًا، ولكن ليس بالطريقة التي تُفكر بها

لقد ناقش مجتمع التكنولوجيا منذ فترة طويلة التهديدات التي يشكلها الذكاء الاصطناعي. 
لقد تم ذكر أتمتة الوظائف، وانتشار الأخبار المزيفة، وسباق التسلح الخطير للأسلحة التي تعمل 
بالذكاء الاصطناعي، باِعتبارها من أكبر المخاطر التي يشكلها الذكاء الاصطناعي:

1. الاِفتقار إلى شفافية الذكاء الاصطناعي وقابلية التوضيح
قد يكون من الصعب فهم نماذج الذكاء الاصطناعي والتعلم العميق، حتى بالنسبة لأولئك الذين يعملون 
مُباشرة مع التكنولوجيا. 
- ويؤدي هذا إلى الافتقار إلى الشفافية بشأن كيفية وسبب توصل الذكاء الاصطناعي إلى اِستنتاجاته 
مما يخلق نقصًا في تفسير البيانات التي تستخدمها خوارزميات الذكاء الاصطناعي أو لماذا قد تتخذ 
قرارات مُتحيزة أو غير آمنة. 
- وقد أدت هذه المخاوف إلى استخدام الذكاء الاصطناعي القابل للتفسير، ولكن لا يزال هناك طريق 
طويل قبل أن تصبح أنظمة الذكاء الاصطناعي الشفافة ممارسة شائعة.

2. فقدان الوظائف بسبب أتمتة الذكاء الاِصطناعي
تُعد أتمتة الوظائف المدعومة بالذكاء الاصطناعي مصدر قلق ملح حيث يتم اعتماد التكنولوجيا 
في صناعات مثل التسويق والتصنيع والرعاية الصحية. 
- بحلول عام 2030، يمكن أتمتة المهام التي تمثل ما يصل إلى 30% من ساعات العمل حاليًا 
في الاِقتصاد العالمي. 
وبما أن روبوتات الذكاء الاصطناعي أصبحت أكثر ذكاءً وأكثر براعة، فإن نفس المهام سوف تتطلب 
عددًا أقل من البشر، وبينما تشير التقديرات إلى أن الذكاء الاصطناعي سيخلق 97 مليون وظيفة جديدة 
بحلول عام 2025، فإن العديد من الموظفين لن يتمتعوا بالمهارات اللازمة لهذه الأدوار التقنية 
ويُمكن أن يتخلفوا عن الركب إذا لم تقم الشركات بتحسين مهارات القوى العاملة لديها.
- حتى المهن التي تتطلب شهادات عليا وتدريبًا إضافيًا بعد التخرج من الجامعة ليست مُحصنة 
ضد إزاحة الذكاء الاِصطناعي.

3. التلاعب الاِجتماعي من خلال خوارزميات الذكاء الاِصطناعي
يُمثل التلاعب الاجتماعي أيضًا خطرًا على الذكاء الاصطناعي. لقد أصبح هذا الخوف حقيقة واقعة 
مع اعتماد السياسيين على المنصات للترويج لوجهات نظرهم.
(TikTok) وهو مُجرد مثال واحد على منصة التواصل الاجتماعي التي تعتمد على خوارزميات 
الذكاء الاِصطناعي، يملأ خلاصة المُستخدم بالمحتوى المتعلق بالوسائط السابقة التي شاهدها 
على النظام الأساسي. 
- وتستهدف انتقادات التطبيق هذه العملية وفشل الخوارزمية في تصفية المحتوى الضار وغير الدقيق 
مما يثير مخاوف بشأن قدرة TikTok على حماية مستخدميه من المعلومات المضللة.
  • أصبحت وسائل الإعلام والأخبار عبر الإنترنت أكثر غموضا في ضوء الصور ومقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي، ومغيرات الصوت التي يستخدمها الذكاء الاصطناعي. 
  • فضلا عن التزييف العميق الذي يتسلل إلى المجالات السياسية والاجتماعية. 
  • تسهل هذه التقنيات إنشاء صور أو مقاطع فيديو أو مقاطع صوتية واقعية أو استبدال صورة شخصية بأخرى في صورة أو مقطع فيديو موجود. 
  • ونتيجة لذلك، أصبح لدى الجهات الفاعلة السيئة وسيلة أخرى لتبادل المعلومات المضللة والدعاية الحربية، مما يخلق سيناريو كابوس حيث قد يكون من المستحيل تقريبا التمييز بين الأخبار الموثوقة والأخبار الخاطئة.
4. المُراقبة الاِجتماعية بتقنية الذكاء الاِصطناعي
بالإضافة إلى تهديدها الوجودي، تركز فورد على الطريقة التي سيؤثر بها الذكاء الاصطناعي 
سلبًا على الخصوصية والأمن. 
- ومن الأمثلة البارزة على ذلك استخدام الصين لتكنولوجيا التعرف على الوجه في المكاتب والمدارس 
وأماكن أخرى، إلى جانب تتبع تحركات الشخص، قد تكون الحكومة الصينية قادرة على جمع بيانات 
كافية لمراقبة أنشطة الشخص وعلاقاته وآرائه السياسية.

5. الافتقار إلى خصوصية البيانات باِستخدام أدوات الذكاء الاصطناعي
إذا كُنت قد جربت روبوت الدردشة المدعم بالذكاء الاصطناعي أو جربت مرشح الوجه المدعم 
بالذكاء الاِصطناعي عبر الإنترنت، فسيتم جمع بياناتك - ولكن إلى أين تذهب وكيف يتم استخدامها؟ 
غالبًا ما تجمع أنظمة الذكاء الاصطناعي البيانات الشخصية لتخصيص تجارب المستخدم أو للمساعدة 
في تدريب نماذج الذكاء الاصطناعي التي تستخدمها (خاصة إذا كانت أداة الذكاء الاصطناعي مجانية). 
  • قد لا تُعتبر البيانات آمنة حتى من المستخدمين الآخرين عند تقديمها إلى نظام الذكاء الاصطناعي. 
  • حيث أن إحدى حوادث الأخطاء التي حدثت في ChatGPT في عام 2023 "سمحت لبعض المستخدمين برؤية العناوين من سجل الدردشة لمستخدم نشط آخر". 
  • على الرغم من وجود قوانين لحماية المعلومات الشخصية في بعض الحالات، إلا أنه لا يوجد قانون فيدرالي واضح يحمي المواطنين من الأضرار التي يتعرض لها خصوصية البيانات والتي يتعرض لها الذكاء الاصطناعي.
6. التحيزات بسبب الذكاء الاِصطناعي
الأشكال المختلفة من تحيز الذكاء الاصطناعي ضارة أيضًاـ إن تحيز الذكاء الاصطناعي يتجاوز العرق. 
بالإضافة إلى البيانات والتحيز الخوارزمي (وهذا الأخير يُمكن أن "يضخم" الأول)، يتم تطوير 
الذكاء الاصطناعي من قبل البشر - والبشر متحيزون بطبيعتهم.
  • قد تُفسر التجارب المحدودة لمُبدعي الذكاء الاصطناعي سبب فشل الذكاء الاصطناعي في التعرف على الكلام في كثير من الأحيان في فهم لهجات ولهجات معينة. 
  • أو لماذا تفشل الشركات في النظر في العواقب المترتبة على قيام روبوت الدردشة الذي ينتحل شخصية شخصيات سيئة السمعة في تاريخ البشرية. 
  • وينبغي للمطورين والشركات توخي المزيد من الحذر لتجنب إعادة خلق التحيزات والأحكام المسبقة القوية التي تعرض الأقليات للخطر.
7. عدم المساواة الاِجتماعية والاِقتصادية نتيجة للذكاء الاِصطناعي
إذا رفضت الشركات الاعتراف بالتحيزات المتأصلة في خوارزميات الذكاء الاصطناعي فقد تعرض 
مُبادرات الذكاء الاِصطناعي الخاصة بها للخطر من خلال التوظيف المدعوم بالذكاء الاِصطناعي. 
إن الاِعتقاد بأن الذكاء الاصطناعي يمكنه قياس سمات المرشح من خلال تحليلات الوجه والصوت 
لا يزال ملوثًا بالتحيزات العنصرية، مما يُعيد إنتاج نفس ممارسات التوظيف التمييزية التي تدعي 
الشركات أنها تتخلص منها.
- ويُشكل اِتساع فجوة التفاوت الاجتماعي والاقتصادي الناجمة عن فقدان الوظائف بسبب 
الذكاء الاِصطناعي سببا آخر للقلق، حيث يكشف عن التحيز الطبقي لكيفية تطبيق الذكاء الاصطناعي. 
- وقد شهد العمال ذوو الياقات الزرقاء الذين يؤدون المزيد من المهام اليدوية والمتكررة انخفاضًا 
في الأجور بنسبة تصل إلى 70% بسبب الأتمتة. 
ومن ناحية أُخرى، ظل العمال ذوو الياقات البيضاء على حالهم إلى حد كبير حتى أن بعضهم 
يتمتع بأجور أعلى.
  • إن الاِدعاءات الجارفة بأن الذكاء الاِصطناعي قد تغلب بطريقة أو بأخُرى على الحدود الاِجتماعية أو خلق المزيد من الوظائف، تفشل في رسم صورة كاملة لآثاره. 
  • من الضروري مُراعاة الاختلافات على أساس العرق والطبقة والفئات الأُخرى. 
  • وبخلاف ذلك، فإن إدراك كيف يفيد الذكاء الاصطناعي والأتمتة بعض الأفراد والمجموعات على حساب الآخرين يصبح أكثر صعوبة.
8. الأزمات المالية الناجمة عن خوارزميات الذكاء الاصطناعي
أصبحت الصناعة المالية أكثر تقبلاً لمشاركة تكنولوجيا الذكاء الاصطناعي في العمليات المالية 
والتجارية اليومية؛ ونتيجة لذلك يُمكن أن يكون التداول الخوارزمي مسؤولاً عن الأزمة المالية 
الكُبرى القادمة في الأسواق.
- على الرغم من أن خوارزميات الذكاء الاصطناعي لا تتأثر بالحكم البشري أو العواطف 
فإنها أيضًا لا تأخذ في الاِعتبار السياقات والترابط بين الأسواق وعوامل مثل الثقة البشرية والخوف. 
- تقوم هذه الخوارزميات بعد ذلك بإجراء آلاف الصفقات بوتيرة سريعة بهدف البيع بعد ثوانٍ قليلة 
لتحقيق أرباح صغيرة. 
- إن بيع آلاف الصفقات قد يخيف المستثمرين ويدفعهم إلى فعل الشيء نفسه، مما يؤدي إلى اِنهيارات 
مفاجئة وتقلبات شديدة في السوق.
  • هذا لا يعني أن الذكاء الاصطناعي ليس لديه ما يقدمه لعالم المال. 
  • في الواقع، يمكن لخوارزميات الذكاء الاصطناعي أن تساعد المستثمرين على تحقيق المزيد من الذكاء والذكاء قرارات أكثر استنارة في السوق. 
  • لكن تحتاج المؤسسات المالية إلى التأكد من فهمها لخوارزميات الذكاء الاصطناعي الخاصة بها وكيفية اتخاذ هذه الخوارزميات للقرارات. 
  • يجب على الشركات أن تفكر فيما إذا كان الذكاء الاصطناعي يزيد أو يُقلل من ثقتها قبل تقديم التكنولوجيا لتجنب إثارة المخاوف بين المستثمرين وخلق الفوضى المالية.
9. فقدان التأثير البشري
إن الاعتماد المفرط على تكنولوجيا الذكاء الاصطناعي يُمكن أن يؤدي إلى فقدان التأثير البشري 
ونقص في الأداء البشري في بعض أجزاء المجتمع. 
"على سبيل المثال" يُمكن أن يؤدي استخدام الذكاء الاصطناعي في الرعاية الصحية إلى تقليل التعاطف 
والتفكير البشري.
  •  وتطبيق الذكاء الاِصطناعي التوليدي في المساعي الإبداعية يُمكن أن يقلل من الإبداع البشري والتعبير العاطفي. 
  • إن التفاعل مع أنظمة الذكاء الاِصطناعي أكثر من اللازم قد يؤدي إلى انخفاض التواصل مع الأقران والمهارات الاجتماعية. 
  • لذلك، في حين أن الذكاء الاصطناعي يمكن أن يكون مفيدًا جدًا في أتمتة المهام اليومية، إلا أن البعض يتساءل عما إذا كان قد يعيق الذكاء البشري العام وقدراته واِحتياجات المجتمع.
10. الذكاء الاِصطناعي الذي لا يُمكن السيطرة عليه
هناك أيضًا قلق من أن الذكاء الاِصطناعي سوف يتقدم في مجال الذكاء بسرعة كبيرة بحيث يصبح واعيًا
ويتصرف خارج نطاق سيطرة البشر - رُبما بطريقة ضارة.
- لقد تم بالفعل حدوث تقارير مزعومة عن هذا الشعور، مع وجود حساب شائع من مهندس سابق
في Google والذي ذكر أن برنامج الدردشة الآلي LaMDA الذي يعمل بالذكاء الاصطناعي
كان واعيًا ويتحدث إليه تمامًا كما يفعل أي شخص.
نظرًا لأن المعالم الكبيرة التالية للذكاء الاصطناعي تتضمن إنشاء أنظمة باِستخدام الذكاء الاِصطناعي
وفي نهاية المطاف الذكاء الاصطناعي الفائق، فإن الصرخات لوقف هذه التطورات تستمر في الاِرتفاع.

ثانيًا: ما هي القيم التي يجب أن يتمتع بها الذكاء الاِصطناعي؟


في الأساس، لا يوجد بالطبع اتفاق حول القيم التي نعتنقها. 
إن ما يريد مؤسس OpenAI سام ألتمان أن يفعله الذكاء الفائق قد يكون مختلفًا تمامًا عما يريده 
عامل نسيج في بنجلاديش "على سبيل المثال". 
لقد كان تجميع التفضيلات البشرية دائمًا مسألة شائكة حتى قبل ظهور الذكاء الاِصطناعي ولكنه سيُصبح 
أكثر تعقيدًا عندما يكون لدينا ذكاء فائق قد يكون قادرًا على تنفيذ رغبات مجموعة من الرؤساء التنفيذيين 
بسرعة وبشكل كامل وعالمي. 
- إن الديمقراطية على الرغم من أنها غير كاملة، كانت الحل الأفضل الذي يُمكن أن نجده لتجميع القيمة. 
ومع ذلك، فمن غير الواضح ما إذا كانت مجموعتنا الحالية من الأنظمة السياسية الوطنية قادرة 
على التحكم في الذكاء الاصطناعي. 
في الواقع، ليس من الواضح ما إذا كانت أي منظمة أو نظام سيكون على مستوى هذه المهمة.

وبعيداً عن الخلاف حول القيم الحالية، لم يكن البشر تاريخياً بارعين في التنبؤ بالعوامل الخارجية 
المُستقبلية للتكنولوجيات الجديدة. 
- ومن الممكن أن ننظر إلى أزمة المناخ باِعتبارها نتيجة غير متوقعة لتقنيات مثل البخار 
ومُحركات الاحتراق الداخلي. 
إن التكنولوجيا الأكثر قوة لديها القدرة على خلق عوامل خارجية أكبر من أي وقت مضى. 
ومن المستحيل أن نتوقع ما هي الآثار الجانبية السلبية التي قد تترتب على التنفيذ الفعلي لبعض 
التفسيرات للقيم الإنسانية الحالية. 
  • هناك المزيد من المشكلات الأساسية التي لم يتم حلها فيما يتعلق بمواءمة الذكاء الفائق، ولكن في الوقت الحالي لا تصل شركات الذكاء الاصطناعي إلى هذا الحد. 
  • يبدو أنه حتى جعل الشبكات العصبية الكبيرة الحالية تفعل ما يريده أي شخص بشكل موثوق هو مشكلة فنية لا يمكننا حلها حاليًا. 
  • وهذا ما يُسمى الاِختلال الداخلي وقد تمت ملاحظته بالفعل في الذكاء الاصطناعي الحالي: يسعى النموذج إلى تحقيق هدف خاطئ عندما يتم إطلاقه في العالم الحقيقي بعد تدريبه على مجموعة بيانات محدودة. 

وخِــــتامًا,,,, في الواقع، هُناك خطر وجودي مُتأصل في اِستخدام الذكاء الاصطناعي 
ولكن هذا الخطر وجودي بالمعنى الفلسفي وليس بالمعنى الرؤيوي. 
- يُمكن للذكاء الاصطناعي في شكله الحالي أن يغير الطريقة التي ينظر بها الناس إلى أنفسهم. 
يُمكن أن يؤدي ذلك إلى تدهور القُدرات والخبرات التي يعتبرها الناس ضرورية لكونهم بشرًا.
"على سبيل المثال" البشر مخلوقات تصدر الأحكام، حيثُ يزن الناس التفاصيل بعقلانية 
ويصدرون أحكامًا يومية في العمل وأثناء أوقات الفراغ حول من يجب توظيفه 
ومن يجب أن يحصل على قرض، وما الذي يجب مشاهدته. 
لكن المزيد من هذه الأحكام يتم أتمتها وزراعتها في الخوارزميات. 
وعندما يحدث ذلك "فإن العالم لن ينتهي" لكن الناس سوف يفقدون تدريجيًا القُدرة 
على إصدار هذه الأحكام بأنفسهم. 
كُلما قل عدد الأشخاص الذين يصنعونها، زاد اِحتمال أن يصبحوا أسوأ في صنعها.
  • فيس بوك
  • بنترست
  • تويتر
  • واتس اب
  • لينكد ان
  • بريد
author-img
المُختصر البسيط

إظهار التعليقات
  • تعليق عادي
  • تعليق متطور
  • عن طريق المحرر بالاسفل يمكنك اضافة تعليق متطور كتعليق بصورة او فيديو يوتيوب او كود او اقتباس فقط قم بادخال الكود او النص للاقتباس او رابط صورة او فيديو يوتيوب ثم اضغط على الزر بالاسفل للتحويل قم بنسخ النتيجة واستخدمها للتعليق