الذكاء الاصطناعي والتقنية تكنولوجيا التعليم مقالات منوعة

مقال|هل نتحكم في الذكاء الاصطناعي أم بدأ هو في توجيهنا؟

Spread the love

مقال للكاتبة ابتسام الرمحين مدربة و مستشارة ذكاء اصطناعي

تخيل أنك تجلس في سيارة ذاتية القيادة، وفجأة ظهر أمامك عائق يحتم على السيارة الاختيار بين الاصطدام بجدار لإنقاذ مشاة، أو حمايتك أنت وتعريض الآخرين للخطر. من الذي يبرمج هذه “الأخلاق” في عقل الآلة؟

هذا السؤال ليس مشهداً من فيلم سينمائي، بل هو صلب النقاش الدائر اليوم حول المعايير الأخلاقية للذكاء الاصطناعي.

– هل الآلة “عادلة” حقاً ؟

يعتقد الكثيرون أن الآلة حيادية لأنها تعتمد على الأرقام، لكن الحقيقة صادمة:

  الخوارزميات تتغذى على بياناتنا؛ فإذا كانت البيانات منحازة (عرقياً أو جندرياً)، ستصبح الآلة “عنصرية” أو “ظالمة” دون أن تدرك.

التحدي الأخلاقي: كيف يمكننا تطهير عقول الآلات من تحيزات البشر؟

من يحاسب “الخوارزمية” عندما تخطئ؟

إذا رفض بنك مثلا منحك قرضاً بناءً على قرار من ذكاء اصطناعي، أو تم تشخيصك بشكل خاطئ بواسطة روبوت طبي:

– هل نلوم المبرمج؟

– أم الشركة المصنعة؟

– أم أن “الذكاء” وصل لمرحلة من التعقيد تجعلنا غير قادرين على فهم كيف اتخذ القرار؟

معضلة “الروح” مقابل “الرقم” (في الصحة والمهنة)

عندما يقرر الطبيب إجراء جراحة، هو لا ينظر فقط للأشعة، بل يقرأ نظرة عين المريض، يفهم تاريخه النفسي، ويتحمل “مسؤولية أخلاقية” تجاه قسم المهنة.

في الصحة: الذكاء الاصطناعي قد يتفوق في رصد الأورام بنسبة دقة 99%, لكنه يفتقر لـ “الحدس السريري”
هل نثق بآلة قد تقرر إيقاف أجهزة الإنعاش بناءً على حسابات احتمالية الموت فقط؟

في المهنة: الخوارزمية قد ترفض توظيفك لأن نمط حياتك (الذي استنتجته من بياناتك) لا يتوافق مع “نموذج الموظف المثالي” لديها. هنا نتحول من بشر نملك “فرصة للتغيير” إلى مجرد توقعات إحصائية جامدة.


-خصوصيتك: هل هي ثمن التقدم؟

في كل مرة تستخدم فيها تطبيقاً ذكياً، أنت تدفع ثمن الخدمة ببياناتك.

المعيار الأخلاقي هنا يطرح سؤالاً جوهرياً: هل تملك الشركات الحق في التنبؤ بسلوكك المستقبلي وبيع هذه التوقعات؟ الخصوصية لم تعد مجرد “كلمة سر”، بل أصبحت إنسانياً مهددة.

– هل سيترك الذكاء الاصطناعي مكاناً “للإنسان”؟

بعيداً عن المخاوف من فقدان الوظائف، هناك معيار أخلاقي أعمق:

المنفعة البشرية: يجب أن يُصمم الذكاء الاصطناعي لتعزيز قدرات الإنسان، لا لاستبداله أو تهميش وجوده.

-. دكتاتورية “البيانات الضخمة” (التوجيه الخفي)

أنا طرحت سؤالا: هل بدأ الذكاء الاصطناعي في توجيهنا؟ والإجابة المخيفة هي نعم، وبشكل ناعم جداً.

الذكاء الاصطناعي لا يجبرك على فعل شيء، بل يضيق خياراتك (Filter Bubble):

– يختار لك ما تشاهده، فتميل آراؤك تدريجياً لما يعرضه لك.

-يحدد لك الطرق التي تسلكها، والمنتجات التي تشتريها.

الخطر الأخلاقي: عندما تبدأ الآلة في “توجيه” وعي الشعوب هنا يصبح الذكاء الاصطناعي أداة هندسة اجتماعية لا مجرد مساعد تقني.

– فجوة “المسؤولية (The Responsibility Gap)

تُعد فجوة المسؤولية واحدة من أعقد المعضلات الفلسفية والقانونية في عصرنا الحالي. لنتخيلها كأنها “ثقب أسود” يبتلع الحقوق عندما تقع الكارثة.

إليك شرحاً أعمق لهذه الفجوة من منظور قانوني وأخلاقي وعملي:

1. انهيار مفهوم “الفعل والقصد”

في القانون التقليدي، تُبنى المسؤولية على ركنين:

الركن المادي: أن يقع الفعل (مثلاً: إعطاء جرعة دواء خاطئة).
الركن المعنوي (القصد أو الإهمال): أن يكون الفاعل مدركاً لما يفعله أو مقصراً في حذره.
المشكلة مع الذكاء الاصطناعي: الآلة لا تملك “قَصداً”. هي تنفذ عمليات إحصائية معقدة. عندما يتسبب نظام ذكاء اصطناعي في وفاة مريض، لا يمكننا إثبات “الإهمال” لدى الآلة لأنها ليست كائناً واعياً، ولا يمكننا معاقبتها لأنها لا تملك حساً بالخزي أو الألم أو الحرية.



2. معضلة “الاستقلالية” (Autonomy vs. Control)

في السابق، كان البرنامج مجرد “أداة” (مثل المشرط في يد الجراح). إذا أخطأ المشرط، فاللوم على الجراح.

أما اليوم، فالذكاء الاصطناعي يتخذ قرارات مستقلة لم يبرمجها البشر بشكل مباشر (عبر التعلم العميق Deep Learning).

مثلا :إذا اتخذت الآلة قراراً طبياً خاطئاً أدى للوفاة، العقوبة لا تعني شيئاً للبرمجيات.

المصمم سيقول: “أنا صممت نظاماً يتعلم ذاتياً، ولم أمره بهذا الفعل تحديداً”.
المستخدم (الطبيب): سيقول: “أنا اتبعت توصية الآلة لأنها أكثر دقة مني، ولم أكن أتحكم في خوارزمياتها”.
هنا تظهر الفجوة: الضحية موجودة، والضرر واقع، ولكن “الفاعل” القانوني يتوزع بين أطراف متعددة، مما يضيع المسؤولية بينهم.

.- هذا الفراغ يجعل الشركات تتهرب أحياناً خلف عبارة “الخوارزمية هي من قررت”، وهو ما نسميه “التهرب الأخلاقي بالوكالة”. لكي نثق في الآلة، يجب أن يكون هناك “بشر” يقفون وراء كل قرار تتخذه ويتحملون تبعاته القانونية كاملة.

-. هل الحل في “أنسنة” الآلة أم “تأطيرها”؟

هناك مدرستان للتعامل مع هذا التوسع:

1.     المدرسة التقنية: تحاول حقن “القيم” داخل الكود (Value Alignment)، بحيث تفهم الآلة معنى “العدل” و”الرحمة” رياضياً.

كيف نُبرمج “الرحمة أو تقليل الضرر”؟ (Damage Minimization)

الرحمة في سياق الآلة تعني “اختيار الفعل الذي يسبب أقل قدر من الألم أو الضرر البشري”، وهو ما يسمى في البرمجيات “دالة الخسارة” (Loss Function).

2.     المفهوم التقني: نضع أوزاناً سلبية هائلة (High Penalties) لأي فعل يمس حياة الإنسان.

3.     المثال التطبيقي (السيارات ذاتية القيادة): أثناء برمجة السيارة، لا نقول لها “كوني رحيمة”، بل نعطي “قيمة صفرية” للاصطدام بجماد (سياج)، و”قيمة سلبية لا نهائية” للاصطدام بكائن حي. إذا وجدت السيارة نفسها بين خيارين: الاصطدام بشجرة (خسارة مادية) أو الاصطدام بقطة أو إنسان، فإن المعادلات الرياضية ستدفعها نحو الشجرة تلقائياً لأن “تكلفة” القرار برمجياً هي الأقل.

a.      النتيجة: الآلة اتخذت قراراً يبدو “رحيماً”، لكنه في الحقيقة عملية طرح وجمع لقيم الأضرار.

2. المدرسة التنظيمية: ترى أن الآلة يجب أن تظل “أداة” فقط، وأن القرار النهائي يجب أن يظل بيد الإنسان، مهما كانت الآلة ذكية.

تعتمد المدرسة التنظيمية (أو ما يُعرف بنهج “الإنسان في الحلقة” – Human-in-the-Loop) على مبدأ سيادي وهو أن الذكاء الاصطناعي، مهما بلغت دقة حساباته، يفتقر إلى “الأهلية الأخلاقية” والقدرة على تقدير العواقب الإنسانية غير الملموسة.

في هذه المدرسة، لا نحاول تعليم الآلة “الرحمة”، بل نضع “سياجاً قانونياً” يمنعها من تجاوز دورها كمساعد تقني. إليك شرحاً مفصلاً مع أمثلة تطبيقية:

1. مبدأ “التوصية لا القرار” (Recommendation vs. Decision)

في هذا الإطار، يُحظر على النظام التقني تنفيذ أي فعل مادي أو قانوني بشكل آلي في القضايا الحساسة. دور الذكاء الاصطناعي ينتهي عند تقديم الخيارات، ودور الإنسان يبدأ عند اختيار أحدها.

المثال التطبيقي (الأنظمة العسكرية): في تطوير “الأسلحة الفتاكة ذاتية التشغيل”، تصر المدرسة التنظيمية على وجود إنسان يضغط على الزناد. قد يحدد الذكاء الاصطناعي الهدف ويحلل المخاطر، لكن قرار إطلاق النار يجب أن يظل بشرياً.
السبب: لضمان وجود شخص يمكن محاسبته قانونياً وأخلاقياً، ولأن الإنسان قد يتراجع في اللحظة الأخيرة لأسباب وجدانية لا تفهمها الخوارزمية.


الخلاصة:

الثقة يجب أن تكون مشروطة بالشفافية . لا تثق في قرار لا يمكن للآلة شرح “لماذا” اتخذته. نحن نمر الآن بمرحلة “المراهقة التقنية”، حيث تمتلك الآلة قوة جبارة لكنها بلا “ضمير” ذاتي.

السؤال الآن ينتقل إليك من زاوية أخرى

إذا علمنا أن الذكاء الاصطناعي يرتكب أخطاءً بنسبة 1% بينما يرتكب البشر أخطاءً بنسبة 10% في نفس المجال (مثل القيادة أو الطب).. هل تقبل بقرار الآلة دفاعاً عن “المنطق الرقمي”، أم ترفضه دفاعاً عن “السيادة البشرية”؟

كيف ترى المستقبل؟

نحن الآن في مرحلة صياغة “دستور” للآلات. المعايير الأخلاقية ليست مجرد قيود تقنية، بل هي الحصن الذي يحمي إنسانيتنا من التحول إلى مجرد بيانات في خادم عملاق.

برأيك، هل تثق في قرار تتخذه “آلة” إذا كان هذا القرار سيغير مسار حياتك المهنية أو الصحية؟

ابتسام الرمحين مدربة و مستشارة ذكاء اصطناعي

Leave a comment

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

You may also like

تكنولوجيا التعليم

هل يغني الذكاء الاصطناعي عن المعلم؟ صراع الأتمتة والإنسانية في فصول المستقبل

Spread the love الزلزال الذي هز أركان المدرسةمنذ اللحظة التي أُطلق فيها ChatGPT وغيره من نماذج الذكاء الاصطناعي التوليدي، لم
التدريب والتطوير تكنولوجيا التعليم

التلعيب في التعليم (Gamification): استراتيجيات فعالة لجعل الدرس “لعبة” ممتعة

Spread the loveعندما يتحول الفصل إلى ساحة مغامراتهل سبق لك أن راقبت طالباً يقضي ساعات طويلة أمام لعبة فيديو بتركيز