في عصر أصبح فيه الذكاء الاصطناعي، وخاصة روبوتات الدردشة مثل "شات جي بي تي"، مساعدًا يوميًا لملايين البشر، يبرز سؤال حاسم حول حدود الثقة التي يمكن أن نمنحها لهذه التقنيات، فبقدر ما تقدمه من مساعدة، بقدر ما تحمله من مخاطر خفية.
فالحقيقة التي يجب أن يعيها كل مستخدم، هي أن هذه النماذج اللغوية الكبيرة، رغم قدراتها المذهلة، إلا أنها "تهلوس" في بعض الأحيان، بمعنى أنها تختلق معلومات غير صحيحة وتقدمها بثقة مطلقة كأنها حقائق مسلم بها، وهو ما يجعل استخدامها في بعض المواقف محفوفًا بالخطر.
إقرأ ايضاً:
الذكاء الاصطناعي يدخل الحقول .... مهندس سابق في تسلا يُطلق روبوتات تُدير المزارع بذكاء خارق!انهيار موسم البطيخ في السعودية نكهة غائبة وخسائر فادحة وموسم مرير لمزارعي الحبحبويزداد هذا الخطر كلما كانت المخاطر المترتبة على المعلومة أكبر، فشتان بين طلب المساعدة في كتابة بريد إلكتروني، وبين استشارته في مسألة صحية أو مالية، ولذلك، هناك عشر حالات على الأقل يجب أن تضع فيها خطًا أحمر بينك وبين روبوتات الدردشة.
أول هذه الخطوط الحمراء وأهمها هو المجال الطبي، فلا يمكن أبدًا الاعتماد على الذكاء الاصطناعي في تشخيص المشكلات الصحية، فهو لا يملك القدرة على فحص المريض جسديًا، أو طلب تحاليل مخبرية، والأهم أنه يفتقر تمامًا للخبرة العلمية والتجربة الإنسانية التي يمتلكها الطبيب لتقييم الحالات.
وينطبق الأمر ذاته على الصحة النفسية، فرغم أن "شات جي بي تي" قد يقدم بعض تقنيات التهدئة العامة أو الدعم اللحظي، إلا أنه ليس بديلًا عن المعالج النفسي الحقيقي، فهو لا يستطيع قراءة لغة جسدك، أو فهم نبرة صوتك، ولا يملك أي قدرة على التعاطف الحقيقي، وقد تكون نصائحه خطيرة في حالات الأزمات النفسية الشديدة.
المحذور الثاني هو حالات الطوارئ والسلامة الفورية، فإذا انطلق جرس إنذار تسرب الغاز في منزلك، فإن آخر ما يجب أن تفكر فيه هو سؤال روبوت الدردشة عن مدى خطورة الموقف، فكل ثانية تقضيها في الكتابة هي ثانية ثمينة تضيعها بدلًا من إخلاء المكان أو الاتصال برقم الطوارئ.
أما المجال الثالث الذي يجب الابتعاد عنه، فهو التخطيط المالي أو الضريبي، فالذكاء الاصطناعي لا يعرف وضعك المالي الخاص، أو أهدافك التقاعدية، أو مدى قدرتك على تحمل المخاطر، كما أن بياناته قد تكون قديمة ولا تشمل أحدث القوانين الضريبية، مما يجعل استشارته في هذا الشأن مخاطرة مالية كبيرة.
ويرتبط بذلك بشكل وثيق المحذور الرابع، وهو التعامل مع أي بيانات سرية أو شخصية، فيجب أن تدرك أن أي معلومة تدخلها إلى "شات جي بي تي" تخرج عن نطاق سيطرتك، ويمكن أن تستخدم في تدريب النماذج المستقبلية، لذا فإن إدخال عقود العملاء أو السجلات الطبية أو المعلومات البنكية هو انتهاك خطير للخصوصية.
المجال الخامس هو الغش الأكاديمي، فمع تطور أنظمة الكشف عن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، أصبحت محاولة استخدامه في الغش في الامتحانات أو الواجبات المدرسية مغامرة قد تؤدي إلى الفصل وسحب الشهادات، وعواقبها وخيمة على مستقبل الطالب.
سادسًا، لا يمكن الاعتماد عليه في متابعة الأخبار العاجلة والمتغيرة، فرغم قدرته الآن على الوصول للمعلومات الحديثة، إلا أنه لا يقوم بتحديثها تلقائيًا، ويتطلب أمرًا جديدًا في كل مرة، مما يجعله غير مناسب لتغطية الأحداث السريعة مثل الكوارث الطبيعية أو انهيارات الأسواق المالية.
سابعًا، تجنب تمامًا أن تطلب منه صياغة وصية أو أي عقد قانوني، فرغم قدرته على شرح المفاهيم القانونية بشكل عام، إلا أن صياغة المستندات القانونية تتطلب دقة ومعرفة بالقوانين المحلية وتفاصيل الحالة، وأي خطأ صغير قد تكون له عواقب كارثية.
ثامنًا، هناك جدل أخلاقي وفلسفي كبير حول استخدام الذكاء الاصطناعي في الإبداع الفني، فالكثيرون يرون أن الفن الحقيقي هو تعبير إنساني نابع من التجربة والعاطفة، وهو ما لا يمكن لخوارزمية أن تنتجه، واستخدامه في هذا المجال قد يفرغ العمل الفني من روحه وقيمته.
تاسعًا، وبديهيًا، لا يجب أبدًا استخدامه للمساعدة في أي أعمال غير قانونية، فكل ما تكتبه يتم تسجيله، ويمكن أن يصبح دليلًا إلكترونيًا ضدك لدى السلطات، مما يجعله شريكًا سيشهد عليك لاحقًا.
عاشرًا وأخيرًا، لا تستخدمه عندما تكون الحقيقة المطلقة والدقة بنسبة 100% أمرًا حاسمًا، فالذكاء الاصطناعي مصمم ليكون مبدعًا ومقنعًا، وليس ليكون دقيقًا دائمًا، ويجب دائمًا التحقق من معلوماته من مصادر موثوقة.
إن الطريقة المثلى لاستخدام هذه الأدوات هي اعتبارها "مساعدًا ذكيًا" أو "شريكًا في العصف الذهني"، وليس "خبيرًا" أو "سلطة معرفية"، فالقرار النهائي والتحقق من صحة المعلومات يجب أن يظل دائمًا مسؤولية المستخدم البشري.