أوضحت دراسة أطلقتها شركة (لايك ديجيتال) Like Digital وشركائها حديثًا عن الذكاء الاصطناعي، الذي كان يعتبر في يوم من الأيام مجرد خيال علمي في أفلام وروايات عالم الخيال، والذي ظهرَ بقوة في حياتنا اليومية خلال السنوات الأخيرة.
وقد تناولت الدراسة عدة مناقشات حول إمكانية استخدام (ChatGPT) في كتابة الإعلانات الخاصة، والخوف الحقيقي الذي أثارهُ المسؤول التنفيذي السابق في جوجل، الذي يؤكد أن الذكاء الاصطناعي يمثل تهديدًا أكبر للعالم من تغير المناخ، وأن الذكاء الاصطناعي أصبحَ ظاهرة لا يمكن تجاهلها ولا يمكن إنكار انتشارها، رغم أن مفهوم الذكاء الاصطناعي ليس جديدًا (فقد ظهر لأول مرة في الخمسينيات من القرن الماضي)، إلا أنه شهدَ مؤخرًا اهتمامًا واسعًا فيما يتعلق بالتطبيقات العملية وسهولة الوصول إليه.
يُمكن القول إن الذكاء الاصطناعي، الذي كان في السابق مجالًا محصورًا للعلماء والفلاسفة، أصبح الآن متاحًا لأي شخص يملك إمكانية الوصول إلى الإنترنت، وهذا يتيح لنا الوصول إلى عدد لا يحصى من الفرص والموارد التي تمتد بين أيدينا.
تناولت الدراسة كذلك مقالًا نُشِرَ مؤخرًا في مجلة هارفارد الأعمال، التي لم تُظهر أي علامات على تباطؤ النمو في صناعة الذكاء الاصطناعي، وتوقعت أن يتجاوز إنفاق الشركات العالمية على خدمات الذكاء الاصطناعي 50 مليار دولار أمريكي في هذا العام ويصل إلى 110 مليارات دولار أمريكي في عام 2024.
توصلت الدراسة إلى العديد من النصائح التي تم استخلاصها من الأبحاث والتقارير التي ناقشت تأثير الذكاء الاصطناعي على الاقتصاد والابتكار. وفيما يلي نستعرض أهم الفوائد والنصائح التي توصلت إليها هذه الدراسة:
أهم فوائد الذكاء الاصطناعي للشركات:
عندما يُستخدم الذكاء الاصطناعي بشكل صحيح، لا يمكن إنكار أنه يُمكن أن يُجلب فوائد كبيرة للشركات. وتعدُ أهم المزايا الأساسية التي يُمكن أن يوفرها الذكاء الاصطناعي، هي زيادة الكفاءة وتبسيط العمليات، وتحسين الخدمات اللوجستية وسير العمل والموارد، وزيادة الإنتاجية. كما يمكنه تحسين عملية اتخاذ القرار وتحليل البيانات، وتجنب الأخطاء عن طريق إزالة العنصر البشري.
وجاءت هذه الفائدة وفقًا لاستطلاع أجرته شركة PwC في عام 2022 حول أهمية الذكاء الاصطناعي في الأعمال، الذي بينَ أن 86% من الرؤساء التنفيذيين اعتبروا أن الذكاء الاصطناعي جانب أساسي من عملياتهم، إذ يستفيد القادة من قاعدة بيانات السحابة وتحليلاتها لتحقيق عائد أكبر.
وقد بين أكثر من 1000 مشارك في الاستطلاع، أن النجاح الأعلى يكمن في تلك الشركات التي تتبع نهجًا شاملًا لتكامل الذكاء الاصطناعي بدلًا من التركيز في هدف واحد في كل مرة. إذ يقوم قادة الذكاء الاصطناعي بتنفيذ الكفاءات الأساسية في ثلاث مجالات في وقت واحد، وهي تحويل الأعمال، وتعزيز عملية صنع القرار، وتحديث الأنظمة والعمليات.
وأشارت الدراسة إلى أن قادة الذكاء الاصطناعي هم أكثر عرضة للإبلاغ عن “القيمة الجوهرية” التي تنطوي على مبادرات الذكاء الاصطناعي، والتي تهدف إلى تحسين الإنتاجية، وسرعة اتخاذ القرار، وتجربة العملاء، وابتكار المنتجات والخدمات، وتجربة الموظف. هذا في مقارنة مع تلك الشركات التي تتبنى الذكاء الاصطناعي بنهج مجزأ أو غير متكامل.
كما ركزت الدراسة على آخر مقال نُشِرَ في مجلة هارفارد بيزنس ريفيو، أشارَت فيهِ (تسيدال نيلي) Tsedal Neeley إلى أن تقنية الذكاء الاصطناعي ليست مجرد أداة لزيادة سرعة العمل، بل هي مجموعة من أنظمة التعاون التي تستطيع تحليل الأنماط التي لا تتسنى رؤيتها بالعين البشرية. كما أنها توفر رؤى وتحليلات وتنبؤات واقتراحات مستندة إلى البيانات. وإذا بدأت باستخدام تقنيات الذكاء الاصطناعي لتحسين الأعمال من منظور شامل فإنك ستكون قادرًا على استغلال إمكاناتها الكاملة.
أخلاقيات الذكاء الاصطناعي وضرورة مساءلته:
تحدثت الدراسة كذلك عن الوقت المناسب لتوجيه الشركات نحو استخدام الذكاء الاصطناعي، إذ لا يتعلق الأمر بمجرد اتخاذ قرار بتبني تكنولوجيا الذكاء الاصطناعي في بيئة عملهم، بل يتعلق بموعد القيام بذلك.
فقد جعلت شركات مثل: OpenAI، ومايكروسوفت، وإنفيديا تكنولوجيا الذكاء الاصطناعي متاحة للجميع، من الطلاب حتى الشركات الرائدة، ومن ثم فإنها تواجه تحديات أخلاقية ومسائل متعددة. عندما يتجاوز تقدم التكنولوجيا قدرة القوانين والتنظيمات على مواكبة هذا التطور السريع، يتحمل كل مستخدم مسؤولية تحديد كيفية استخدام التكنولوجيا الذكاء الاصطناعي بطريقة تتوافق مع المعايير الأخلاقية وتضمن المساءلة الفردية.
ونظرًا إلى قدرة الذكاء الاصطناعي على معالجة البيانات بسرعة كبيرة وفعالية، أصبحت الشفافية أمرًا حيويًا في كيفية الحصول على البيانات وتحليلها وتنفيذها. إذ أشارت (تسيدال نيلي) إلى أن النماذج اللغوية الكبيرة (LLMs) مثل: ChatGPT، وبينج من مايكروسوفت، قد دُربت على مجموعات بيانات ضخمة من الكتب وصفحات الويب والمستندات من جميع أنحاء الإنترنت.
كما دُربت النماذج اللغوية الكبيرة التابعة لشركة OpenAI باستخدام 175 مليار معلمة، ومع ذلك، سيفتح ذلك الباب للذكاء الاصطناعي للتحيز غير المقصود، حيث يمكن أن تكون مجموعات البيانات المستخدمة في التدريب لا تمثل سكان العالم بشكل كامل.
وللتغلب على هذا التحدي، يجب على المطورين أن يعملوا على تضمين المزيد من التنوع في مجموعات البيانات الخاصة بهم وفي تكوين فرقهم، وعند تحقيق هذا التنوع فقط يمكننا ضمان أن الذكاء الاصطناعي سيكون حقًا متاحًا للجميع ولا يفضي إلى تضمين التحيز في أنظمته.
أصبح الكثير من خوارزميات الذكاء الاصطناعي تعتمد على التعلم الذاتي، حيث تستمر في التطور وتحسّين مخرجاتها. وعندما تُستخدم هذه الخوارزميات بدون رادع، فإن ذلك قد يؤدي إلى استمرار التحيّز الضار وانتشار المعلومات الخاطئة وانتهاكات الخصوصية والأمان، وحتى يمكن أن يتسبب في الإضرار بالبيئة، كما أكدت (نيلي) على الانتباه إلى ذلك.
لذلك، قبل مشاركة المعلومات الحساسة مع برامج الذكاء الاصطناعي، يجب على أصحاب الأعمال ضمان الخصوصية والأمان الشامل في تصميم البرنامج، وبالنسبة لأولئك الذين يتعاملون مع التفاصيل الحساسة، مثل: معلومات الموظفين، ينبغي على الشركات النظر في تعيين خبير في مجال الخصوصية لينضم إلى فريقهم بدلًا من الاستعانة بالذكاء الاصطناعي.
العنصر البشري:
يدور جزء كبير من النقاش العام حول الذكاء الاصطناعي حول هل ستحل هذه الأنظمة محل البشر في القوى العاملة أم لا؟ يُعترف بأن هناك بعض المجالات التي يتفوق فيها الذكاء الاصطناعي بكثير على القدرات البشرية، لا سيما في المجالات العسكرية والطبية والتكتيكية، حيث يتقدم بفضل دقته وبصيرته بشكل ملحوظ في كثير من الحالات، ومع ذلك، يفتقد الذكاء الاصطناعي للعنصر البشري المرغوب فيه بشدة، سواء كان التعاطف عند كتابة الإعلانات، أو الأصالة في التصميم، أو تقييم المخاطر الشخصية في التمويل، لذا لا يمكن للذكاء الاصطناعي أن يحل محل الفروق الدقيقة للقوى العاملة البشرية… حتى الآن على الرغم من التقدم الكبير الذي أحرزته التكنولوجيا، فإن الجانب الإنساني للعمل لا يزال ضروريًا لتحقيق بعض الجوانب المعقدة والفريدة في العمل واتخاذ القرارات.
ماذا بعد الذكاء الاصطناعي؟
تركز الجهود العالمية على تحصين العالم في المستقبل من المخاطر المحتملة للذكاء الاصطناعي، حيث يُدرك المطورون العالميون أهمية الحاجة إلى العمل معًا وتبني جبهة موحدة للتعامل مع هذه التحديات على سبيل المثال، يعمل الاتحاد الأوروبي على صياغة قانون الذكاء الاصطناعي الخاص به، الذي يقترح تصنيف المخاطر إلى ثلاثة مستويات: المخاطر غير المقبولة التي يجب أن تُمنع، والمخاطر العالية الخطورة التي تحتاج إلى تنظيم ومراقبة، والمخاطر التي لا تشكل خطرًا عاليًا ويمكن تركها بدون تنظيم.
أما على المستوى العالمي، تقوم المؤسسات غير الربحية والمعاهد البحثية بوضع معايير أخلاقية لاستخدام الذكاء الاصطناعي، وتشمل هذه المؤسسات الشراكة بشأن الذكاء الاصطناعي ومعهد الذكاء الاصطناعي المتمحور حول الإنسان ومبادرة الذكاء الاصطناعي المسؤولة.
كما تهدف هذه المعايير إلى توجيه الشركات في استخدام الذكاء الاصطناعي بطريقة أخلاقية تحمي حقوق المستهلكين والموظفين وتضمن الشفافية والمساءلة في تصميم وتنفيذ التطبيقات الذكية. بهذه الجهود المشتركة، نأمل أن يُحقق الهدف في التحصين ضد المخاطر المحتملة للذكاء الاصطناعي وأن يُضمن استخدامه بطريقة آمنة ومسؤولة في مختلف المجالات والصناعات.
فقد دعا سابقًا إيلون ماسك، إلى التوقف عن إنشاء العقول الرقمية للذكاء الاصطناعي، وكان معه ستيف وزنياك، مؤسس شركة آبل، وعماد موستاك، مؤسس شركة Stability AI، ومع ذلك، أصبح ماسك الآن يعتقد أن الوقت قد فات ويجب التقدم في هذا المجال.
ويروج ماسك الآن لفكرة إنشاء برنامج ذكاء اصطناعي يكون على الأقل بذكاء البشر، إذ أعلن عن برنامجه للذكاء الخارق (إكس إيه آي) XAI عبر تويتر خلال شهر يوليو الماضي، وأكد من وجهة نظره على سلامة الذكاء الاصطناعي، وأن الذكاء الاصطناعي فضولي إلى أقصى حد، وهو يحاول فهم الكون، لكنهُ يعتقد بأنهُ سيكون مؤيدًا للإنسانية، وسيستمر في التطور، لكن الأمر الأهم بالنسبة لنا كبشر هو الحفاظ على السيطرة والتحكم في تطوره واستخدامه بطريقة تعود بالفائدة على الإنسانية. ت
لذلك يبقى هناك حاجة ماسة لمراقبة استخدام الذكاء الاصطناعي وتنظيمه بطريقة أخلاقية ومسؤولة لضمان الاستفادة القصوى وتجنب أي تأثيرات سلبية على المجتمع والبيئة.