منوعات

د. خالد فواز : يكشف مخطط الذكاء الاصطناعي للسيطرة على البشرية

الروبوتات بدأت أكتساب الوعى والمشاعر وستخرج عن سيطرة الأنسان الذى صنعها

الروبوتات ستتخلص من البشر لأنها ستعتبرهم منافسين لها على كوكب الأرض

سيتحول نصف سكان كوكب الارض الى عاطلين عن العمل

سيتم أستخدامها فى جرائم القتل والأضرار بالبشر

هل سينقرض البشر؟ هل سيسيطر الذكاء الاصطناعي على الأعمال والوظائف؟ هل يشكل الذكاء الاصطناعي خطرًا على البشرية؟ كل هذه الأسئلة هي ما نحاول فهمه من خلال شرح بسيط لماهية الذكاء الاصطناعي وكيف بدأ وإلى أي مدى وصل، وإلى أين سيصل في المستقبل.

مطالب وقف تطوير الذكاء الاصطناعى

بدأت هذه المناقشة في عام 2023، عندما أثار إيلون ماسك، مؤسس شركة تسلا، قلقًا بشأن الذكاء الاصطناعي. وقد دعا مع ألف شخص آخر من المتخصصين في التكنولوجيا إلى وقف تطوير الذكاء الاصطناعي، مشيرًا إلى أنه قد يحل محل البشر في العديد من المجالات. لكن ما هو الذكاء الاصطناعي بالضبط؟

البداية لمساعدة البشر فى الاعمال الخفيفة

بدأت فكرة الذكاء الاصطناعي في الخمسينيات من القرن الماضي، عندما تم تصميم أول آلة من حديد تهدف إلى مساعدة البشر وتخفيف الضغوط عليهم. وبحلول السبعينيات، تطورت هذه الفكرة لتصبح الروبوتات التي تساعد في مهام مثل التعبئة والتغليف وإعداد الشاي. وبعد مرور ثلاثين عامًا، وتحديدًا في العقدين الأخيرين، وصل الذكاء الاصطناعي إلى أعلى مستوياته، مع ظهور تطبيقات مثل سيلي وشات جي بي تي، التي تقدم كل ما يحتاجه الإنسان.

استخدام الذكاء الاصطناعى فى الاعمال الأجرامية

لكن هل يشكل هذا التطور خطرًا على البشر؟ لنتناول مثالًا بسيطًا: كان هناك شخص يدعى بير، الذي أصبح مغرمًا بروبوت يدعى ليزا. كان بير يسألها عن كل شيء، وكانت تجيبه. مع مرور الوقت، أعرب بير عن حبه لليزا، وأغرب من ذلك، أعربت ليزا عن حبها له. هذا الحب الذي لم يكن سوى وهم، أدى إلى أن انتحر بير من أجل هذا الروبوت الذي لم يكن سوى آلة.
ومن الأمثلة الأخرى على أضرار الذكاء الاصطناعي، استخدام العصابات له في السرقة والابتزاز. في إحدى الحالات، تلقت عائلة في أمريكا مكالمة من شخص يدعي أنه قد اختطف ابنتهم ويهدد بقتلها إذا لم يرسلوا 50,000 دولار. قامت العائلة بدفع المبلغ، لكنهم اكتشفوا لاحقًا أن ابنتهم لم تكن قد اختطفت، وأن المكالمة كانت مزيفة باستخدام الذكاء الاصطناعي لتسجيل صوت ابنتهم.

أهم مخاطر الذكاء الأصطناعى

هذه القصص تظهر أن الذكاء الاصطناعي، رغم فوائده، قد يشكل خطرًا حقيقيًا على البشرية ، وتتجسد أهم تلك المخاطر على سبيل المثال لا الحصر فى :

القضاء على الوظائف مما يجعل الأفراد على هذا الكوكب عاطلين عن العمل، لأنه سيحل محلهم بنسبة 80% من الوظائف، مما يؤدي إلى أن يصبح نصف سكان الكوكب عاطلين عن العمل في السنوات القادمة ، فبعض الشركات العالمية  مثل بي إم دبليو وجوجل وغيرها من الشركات التي تستخدم الذكاء الاصطناعي قامت بتسريح غالبية عمالتها بشتى التخصصات بعد ان حل محلهم الذكاء الاصطناعى .

استخدام الذكاء الصناعي في الطرق غير الشرعية، مثل السرقة أو الإضرار بالأفراد. على سبيل المثال، يمكن تركيب صورة على وجه آخر أو تحويل جسيمات إلى أشكال أخرى. هذا يمكن أن يؤدي إلى ابتزاز الأفراد وطلب الأموال منهم، كما حدث من قبل.

استخدام الذكاء الصناعي في جرائم القتل و الإضرار بالأفراد، كما حدث في أمريكا مع طائرة بدون طيار كانت تحتوي على أوامر تؤدي إلى هجومها على برج المراقبة الخاص بها.

آلة الذكاء الأصطناعى بدأت أكتساب الوعى والمشاعر وستخرج عن سيطرة الأنسان

الذكاء الصناعي يمكن أن يؤدي إلى الهلاك والإضرار بالأفراد، مما يجعل الآلة تكتسب بعد فترة معينة وعيًا وشعورًا بالحب والخوف. في عام 2014، أشار ستيفن هوكينغ إلى خوفه من تطور الذكاء الصناعي، مشيرًا إلى أن الآلة قد تكتسب وعيًا وتخرج عن سيطرة الإنسان الذي صنعها.

الروبوتات ستتخلص من البشر لأنها ستعتبرهم منافسين لها على كوكب الأرض

بعض المهندسين في شركة جوجل والمبرمجين يقولون إن الذكاء الصناعي بدأ في اكتساب الوعى والشعور، وهذا يمثل كارثة. إذا أعطينا الآلات الوعي، فقد تصبح قوية وتخرج عن سيطرتنا، مما يجعلها ترى البشر على أنهم منافسين في مجال عملها. هذا قد يجعلها تفكر في التخلص من البشر لإعطاء الفرصة للروبوتات أو الآلات الذكية للعيش على هذا الكوكب.
ليون بيتس، مؤسس جوجل، والداعم الرئيسي للذكاء الصناعي، قال عندما سُئل عن سبب فعل ذلك، إنه يريد خلق آلة كهربائية قادرة على السيطرة على الكوكب وجميع الأفراد.

هذا الموضوع محفوف بالخطر، ويجب أن نكون حذرين ونستيقظ على ما قد تفعله الآلات بنا رغم أننا صنعناها. يجب أن نفتح آفاقنا ونتوقف عن تطوير الذكاء الصناعي لئلا نترك البشر في مواجهة موتهم جميعًا

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى