أصدر فيتاليك بوتيرين، المؤسس المشارك لرؤية إيثريوم، تحذيراً صارخاً ضد تطوير الذكاء الاصطناعي الخارق. "يجب أن نتجنب عالمًا يتم فيه قراءة وتحليل معظم الأفكار البشرية بواسطة عدد قليل من الخوادم المركزية التي يتحكم بها عدد قليل من الأشخاص،" كما كتب في منشوره الأخير على X.
في عالم يُحركه التكنولوجيا بشكل متزايد، تأتي كلماته التحذيرية كصدمة لأولئك الذين يحلمون بمستقبل يوتوبي يُشكل بالذكاء الاصطناعي المتقدم. لم تكن مخاوف بوتيرين نظرية فقط، فهو يؤكد على المخاطر الملموسة للسعي نحو ذكاء اصطناعي يمكن أن يتجاوز الذكاء البشري.
الذكاء الاصطناعي الخارق هو خطير للغاية ولا ينبغي أن نتعجل فيه، ويجب أن نقاوم الأشخاص الذين يحاولون ذلك. لا مزارع خوادم بـ $7 تريليون من فضلك.
لم يخلو موقف بوتيرين من تطوير الذكاء الاصطناعي من السخرية. إليكم رجل دفع بحدود تكنولوجيا البلوكشين، يدعو إلى توخي الحذر على جبهة أخرى. رسالته واضحة: ينبغي ألا تأتي الابتكارات على حساب سلامة الإنسان. هذا التحذير يضرب على وتر حساس مع هؤلاء في صناعة التكنولوجيا الذين يتذكرون العواقب غير المتوقعة للقفزات التكنولوجية الماضية.
في نظره، يعد السعي وراء الذكاء الاصطناعي الخارق محفوفًا بالمخاطر. المخاطر المترتبة على إنشاء كيان يمكن أن يتفوق على صانعيه كبيرة للغاية لدرجة لا يمكن تجاهلها. تعتمد حجة بوتيرين على إمكانية أن يتصرف الذكاء الاصطناعي بطرق تضر بالإنسانية، وبعيدة تمامًا عن سيطرة مطوريه.
ليس هذا مجرد تكهنات. السوابق التاريخية للعواقب غير المتوقعة في التطورات التكنولوجية تعطي ثقلاً لمخاوفه.
يمتد تحذير بوتيرين إلى الآثار الأخلاقية الأوسع لتطوير الذكاء الاصطناعي. يقترح أن هناك حاجة إلى نهج أكثر قياسًا، نهج يضع في اعتباره السلامة والاعتبارات الأخلاقية. النداء هنا ليس لخنق الابتكار، بل لضمان تقدمه بطريقة لا تهدد رفاهية الإنسان. إنها دعوة للتوازن في مجال غالبًا ما يتسم بدفعه المستمر للأمام.
قد يجد العالم المالي، الذي يبحث دائمًا عن الشيء الكبير التالي، في تحذير بوتيرين تذكيرًا رزينًا. الاستثمارات في الذكاء الاصطناعي تتصاعد، مع وعود بثورة في الصناعات. ومع ذلك، فإن رسالة بوتيرين تعمل كفحص مناسب في الوقت المناسب. إنه تذكير بأنه مع القوة الكبيرة تأتي مسؤولية كبيرة.
في عصر غالبًا ما يتغلب فيه التفاؤل التكنولوجي على الحذر، يعد تحذير بوتيرين صوتًا معقولًا أساسيًا. الآثار للمستثمرين والمطورين واضحة: تقدموا بحذر. ينبغي توجيه مستقبل تطوير الذكاء الاصطناعي بوعي دقيق بمخاطره المحتملة.