به نوشته دیجیاتو؛ یاشوا بنجیو از جمله افرادی است که بخش عمده‌ ای از دوران حرفه‌ای خود را به تحقیق درمورد شبکه‌ های عصبی و الگوریتم‌ های یادگیری عمیق اختصاص داده است. محصولاتی مانند: ChatGPT و Claude نتیجه مستقیم تحقیقات این دانشمند کانادایی هستند. او نگران توسعه هوش مصنوعی است و در مصاحبه‌ ای اختصاصی با یاهو فاینانس این نگرانی‌ ها را بیان کرده است.

به گفته بنجیو، هوش نوعی قدرت است و هرکسی بتواند این قدرت را در سطح انسانی یا بالاتر کنترل کند، بسیار بسیار قدرتمند خواهد بود. او در ادامه گفت: «عموماً افرادی از فناوری استفاده می‌کنند که خواهان قدرت بیشتر هستند؛ تسلط اقتصادی، تسلط نظامی، تسلط سیاسی. قبل از ایجاد فناوری که بتواند قدرت را به روش‌ های خطرناک متمرکز کند، باید بسیار مراقب باشیم.»

یاشوا بنجیو در پاسخ به این سؤال که چرا باید نگران هوش مصنوعی در سطح انسانی باشیم؟ گفت: «اگر این [هوش مصنوعی] به دست افراد نادرست بیفتد، می‌تواند بسیار خطرناک باشد. این ابزار ها می‌توانند به‌ زودی به کمک تروریست‌ ها و بازیگران دولتی بیایند که می‌خواهند دموکراسی‌ های ما را نابود کنند.

مسئله دیگری که وجود دارد و بسیاری از دانشمندان نیز به آن اشاره کرده‌اند، نحوه آموزش هوش مصنوعی است. ما به‌ وضوح نمی‌دانیم چگونه می‌توانیم از استقلال این سیستم‌ ها جلوگیری کنیم و نگذاریم اهدافی برای محافظت از خودشان داشته باشند. ما ممکن است کنترل این سیستم‌ ها را از دست بدهیم؛ بنابراین در مسیری هستیم که شاید هیولاهایی بسازیم که از ما قدرتمندتر بشوند.»

تا امروز افراد زیادی از حوزه فناوری و دانشمندان نگرانی‌ هایشان درمورد آینده هوش مصنوعی و اثرات آن بر آینده بشریت را مطرح کرده‌ اند؛ برای مثال: بیل گیتس به‌تازگی سه نگرانی بزرگ خود در مورد هوش مصنوعی را علنی کرده است.

در مقابل، برخی دیگر از مدیران فناوری اعتقاد دارند جهان به هوش مصنوعی پیشرفته‌ تر و بیشتری نیاز دارد و حتی باید سرمایه‌ گذاری‌ های بیشتری روی ساخت دیتاسنتر های هوش مصنوعی انجام شود./