به نوشته دیجیاتو؛ یاشوا بنجیو از جمله افرادی است که بخش عمده ای از دوران حرفهای خود را به تحقیق درمورد شبکه های عصبی و الگوریتم های یادگیری عمیق اختصاص داده است. محصولاتی مانند: ChatGPT و Claude نتیجه مستقیم تحقیقات این دانشمند کانادایی هستند. او نگران توسعه هوش مصنوعی است و در مصاحبه ای اختصاصی با یاهو فاینانس این نگرانی ها را بیان کرده است.
به گفته بنجیو، هوش نوعی قدرت است و هرکسی بتواند این قدرت را در سطح انسانی یا بالاتر کنترل کند، بسیار بسیار قدرتمند خواهد بود. او در ادامه گفت: «عموماً افرادی از فناوری استفاده میکنند که خواهان قدرت بیشتر هستند؛ تسلط اقتصادی، تسلط نظامی، تسلط سیاسی. قبل از ایجاد فناوری که بتواند قدرت را به روش های خطرناک متمرکز کند، باید بسیار مراقب باشیم.»
یاشوا بنجیو در پاسخ به این سؤال که چرا باید نگران هوش مصنوعی در سطح انسانی باشیم؟ گفت: «اگر این [هوش مصنوعی] به دست افراد نادرست بیفتد، میتواند بسیار خطرناک باشد. این ابزار ها میتوانند به زودی به کمک تروریست ها و بازیگران دولتی بیایند که میخواهند دموکراسی های ما را نابود کنند.
مسئله دیگری که وجود دارد و بسیاری از دانشمندان نیز به آن اشاره کردهاند، نحوه آموزش هوش مصنوعی است. ما به وضوح نمیدانیم چگونه میتوانیم از استقلال این سیستم ها جلوگیری کنیم و نگذاریم اهدافی برای محافظت از خودشان داشته باشند. ما ممکن است کنترل این سیستم ها را از دست بدهیم؛ بنابراین در مسیری هستیم که شاید هیولاهایی بسازیم که از ما قدرتمندتر بشوند.»
تا امروز افراد زیادی از حوزه فناوری و دانشمندان نگرانی هایشان درمورد آینده هوش مصنوعی و اثرات آن بر آینده بشریت را مطرح کرده اند؛ برای مثال: بیل گیتس بهتازگی سه نگرانی بزرگ خود در مورد هوش مصنوعی را علنی کرده است.
در مقابل، برخی دیگر از مدیران فناوری اعتقاد دارند جهان به هوش مصنوعی پیشرفته تر و بیشتری نیاز دارد و حتی باید سرمایه گذاری های بیشتری روی ساخت دیتاسنتر های هوش مصنوعی انجام شود./