گاف بزرگ محققان هوش مصنوعی مایکروسافت

به گزارش بالیو، ایسنا نوشت: تیم تحقیقات هوش مصنوعی مایکروسافت، حجم عظیمی از داده های شخصی را تصادفی در پلتفرم توسعه نرم افزار گیت هاب، افشا کردند.

گاف بزرگ محققان هوش مصنوعی مایکروسافت

تحقیقات تازه شرکت امنیت سایبری ویز (Wiz) نشان داد داده های میزبانی شده در ابر، در پلتفرم آموزش هوش مصنوعی گیت هاب به وسیله ی که پیکربندی اشتباهی داشت، افشا شده اند. این داده ها به وسیله تیم تحقیقات مایکروسافت در هنگام انتشار داده های آموزش کد باز در گیت هاب، درز کردند.

طبق یک پست وبلاگ ویز، از کاربران این پلتفرم خواسته شد تا مدل های هوش مصنوعی را از یک URL ذخیره سازی ابری دانلود نمایند اما برای اعطای مجوز به کل حساب ذخیره سازی، این به اشتباه پیکربندی شده بود و بعلاوه، به کاربران اجازه کنترل کامل را داد و در نتیجه، آنها به جای این که فقط قادر به خواندن داده ها باشند، می توانستند فایل های موجود را حذف و بازنویسی نمایند. داده های افشا شده شامل پشتیبان گیری از رایانه شخصی کارکنان مایکروسافت بود که حاوی رمزهای عبور خدمات مایکروسافت، کلیدهای مخفی و بیش از 30 هزار پیغام داخلی تیم مایکروسافت از 359 کارمند مایکروسافت بوده است.

به گفته محققان ویز، اشتراک گذاری داده های باز، یکی از اجزای کلیدی آموزش هوش مصنوعی است، اما به اشتراک گذاری مقادیر بیشتر داده، در صورت به اشتراک گذاری نادرست، شرکت ها را در معرض ریسک بزرگ تری قرار می دهد.

امی لوتواک، مدیر فناوری ارشد و یکی از موسسان شرکت ویز در این باره گفت: ویز داده ها را در ژوئن با مایکروسافت در میان گذاشت و این شرکت نرم افزاری، سریعا به حذف داده های افشا شده اقدام کرد. وی اضافه نمود: این واقعه می توانست بدتر هم باشد.

بر اساس گزارش بلومبرگ، مایکروسافت در یک پست وبلاگ اعلام نمود درباره این واقعه تحقیق نموده است و داده های افشا شده در حساب ذخیره سازی، شامل نسخه های پشتیبان از پروفایل دستگاه دو کارمند سابق و پیغام های تیم های داخلی مایکروسافت این دو کارمند با همکارانشان بوده است.

5858

منبع: خبرآنلاین
انتشار: 28 شهریور 1402 بروزرسانی: 28 شهریور 1402 گردآورنده: balio.ir شناسه مطلب: 2419

به "گاف بزرگ محققان هوش مصنوعی مایکروسافت" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "گاف بزرگ محققان هوش مصنوعی مایکروسافت"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید