نهایت علم elmend

از این توانایی جیمیل استفاده نکنید

از این توانایی جیمیل استفاده نکنید

نهایت علم: شرکت های بزرگ فناوری از هوش مصنوعی به عنوان ابزاری همه کاره یاد می کنند که می تواند کارهای خسته کننده را برای کاربران انجام دهد؛ همچون خواندن ایمیل های طولانی. اما پژوهش جدیدی نشان داده همین ابزار می تواند راهی برای فریب کاربران و سرقت اطلاعات حساس آنها باشد.


به گزارش نهایت علم به نقل از خبر آنلاین، به نقل از زومیت، یک پژوهشگر امنیت سایبری لطمه پذیری ای را در سرویس ورک اسپیس گوگل کشف کرده که به مهاجمان اجازه می دهد از جمنای برای نمایش دستورات جعلی و گمراه کننده استفاده نمایند.
لطمه پذیری مذکور به برنامه ی گزارش لطمه پذیری 0din بنیاد موزیلا ارسال شده و نشان داده است چطور میتوان با درج پیام های پنهان در بدنه ی ایمیل (مثلاً با فونت نامرئی)، سیستم خلاصه سازی جیمیل را فریب داد.
جمنای این پیام ها را به عنوان دستور تفسیر می کند و آنها را در بخش خلاصه ی پیام ها در جیمیل به نمایش می گذارد، بدون آنکه کاربر متوجه شود این هشدارها ساختگی اند.
به قول پژوهشگر blurrylogic، چنین پیام هایی می توانند کاربران را تشویق به افشای اطلاعات حساس کنند و زمینه را برای مهندسی اجتماعی و سرقت اطلاعات فراهم سازند.
بعد از انتشار گزارش، گوگل اعلام نمود برای رویارویی با این مشکل، مدلهای هوش مصنوعی خودرا بروزرسانی کرده و لیست پیام های مخرب را گسترش داده است. این شرکت می گوید جمنای لینک های مشکوک را شناسایی و از خلاصه ی ایمیل حذف می کند و برای اقدامات حساس مانند حذف وظایف، درخواست تأیید کاربر را نمایش می دهد.
علیرغم این اقدامات، باید درنظر داشت که مهاجمان اغلب یک قدم جلوتر هستند. بدین سبب بهتر است کاربران بدون بررسی و اطمینان، به هیچ یک از پیام هایی که از طرف جمنای برای کلیک کردن روی لینک یا تماس با شخص خاصی نمایش داده می شوند، اعتماد نکنند.


1404/04/25
11:19:32
5.0 از 5
12
تگهای خبر: آنلاین , پژوهشگر , سرویس , سیستم
این مطلب را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۴ بعلاوه ۳
دوستان سایت نهایت علم
نهایت علم