تکنولوژی

این هوش‌مصنوعی یک تهدید بزرگ سایبری است!

نظرسنجی جدیدی که توسط شرکت بلک‌بری انجام شده است، نشان می‌دهد که اکثر کارشناسان حوزه IT باور دارند کمتر از یک سال با اولین حمله سایبری از سوی ChatGPT فاصله داریم و این چت‌بات هوش مصنوعی با وجود تمام کارهای مفیدی که انجام می‌دهد، می‌تواند برای امنیت سیستم‌ها تهدیدآفرین باشد.

به‌ گزارش HelpNetSecurity، از میان 1500 فعال IT در آمریکای شمالی، بریتانیا و استرالیا که در این نظرسنجی شرکت کرده‌اند، 51 درصد پیش‌بینی می‌کنند که حمله با ChatGPT در کمتر از یک سال آینده به‌وقوع می‌پیوندد. 71 درصد هم باور دارند که کشورهای خارجی احتمالاً همین حالا استفاده از این فناوری را برای انجام عملیات‌های خصمانه علیه دیگر کشورها، آغاز کرده‌اند.

74 درصد از این 1500 کارشناس باور دارند که ChatGPT پتانسیل ایجاد تهدید سایبری علیه سیستم‌های دیجیتال را دارد و آن‌ها را نگران کرده است. از میان توانایی‌های خطرناکی که این چت‌بات می‌تواند داشته باشد، 53 درصد از شرکت‌کنندگان نگران تولید ایمیل‌های فیشینگ هستند. 49 درصد باور دارند که ChatGPT می‌تواند دانش فنی و مهارت‌های هکرها را افزایش دهد و حتی به نشر اطلاعات نادرست در فضای اینترنت کمک کند.

این هوش‌مصنوعی یک تهدید بزرگ سایبری است!

مزایا و معایب ChatGPT باید کنار هم دیده شوند

«شیشیر سینگ»، مدیر ارشد فناوری بلک‌بری می‌گوید: «ChatGPT در طول زمان اثرگذاری خود در حوزه سایبری را افزایش خواهد داد. ما تاکنون شلوغ‌کاری‌ها و هراس‌افکنی‌های زیادی را در این رابطه دیده‌ایم، ولی ضربان این صنعت نسبتاً عمل‌گرایانه باقی می‌ماند و این مسئله دلیل واضحی دارد.»

سینگ می‌گوید فناوری‌هایی مثل ChatGPT پتانسیل‌های مفید زیادی دارند و ما تازه با بخش کوچکی از این پتانسیل‌ها آشنا شده‌ایم. بااین‌حال، نمی‌توان خطرات را در نظر نگرفت: «با بلوغ این پلتفرم و افزایش تجربه هکرها در استفاده از آن، ایستادگی در برابر هوش مصنوعی بدون استفاده از هوش مصنوعی سخت‌تر و سخت‌تر می‌شود.»

تحقیقات بلک‌بری نشان می‌دهد که حدود 82 درصد از کارشناسان IT قصد دارند در دو سال آینده در حوزه امنیت سایبری با هوش مصنوعی سرمایه‌گذاری کنند. از سوی دیگر، حدود 95 درصد از شرکت‌کنندگان باور دارند که دولت باید فناوری‌های پیشرفته را قانونمند کند.

227227

مشاهده بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا