با شروع هجوم طلای هوش مصنوعی، برندها در حال جهش از این فناوری امیدوارکننده هستند. هوش مصنوعی مولد قرار است بازاریابی محتوا را متحول کند، هزینه ها را کاهش دهد و تولید را سرعت بخشد.
تا همین اواخر، ChatGPT از اینترنت قطع شده بود و نمی توانست از اطلاعات موتورهای جستجو استفاده کند. با این حال، انبوهی از افزونههای جدید ChatGPT در حال تغییر این موضوع هستند و به ربات چت اجازه میدهند شروع به مرور وب کنند.
با ظهور اخیر، واکنش ها گیج کننده بوده است و نگرانی ها را در مورد نحوه استفاده از این فناوری برانگیخته است. با تسریع استفاده از فناوری، باید کنترلها و توازنهایی برای اطمینان از پذیرش گسترده، ایمن، مسئولانه و اخلاقی ایجاد شود.
برندهایی که با عجله به پلاگین های داخلی می روند و از ابزارهای تولید محتوای هوش مصنوعی استفاده می کنند باید به خطرات موجود توجه داشته باشند. یک راه حل به ظاهر سریع برای مقیاس بندی محتوا می تواند در دراز مدت فاجعه بار باشد.
با در نظر گرفتن این موضوع، در اینجا چهار خطر مرتبط با پلاگین های ChatGPT وجود دارد که مارک ها باید از آنها آگاه باشند.
مشکلات حریم خصوصی با افزونه های ChatGPT
«اگرچه یک قیاس کامل نیست، پلاگینها میتوانند «چشم و گوش» برای مدلهای زبان باشند و به آنها دسترسی به اطلاعاتی میدهند که خیلی جدید، خیلی شخصی یا خیلی خاص هستند که در دادههای آموزشی گنجانده شوند. OpenAI در یک بیانیه مطبوعاتی اخیر.
در حالی که OpenAI قول داده است از چشم انداز پلاگین خود محافظت کند، توسعه دهندگان می توانند نسخه های خود را اجرا کنند. یک اکوسیستم خودتنظیمی ممکن است نتواند از گسترش فریبهای ناامن و عواقب پیشبینی نشده آن جلوگیری کند. نه تنها این، بلکه همگام شدن با تهدید همیشگی باگ ها یک چالش بزرگ است.
با افزایش سرسام آور گزینه های افزونه، ChatGPT داده های حساس تری را برای انجام کارهای پیچیده تر ضبط می کند. در حال حاضر، ایتالیا استفاده از چت بات را پس از یک ممنوع کرده است حادثه نقض حریم خصوصی، که در آن اطلاعات حساس کاربر مانند نام و نام خانوادگی، اطلاعات مالی شامل چهار رقم آخر کارت اعتباری و تاریخ انقضا بیش از 9 ساعت در معرض نمایش قرار داشت.
با توجه به این مهم است برای برندهایی که باید توجه داشته باشند که کدام اطلاعات با آنها به اشتراک گذاشته می شود فناوریهای هوش مصنوعی و برای چه هدفی، زیرا حریم خصوصی آنها همیشه در خطر است.
تهدیدات امنیتی ناشی از افزونه های ChatGPT
ایجاد پاسخ یک چیز است و اقدام دیگری. افزونه های ChatGPT فناوری را از اولی به دومی تغییر می دهند. با افزایش شکاف بین این دو، خطر تهدیدات امنیتی نیز افزایش می یابد.
پلاگین ها می توانند مدل های زبان را از زندان فراری دهند، معرفی آسیب پذیری های بی شماری. OpenAI حتی خود را راه اندازی کرده است برنامه Bounty Bug، یک انگیزه نقدی سنگین برای کسانی که سناریوهایی را که در آن فیلترهای ایمنی آن دور زدن یا کدهای مخرب منتشر می شود را افشا می کنند، ارائه می دهد.
همچنین، ممکن است با تنظیم قوانین مطابقت و جایگزینی از طریق یک پروکسی HTTP، از افزونه های منتشر نشده ChatGPT استفاده کنید. فقط بررسی های سمت مشتری برای تأیید مجوز استفاده از افزونه ها وجود دارد که می توان آنها را دور زد. در ماه مارس، یک هکر 80 افزونه منتشر نشده یا آزمایشی را پیدا کرد.
به طور کلی، افزونه ها قدرت ارسال ایمیل های تقلبی یا هرزنامه، دور زدن محدودیت های ایمنی یا سوء استفاده از اطلاعات را دارند. هنگامی که برندها از پلاگین ها استفاده می کنند، می توانند خود را در معرض این خطرات مختلف قرار دهند و به عنوان مثال، به طور ناخواسته بخشی از یک طرح فیشینگ شوند.
چالش های دقت با افزونه های ChatGPT و داده های زمان واقعی
با استفاده از افزونهها، ChatGPT به منابع دانش و پایگاههای داده شخص ثالث دسترسی پیدا کرده است. به عنوان مثال، الف Bing API به چت بات اجازه می دهد تا داده ها را ترکیب کند از موتور جستجو در پاسخهای آن با ذکر منابع در این فرآیند جمعآوری شده است.
پیش از این، فناوری هوش مصنوعی مولد فقط می توانست شامل اطلاعات مربوط به آن باشد تاریخ ها، رویدادها و افراد تا سپتامبر 2021. اکنون، ChatGPT میتواند دادههای بلادرنگ را به ترکیب بیاورد، که میتواند شامل اطلاعات تأیید نشده یا نادرست باشد.
ChatGPT قبلاً داشته است “توهمات،”. به این معنی که گاهی متون قانع کننده ای تولید می کند که نادرست هستند. وقتی این فناوری به برق وصل شود، میتواند از منابع نامعتبر استفاده کند و کاربران را با پاسخهای ساختگی ترغیب کند.
وقتی صحبت از ایمنی نام تجاری می شود، این یک مسئله اساسی است. اگر برندها به شدت به ChatGPT برای تولید محتوا در مقیاس بدون وجود یک دروازه بان انسانی برای نظارت بر راستی آزمایی حقایق و اطلاعات متکی باشند، در معرض خطر انتشار و به اشتراک گذاری محتوای حاوی توهم هستند.
نگرانی های اخلاقی پیرامون پلاگین های ChatGPT و توسعه هوش مصنوعی
ماه گذشته، بیش از 1000 کارشناس، محقق و حامی هوش مصنوعی با امضای نامه ای خواستار توقف شش ماهه ایجاد هوش مصنوعی غول پیکر شدند.. این فهرست شامل ایلان ماسک، بنیانگذار OpenAI، عماد موستاک، بنیانگذار هوش مصنوعی پایدار، و استیو وزنیاک، بنیانگذار اپل است.
نامه مورد نظر استدلال می کند که این یک مهلت قانونی کامل نیست، بلکه “صرفاً یک گام عقب نشینی از مسابقه خطرناک به سمت مدل های جعبه سیاه غیرقابل پیش بینی بزرگتر با قابلیت های نوظهور است.”
همچنین، از آزمایشگاههای هوش مصنوعی و کارشناسان مستقل میخواهد «به طور مشترک مجموعهای از پروتکلهای ایمنی مشترک را برای طراحی و توسعه هوش مصنوعی پیشرفته توسعه و پیادهسازی کنند که بهشدت توسط کارشناسان مستقل خارجی بررسی و نظارت میشوند. در این نامه آمده است: در چنین سناریویی، OpenAI با سایر آزمایشگاههای هوش مصنوعی متحد میشود تا مطمئن شود که سیستمهای آنها بدون هیچ تردیدی ایمن هستند.
با ظهور افزونهها، در صورت سوء استفاده، ChatGPT میتواند وظایف غیراخلاقی را از طرف یک فرد یا برند انجام دهد. به عنوان مثال، تصور کنید که یک عامل مخرب کنترل فناوری شما را در دست گرفته و از کانال های شما برای ترویج تبلیغات سیاسی یا سخنان نفرت استفاده می کند.
بدون دخالت مستقیم انسان، خطرات اخلاقی مرتبط با افزونه ها غیرقابل محاسبه است.
ما روی یک کد رفتاری هوش مصنوعی کار می کنیم
برای اطمینان از استفاده اخلاقی و مسئولانه از هوش مصنوعی، javadyasemi در حال توسعه یک کد رفتاری است که خطرات مرتبط با استفاده از هوش مصنوعی را بررسی می کند.
ما اقداماتی را برای جلوگیری از سوگیری، تضمین شفافیت و حفاظت از حقوق حریم خصوصی انجام خواهیم داد. ما امیدواریم که سوابق استفاده از هوش مصنوعی را حفظ کنیم و آموزش و آموزش را به کارمندان ارائه دهیم تا اطمینان حاصل کنیم که آنها توانایی ها و محدودیت های هوش مصنوعی را درک می کنند.
javadyasemi در مورد مزایا و خطرات استفاده از هوش مصنوعی شفاف است و از بازخوردها و سؤالات ذینفعان استقبال می کند. با استفاده از کد رفتاری هوش مصنوعی، اطمینان حاصل می کنیم که استفاده از هوش مصنوعی اخلاقی، مسئولیت پذیر و همسو با ارزش ها و مأموریت ما است.