وفيات من الاردن وفلسطين اليوم الخميس 23- 5 – 2024 غارات صهوني على جنوب لبنان بوريل: سأعمل من أجل موقف مشترك للاتحاد الاوروبي بشأن فلسطين "محاط بالحمقى".. محمد صلاح ينشر صورة لكتاب بعنوان مثير وزيرة النقل : ضرورة التوسع بمشروع الحافلات السريعة لربط مدن ومحافظات الاحتلال يفرغ مستشفى العودة شمال قطاع غزة من الطواقم الطبية " طلبة الاردنية ": أحزاب سرقت جهود الطلبة". فيديو ترحيب عربي بقرار ثلاث دول أوروبية الاعتراف بدولة فلسطين تعليق توزيع المواد الغذائية في غزة النوايسة يعلن توصيات منتدى الأردن للإعلام والاتصال الرقمي خبير طاقة: النفط المستوردة من العراق يوفر نحو 30 مليون دولار سنوياً.. فيديو الملك تشارلز يحل البرلمان البريطاني والانتخابات في تموز "الصحفيين" تدعو الصحف والمؤسسات الإعلامية لتسمية مندوبيها لبعثة الحج ارتفاع عدد الشهداء في جنين جراء عدوان "إسرائيلي" إلى 10 غوارديولا يكشف علاقته برياض محرز.. ويسدي نصيحة لمسؤولي الدوري السعودي

القسم : علوم وتكنولوجيا
نبض تيليجرام فيس بوك
نشر بتاريخ : 06/04/2024 توقيت عمان - القدس 8:53:32 AM
كيف تستخدم Gemini و ChatGPT دون تعريض أمنك الرقمي للخطر؟
كيف تستخدم Gemini و ChatGPT دون تعريض أمنك الرقمي للخطر؟


شهدت تطبيقات وخدمات الذكاء الاصطناعي نموًا هائلًا خلال العام الماضي، ويبدو أن هذا النمو سيستمر لمدة طويلة، إذ يُدمج الذكاء الاصطناعي الآن في كل التطبيقات والأدوات التي نستخدمها يوميًا، مثل: البريد الإلكتروني، والتطبيقات المكتبية، وأدوات تحرير الصور، وأنظمة التشغيل مثل: ويندوز، وأندرويد، بالإضافة إلى بيئات التطوير المتكاملة (IDEs) مثل: Visual Studio، وغيرها الكثير.

وينشئ المطورون الآن آلاف التطبيقات الجديدة التي تستفيد من نماذج الذكاء الاصطناعي. ومع ذلك، لم يتمكن أحد في هذا السباق حتى الآن من حل مشكلات الأمان التي يواجهها المستخدمون، ومنها: تسريب البيانات السرية، واختراق الحسابات والأجهزة من خلال أدوات الذكاء الاصطناعي، ناهيك عن وضع ضمانات مناسبة ضد هجمات (الذكاء الاصطناعي الشرير) المستقبلية. لذلك سيتعين عليك اكتساب بعض المهارات لتأمين بياناتك عند استخدام هذه الأدوات، حتى تُحل هذه المشكلات.

كيف يمكنك استخدام أدوات الذكاء الاصطناعي دون تعريض أمنك الرقمي للخطر؟

تُشكل خصوصية البيانات مصدر قلق متزايد مع زيادة شعبية روبوتات الدردشة التي تستند في عملها إلى الذكاء الاصطناعي، خاصة مع استخدام البيانات للتدريب، وحدوث تسريبات غير مقصودة.

إذ تنص سياسة الخصوصية التي تتبعه (OpenAI)، الشركة المطورة لروبوت ChatGPT، إلى أن جميع المحادثات مع روبوت (ChatGPT) تُحفظ وتستخدم لأغراض متعددة، منها: تدريب إصدارات نماذج (GPT) الجديدة لتحسين المنتج، ومنع انتهاكات شروط الخدمة.

 

كما تمتلك معظم النماذج اللغوية الشائعة الأخرى – بما يشمل: Gemini من جوجل، وClaude من Anthropic وCopilot من مايكروسوفت – سياسات مماثلة، إذ يمكنها جميعها حفظ المحادثات بالكامل.

ومع ذلك، فقد حدثت بالفعل تسريبات غير مقصودة لبيانات المستخدمين بسبب أخطاء برمجية، حيث ظهرت العناوين الخاصة بسجل محادثات المستخدمين مع ChatGPT بشكلٍ عشوائي لدى مُستخدمين آخرين.

ويُمكن أن يشكل استخدام البيانات للتدريب أيضًا خطرًا على الخصوصية، إذ قد يُقدم مساعد الذكاء الاصطناعي معلوماتك إلى شخص ما دون علمك إذا كان يعتقد أنها ذات صلة بالرد. بالإضافة إلى ذلك فقد استغل المهاجمون إصدارت (GPTs) – المتاحة في  متجر GPT، التي طُورت لأداء مهام محددة – لشن هجمات متعددة لسرقة المحادثات، مما يُشير إلى أن هذا الخطر لن يزول قريبًا.

لذلك؛ يجب عليك دائمًا تذكر أن محادثاتك مع Gemini و ChatGPT، وأي روبوتات دردشة أخرى قد تكون سببًا في اختراقك، ومن المهم أن تتخذ الخطوات اللازمة لحماية بياناتك عند استخدامها.

ماذا تفعل لحماية بياناتك عند استخدام أدوات الذكاء الاصطناعي؟

1- لا تشارك أي معلومات شخصية مع روبوتات الدردشة:

لا يُعدّ Gemini و ChatGPT وأي روبوتات دردشة أخرى قناة آمنة لمشاركة المعلومات الحساسة أو التعامل معها، ويتضمن ذلك: البيانات المالية وكلمات المرور والمعلومات الشخصية وبيانات العمل السرية، لذلك لا تشارك هذه المعلومات معها بأي طريقة، ويمكنك استبدالها بعلامات نجمية في المطالبات.

2- تجنب مشاركة أي وثائق تحتوي على معلومات حساسة أو سرية:

تتيح لك العديد من الأدوات والإضافات استخدام روبوتات الدردشة لمعالجة المستندات بسرعة، مما قد يكون مغريًا لتحميل مستند عمل لمعالجته أو الحصول على ملخصه بسرعة، ومع ذلك، فمن خلال تحميل مستندات متعددة الصفحات لمعالجتها دون تفكير فإنك تخاطر بتسريب البيانات السرية أو الملكية الفكرية أو الأسرار التجارية، مثل: تاريخ إصدار منتج جديد أو كشوف مرتبات الفريق، والأسوأ من ذلك، عند معالجة المستندات الواردة من مصادر خارجية، قد تُستهدف بهجوم يعتمد على المستند الذي تفحصه.

3- استخدم إعدادات الخصوصية:

اقرأ سياسة الخصوصية الخاصة بالنموذج اللغوي الذي تستخدمه بعناية، ثم حدد الإعدادات المتاحة للتحكم في كيفية جمع بياناتك واستخدامها. على سبيل المثال، تسمح لك منتجات OpenAI بتعطيل حفظ المحادثات، وفي هذه الحالة، ستُحدف البيانات بعد 30 يومًا ولن تُستخدم للتدريب.

الحد من مخاطر تطبيقات الأطراف الخارجية والإضافات:

احرص على اتباع النصائح السابقة عند استخدام أي روبوت دردشة يستند في عمله إلى الذكاء الاصطناعي، حتى لو كان مشهورًا، مثل: ChatGPT أو Gemini، ومع ذلك، حتى هذا قد لا يكون كافيًا لضمان الخصوصية، إذ يؤدي استخدام الإضافات مع روبوتات الدردشة إلى ظهور أنواع جديدة من التهديدات الأمنية، ومنها:

قد تُحزن سجلات المحادثات في خوادم تابعة لطرف ثالث يدعم الإضافات التي تستخدمها، وليس فقط في خوادم جوجل أو OpenAI.

تستمد معظم الإضافات المعلومات من مصادر خارجية، مثل: عمليات البحث عبر الويب أو البريد الوارد في جيميل أو الملاحظات الشخصية من خدمات، مثل: Notion أو Jupyter أو Evernote. قد ينتهي الأمر بوصول أي من بياناتك من هذه الخدمات إلى الخوادم التي تعمل عليها الإضافة أو النموذج اللغوي نفسه.

قد تُستخدم إضافات روبوتات الدردشة لشن هجمات على المستخدمين، مثل: إنشاء مستودعات GitHub جديدة نيابة عنهم دون علمهم.

إذا كنت بحاجة إلى بعض المزايا التي توفرها الإضافات، فحاول اتخاذ أقصى الاحتياطات المتاحة قبل استخدامها، ومنها:

 

اختر الإضافات التي كانت موجودة منذ عدة أشهر على الأقل، والتي تُحدث بانتظام.

فكر فقط في الإضافات التي لديها عدد كبير من التنزيلات، واقرأ المراجعات بعناية للبحث عن أي مشكلات.

إذا كانت الإضافة لديها سياسة خصوصية، اقرأها بعناية قبل البدء باستخدامها.

اختر الأدوات المفتوحة المصدر.

إذا كنت تمتلك مهارات برمجية، فاقرأ التعليمات البرمجية للتأكد من أن الإضافات التي تستخدمها ترسل البيانات فقط إلى الخوادم المعلنة، وإذا لم تمتلك مهارات برمجية، فاطلب من صديق مبرمج مراجعة التعليمات البرمجية نيابة عنك، أو استخدم أداة تحليل إضافات موثوقة للتحقق من سلامة البيانات.

 

الحقيقة الدولية – وكالات

Saturday, April 6, 2024 - 8:53:32 AM
المزيد من اخبار القسم الاخباري

آخر الاضافات


أخبار منوعة
حوادث



>
جميع الحقوق محفوظة © الحقيقة الدولية للدراسات والبحوث 2005-2023