كيف تحمي بياناتك من مخاطر الذكاء الاصطناعي؟

لندن (عربي times)

أصبح كثير من المستخدمين في الآونة الأخيرة مفتونين بالذكاء الاصطناعي التوليدي، الذي يستخدم أدوات جديدة للتفاعل مع البشر في جميع أنواع الأمور الشخصية أو التجارية.

ولكن الكثيرين يتجاهلون العواقب المحتملة على الخصوصية، والتي يمكن أن تكون كبيرة.

فقدان السيطرة على البيانات

وتعمل الشركات على دمج الذكاء الاصطناعي العام في الأدوات اليومية التي يستخدمها الأشخاص في حياتهم الشخصية والمهنية، بهدف مساعدة المستخدمين في مهام مثل التحليلات وتوليد الأفكار والتنظيم والمزيد.

فمن ChatGPT إلى Gemini إلى Copilot  وApple Intelligence الجديد، يمكن بسهولة الوصول إلى أدوات الذكاء الاصطناعي للمستخدمين وانتشارها.

ومع ذلك، لدى الأدوات سياسات خصوصية مختلفة تتعلق باستخدام بيانات المستخدم والاحتفاظ بها.

وفي كثير من الحالات، لا يكون المستهلكون على دراية بكيفية استخدام هذه البيانات.

وفي هذا السياق، تقول الشركات المطورة لها إنها لا تشارك بيانات المستهلك مع طرف ثالث دون إذن، ولا تستخدم بيانات العميل لتدريب نماذج الذكاء الاصطناعي الخاصة بها بلا موافقة مسبقة.

ومع ذلك، يكمن العيب بفقدان المستهلكين السيطرة على كيفية استخدام بياناتهم، وهو اعتبار مهم، كما يقول متخصصو الخصوصية.

طرق حماية الخصوصية

مع انتشار أدوات الذكاء الاصطناعي وتكاملها في الكثير مما يفعله المستهلكون على أجهزة الكمبيوتر الشخصية والهواتف الذكية، أصبحت كيفية استخدام هذه البيانات أكثر أهمية.

وفيما يلي عدة طرق يمكن للمستهلكين من خلالها حماية خصوصيتهم في العصر الجديد للذكاء الاصطناعي التوليدي.

قراءة سياسات الخصوصية: قبل اختيار الأداة، يجب على المستهلكين قراءة سياسات الخصوصية المرتبطة بها بعناية، لمعرفة كيف تُسْتَخْدَم معلوماتك، وهل هناك خيار لإيقاف مشاركة البيانات أو لتحديد البيانات المستخدمة ومدة الاحتفاظ بها، وهل يمكن حذف البيانات؟ ويجب أن يكون ذلك إشارة حمراء إذا لم تتمكن من الحصول على الإجابات بسهولة على هذه الأسئلة.

احتفظ بالبيانات الحساسة: يثق بعض الأشخاص بشدة عندما يتعلق الأمر بتوصيل البيانات الحساسة إلى نماذج الذكاء الاصطناعي التوليدية، على الرغم من نصائح الخبراء بعدم إدخال أي نوع من البيانات الحساسة؛ لأنهم لا يعرفون حقًا كيف يمكن استخدامها أو ربما إساءة استخدامها.

وينطبق هذا على جميع أنواع المعلومات التي قد يدخلها الأشخاص، سواء أكانت شخصية أم متعلقة بالعمل.

وحتى إذا كنت تقوم بإدخال مستند سري، فإن نموذج الذكاء الاصطناعي لديه الآن إمكانية الوصول إليه، الأمر الذي قد يثير أنواع المخاوف جميعها.

لذلك يجب على الأفراد أيضًا توخي الحذر وعدم استخدام نماذج الذكاء الاصطناعي في أي شيء غير عام، أو لا يرغبون في مشاركته مع الآخرين.

ويعد الوعي بكيفية استخدامك للذكاء الاصطناعي أمرًا مهمًا، مثلًا إذا كنت تستخدمه لتلخيص مقالة. ولكن من غير المستحسن أن تستخدمه لتلخيص مستند قانوني شخصي، لأن الذكاء الاصطناعي سيتعرف على المحتوى.

عمليات إلغاء الاشتراك: تتمتع كل أداة من أدوات الذكاء الاصطناعي العامة بسياسات خصوصية خاصة بها، وقد يكون لها خيارات إلغاء الاشتراك. ويتيح برنامج Gemini على سبيل المثال للمستخدمين إنشاء فترة احتفاظ وحذف بيانات معينة، من بين عناصر التحكم الأخرى في النشاط.

تعيين فترة احتفاظ قصيرة: قد لا يفكر المستهلكون كثيرًا قبل أن يبحثوا عن المعلومات باستخدام الذكاء الاصطناعي، إذ يستخدمونه كما لو كان محرك بحث لتوليد المعلومات والأفكار. ومع ذلك، حتى البحث عن أنواع معينة من المعلومات باستخدام الذكاء الاصطناعي العام يمكن أن يكون تطفلاً على خصوصية الشخص.

لذلك حدد فترة احتفاظ قصيرة لأداة الذكاء الاصطناعي العامة للاحتفاظ بالبيانات إن أمكن، واحذف الدردشات بعد حصولك على المعلومات المطلوبة. ويمكن أن يساعد ذلك في تقليل مخاطر وصول طرف ثالث إلى حسابك، وقد يقلل أيضًا من خطر أن تصبح المعلومات الحساسة جزءًا من التدريب النموذجي لأداة الذكاء الاصطناعي.

Comments are closed.