تكنولوجيا

5 معلومات شخصية لا تشاركها مع شات جي بي تي أبداً

أخبار حياة – أصبحت أدوات الذكاء الاصطناعي مثل شات جي بي تي جزءاً أساسياً من حياتنا اليومية، حيث تساعد في الإجابة عن الأسئلة وكتابة الأكواد البرمجية وحتى تحليل النتائج الطبية، غير أن الخبراء وشركات التكنولوجيا يحذرون من مشاركة معلومات حساسة مع هذه الأدوات، نظراً للمخاطر الأمنية والخصوصية التي قد تترتب على ذلك.

تحذيرات رسمية:

تنصح “أوبن أيه آي” مستخدميها بعدم مشاركة أي بيانات سرية أثناء التفاعل مع شات جي بي تي، كما تحذر جوجل مستخدمي “جيميناي” قائلة: “لا تُدخل معلومات سرية أو أي بيانات لا تريد أن يراها المراجعون”.

أبرز المعلومات التي يجب عدم مشاركتها:

معلومات الهوية الشخصية:

تجنب تماماً مشاركة أرقام الضمان الاجتماعي، أو رخص القيادة، أو جوازات السفر، أو تاريخ الميلاد، أو العناوين، أو أرقام الهاتف، رغم محاولة الذكاء الاصطناعي إخفاء هذه البيانات، إلا أن عدم مشاركتها من الأساس هو الحل الأكثر أماناً.

البيانات الطبية:

لا تعتمد على الذكاء الاصطناعي لتفسير التقارير الطبية، لأنه غير خاضع لقوانين حماية البيانات، إذا اضطررت لاستخدامه، احذف أي معلومات تعريفية من التقارير قبل رفعها.

المعلومات المالية والمصرفية:

لا تكشف أبداً عن أرقام الحسابات البنكية، أو بيانات البطاقات الائتمانية، أو تفاصيل الاستثمارات، حتى عند طلب المساعدة في التخطيط المالي، لا داعي لمشاركة بياناتك الحساسة.

بيانات العمل أو الملكية الفكرية:

كن حذراً عند استخدام الذكاء الاصطناعي في المهام الوظيفية، خاصةً عند مشاركة مستندات داخلية أو أكواد برمجية، في 2023، منعت “سامسونج” استخدام شات جي بي تي بعد تسريب أحد الموظفين لشفرة سرية.

كلمات المرور وبيانات الحسابات:

لا تشارك أبداً كلمات السر، أو أسئلة الأمان، أو رموز التحقق الثنائي. الذكاء الاصطناعي ليس أداة لإدارة كلمات المرور، ولحماية حساباتك، استخدم برامج متخصصة موثوقة.

رغم فوائد الذكاء الاصطناعي، يبقى الحذر ضرورياً لحماية بياناتك. تجنب مشاركة المعلومات الحساسة، واستخدم الأدوات الآمنة المتخصصة عند الحاجة.

خصوصية الذكاء الاصطناعي تشكل تحديًا مهمًا في عصر التكنولوجيا الحديثة، حيث يجمع الذكاء الاصطناعي ويعالج كميات هائلة من البيانات الشخصية، مما يثير مخاوف حول كيفية حماية هذه البيانات ومنع سوء استخدامها.

أهم جوانب خصوصية الذكاء الاصطناعي:

جمع البيانات:

يحتاج الذكاء الاصطناعي إلى بيانات ضخمة للتعلم واتخاذ القرارات، وغالبًا ما تشمل هذه البيانات معلومات شخصية مثل الأسماء، والعناوين، وسجلات الإنترنت، وحتى البيانات الحيوية (مثل التعرف على الوجه أو الصوت).

السؤال الأهم: هل يتم الحصول على هذه البيانات بموافقة المستخدمين؟

تخزين البيانات ومعالجتها:

يجب أن تكون البيانات مخزنة بشكل آمن لتفادي الاختراقات.

بعض أنظمة الذكاء الاصطناعي تستخدم “التعلم الموحد” لمعالجة البيانات محليًا من دون نقلها إلى خوادم مركزية، مما يحسن الخصوصية.

التحيز والتمييز:

إذا كانت البيانات المستخدمة في تدريب الذكاء الاصطناعي متحيزة، فقد يؤدي ذلك إلى قرارات تمييزية تضر بفئات معينة.

مثال: أنظمة التعرف على الوجه التي تعمل بدقة أقل مع ذوي البشرة الداكنة.

الشفافية والمساءلة:

يجب أن تكون أنظمة الذكاء الاصطناعي قابلة للتفسير حتى يفهم المستخدمون كيف تتخذ القرارات.

التشريعات والقوانين:

بعض الدول لديها قوانين صارمة لحماية البيانات.

تُلزم هذه القوانين الشركات بحماية بيانات المستخدمين وتمنح الأفراد حقوقًا مثل حذف بياناتهم أو معرفة كيفية استخدامها.

كيف تحمي خصوصيتك في عصر الذكاء الاصطناعي؟

اقرأ شروط الخصوصية قبل الموافقة على استخدام بياناتك.

استخدم أدوات الخصوصية مثل المتصفحات التي تمنع التتبع.

قلل من مشاركة البيانات الحساسة مع التطبيقات والمنصات غير الموثوقة.


اكتشاف المزيد من أخبار حياة

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

مقالات ذات صلة

زر الذهاب إلى الأعلى
أخبار حياة