اليوم لا يستطيع احد أن ينكر توغل أستخدام تطبيقات التكنولوجيا الحديثة وأدواتها في كافة فروع حياتنا اليومية واهمها حاليا وأكثرها أنتشارا هي تطبيقات الذكاء الاصطناعى المختلفة.
ولن أختص تطبيق شات جى تى الأمريكي المشهور ولا تطبيق دييب سيك الصينى المنافس له أو جوجل لأنه يوجد العديد من التطبيقات والمنصات الأخرى التي يدخل عليها الأشخاص وموظفى الشركات لأستخدامها لتسهيل العمل وأداء وظائفهم اليومية بصورة اسرع وادق وهذا غرض نبيل لا نختلف عليه.
وطبعا التقنيات الحديثة مثل اى شيء أخر لها مميزات وعيوب وتعتمد مميزاتها على الشخص المستخدم ذاته وكيفية أدراكه ومدى وعيه للأستفادة من التقنية والحديثة لتحسين مستوى معيشته والحصول على فرص وخدمات أفضل ولكن أعتقد أن أسوأ شيء حاليا ممكن تسببه التكنولوجيا هو سوء استخدام الذكاء الأصطناعى من الأشخاص والهيئات التي تتنافس منافسة شرسة لأن هذا سيؤدى الى ان يشارك ويرفع بياناته وبيانات مؤسسته ومعلومات كثيرة حساسة ومهمة على منصة لا يعرف من ورائها ولا أين ستخزن هذه المعلومات ولا من ممكن أن يستخدمها ضده بعد ذلك.
تشمل أشهر منصات الذكاء الاصطناعي التي يستخدمها العامة والمتخصصين حاليا كلًا من:
Google Cloud AI، وMicrosoft Azure AI، وAmazon AWS، وOpenAI، وTensorFlow. تختلف استخدامات هذه المنصات لتشمل تطوير نماذج تعلم الآلة، وأتمتة المهام، وتحليل البيانات، وإنشاء المحتوى وهى منصات سحابية كبرى تقدم هذه المنصات مجموعة واسعة من أدوات وخدمات الذكاء الاصطناعي للمطورين والشركات مثل:.
- Google Cloud AI: تُعد من المنصات الرائدة، وتقدم خدمات متكاملة لتطوير ونشر تطبيقات الذكاء الاصطناعي، مثل "جيميني" لزيادة إنتاجية الشركات.
- Microsoft Azure AI: تقدم حلولًا قابلة للتطوير للشركات، مع أدوات متقدمة للتعلم الآلي والذكاء الاصطناعي الحواري.
- Amazon Web Services (AWS): توفر مجموعة خدمات شاملة، مثل "SageMaker"، التي تساعد المؤسسات على بناء نماذج التعلم الآلي وتدريبها ونشرها.
منصات تطوير النماذج حيث تُستخدم هذه المنصات من قبل الباحثين والمطورين لإنشاء نماذج ذكاء اصطناعي وتدريبها واشهر هذه المواقع (المنصات) هي:.
- TensorFlow: مكتبة مفتوحة المصدر من جوجل، تُستخدم على نطاق واسع في تطوير نماذج التعلم العميق عالية الجودة.
- PyTorch: إطار عمل مفتوح المصدر يُفضله الباحثون والمطورون لمرونته في بناء شبكات عصبية ديناميكية.
- Keras: مكتبة عالية المستوى تعمل على تبسيط عملية بناء نماذج التعلم العميق.
منصات الذكاء الاصطناعي المتخصصة
- OpenAI: تركز على نماذج الذكاء الاصطناعي التي يقودها البحث، وتتيح للمطورين دمج واجهتها البرمجية في تطبيقاتهم لفهم اللغة الطبيعية.
- Synthesia: متخصصة في إنشاء الفيديوهات باستخدام شخصيات رقمية واقعية من النصوص، مما يجعلها مثالية للمحتوى التعليمي والتوضيحي.
- Perplexity AI: منصة للإجابة على الأسئلة تُقدم ردودًا سريعة ودقيقة ومدعومة بالمصادر، وتُستخدم بشكل خاص في البحث الأكاديمي.
- Canva (Magic Write): تقدم أدوات كتابة مساعدة بالذكاء الاصطناعي وقوالب تصميم جاهزة، وهي مناسبة للمصممين والمسوقين.
- Botpress: منصة مرنة تُستخدم لإنشاء روبوتات الدردشة التفاعلية لأتمتة خدمة العملاء وإدارة التفاعلات.
أمثلة على استخدامات هذه المنصات العامة طبقا للإحصاءات:
- التجارة الإلكترونية: توصيات مخصصة للمنتجات بناءً على تفضيلات العملاء وسجل تصفحهم.
- التعليم: إنشاء محتوى تعليمي تفاعلي وتصميم خطط الدروس باستخدام أدوات الذكاء الاصطناعي.
- التسويق: تحليل البيانات الخاصة بالعملاء وإنشاء محتوى جذاب.
- خدمة العملاء: استخدام روبوتات الدردشة الذكية للرد على استفسارات العملاء وحجز المواعيد.
- تحليل البيانات: معالجة كميات هائلة من البيانات للتعرف على الاتجاهات المستقبلية.
ونرجع هنا لموضوع المقالة وهى من يضمن حماية البيانات التي يتم رفعها وتغذية هذا المنصات بها؟
فلابد من تحقيق التوازن بين الاستفادة من تطبيقات التكنولوجيا الحديثة مثل البلوك تشين و الذكاء الاصطناعي والتعامل بالكريبتو وذلك للحفاظ على خصوصية البيانات وحسن أتخاذ القرار لأن كثير من المؤسسات لا تدرك هذا الامر والعديد من شركات الحاسبات ومزودى الخدمة system integrator بدأوا في التحول الى انهم مثلا AI/BC enabler بدون الجاهزية الكاملة وبدون فهم كامل لمتطلبات العمل للحفاظ على سرية بيانات كل عميل وهنا يحدث تصادم وضرر كبير على الطرفين وهناك عدة قضايا منظورة أمام المحاكم في هذا الشأن.
دعنا ندرس خصوصية ,امن البيانات على كل منصة من المنصات الاوسع أنتشارا:
- الضمانات الأساسية لخصوصية البيانات على جوجل:
- التحكم بالبيانات: يمكنك التحكم في بياناتك وحذف سجل محادثاتك مع "جيميني" أو إيقاف حفظه في أي وقت من إعدادات حسابك على منصة جوجل.
- التشفير: يتم تشفير البيانات أثناء النقل (عند إرسالها) وأثناء التخزين (عند حفظها في الخوادم)، مما يحميها من الوصول غير المصرح به.
- المراجعة البشرية: في بعض الحالات، قد يراجع البشر محادثاتك لتحسين الخدمة، ولكن يتم فصل هذه المحادثات عن هويتك وحسابك قبل المراجعة.
- الشفافية: توضح سياسات جوجل سبب جمع البيانات وكيفية استخدامها، مع توفير أدوات لتصدير بياناتك أو حذفها.
- ولذلك يوجد فرق بين الإصدار المجاني وإصدار المؤسسات من جوجل وخاصة لنقطة سرية البيانات.
- دعني أوضح لك الضمانات والسياسات المتعلقة بالخصوصية في المنصة الصينية DeepSeek:
ضمانات الخصوصية في DeepSeek طبقا للسياسات الرسمية المعلنة والتي لا أضمن أن تكون مطبقة:
- لا يتم تخزين المحادثات بشكل دائم بربطها بهويتك الشخصية.
- البيانات تُعالج بشكل مجهول قدر الإمكان.
- تطبيق معايير أمان البيانات لحماية المعلومات.
- ما يحدث لبياناتك على منصة ديب سيك ؟
- المحادثات قد تُستخدم لتحسين النموذج ولكن بشكل مجهول.
- يمكنك التحكم في بياناتك عبر إعدادات الخصوصية.
- يوجد خيار حذف سجل المحادثات إذا رغبت.
- ما الذي تلتزم به منصة تشات جى بى تى من شركة الامريكية OpenAI؟
تشفير كامل للبيانات أثناء النقل وفي حالة السكون ومع ضوابط وصول صارمة، ومراجعات أمنية (SOC
سياسة خصوصية معلنة ومحدَّثة توضّح أنواع البيانات، أغراض المعالجة، والحقوق (الوصول، الحذف، الاعتراض… إلخ).
فرق مهم بين الخطط والاستخدامات للأفراد والشركات
ChatGPT للأفراد (المجّاني/المدفوع الشخصي): قد تُستخدم محادثاتك لتحسين النماذج إلا إذا عطّلت ذلك من إعدادات “ضوابط البيانات” (Data Controls) أو قدّمت طلب “عدم التدريب على محتواي”.
ChatGPT للأعمال/المؤسسات (Business/Enterprise/Edu): لا تُستخدم بيانات عملك لتدريب النماذج، مع ميزات أمان وإدارة مؤسسية إضافية.
واجهة الـAPI: البيانات المرسلة عبر API لا تُستخدم للتدريب افتراضيًا (إلا إذا اخترت صراحةً الاشتراك في المشاركة.
ولمعرفة المزيد عن أي جوانب من سياسات الخصوصية لمعلوماتك على منصات الذكاء الاصطناعى:
دعنا نقول أنه مازال في بعض المؤسسات أحيانا كتيرة لاتجد أن المسؤل يفكر في الامر 360 درجة عندما يسمح أو يطلب موظفيه بأستخدام تطبيقات الذكاء الاصطناعى لتحسين بيئة العمل حيث عليه بالسؤال والاستيعانة بخبرات المستشارين لمساعدته في أتخاذ القرار الصائب والسؤال والتأنى في اتخاذ القرار لتفعيل تطبيقات الذكاء الاصطناعى فعلى سبيل المثال كتابة عقدود مشاريع التقنية معظمها تجده ركيكيا ولايتغطى العقد كل الجوانب التقينة والقانونية حالة حدوث خلاف لا قدر الله ومن هنا جاء مصطلح Legaltech والذى انصح كل المسؤلين التنفيذيين بالمشاورة والسؤال والمراجعة حتى يتم التكيف مع التغيرات التقينة ولا تؤثر سلبيا على مستوى أداء العمل لدى مؤسسته أو شركته التي يعمل بها نتيجة مشاركة معلومات حساسة عن اعمال الشركة على منصة مفتوحة.
يوجد بعض المؤسسات وكل الهيئات الحكومية تنشا لها منصة خاصة للذكاء الاصطناعى ولكن هذا طبعا له تكاليف مضاعفة وأعدادات خاصة من أدراج البيانات بطريقة منظمة لربطها والحصول منها على المطلوب
أما بالنسبة على مستوى الافراد أعتقد فأن حسن أستخدام التكنولوجيا يعتمد على مدى وعى الفرد وحسن أستخدامه للتكنولوجيا للتعلم وزيادة مهاراته والتعرف على أفق جديدة مفيدة ولكن بدون أن يفقد او يشارك معلوماته الحساسة..
أخيرا نصائح للاستخدام الآمن:
- لا تشارك معلومات حساسة جداً (كلمات سر، بيانات مالية سرية).
- استخدم أسماء مستعارة عند ذكر أمثلة شخصية.
- احذف المحادثات الحساسة بعد الانتهاء منها.
- ضوابط تحت يدك (ننصح بتفعيلها دائمًا)
- من “الإعدادات ← ضوابط البيانات”: أوقف خيار “تحسين النموذج للجميع” لتعطيل استخدام محادثاتك في التدريب، ويمكنك تصدير بياناتك أو حذف الحساب عند الحاجة.
- لطلبات خاصة (مثلاً منع التدريب على محتوى سابق)، استخدم بوابة الخصوصية وخيارات عدم المشاركة.
- حدود واعتبارات قانونية مهمّة
- قد تُحفظ بعض السجلات لفترة لأغراض الأمان والامتثال القانوني. وفي سياقات التقاضي قد تُفرَض أوامر حفظ قانونية مؤقتة تؤثّر على سياسات الحذف المعتادة. (خبر حديث ذكر حفظ محادثات محذوفة نتيجة أمر قضائي—لا يشمل عادةً عملاء Enterprise وEdu أو الاتفاقات بصفر احتفاظ.
- تخضع الخدمات لتدقيق جهات رقابية في بعض الدول، ما قد يضيف التزامات امتثال إضافية.
أفضل ممارسات لحماية خصوصيتك
- لا تُدرِج بيانات حساسة إلا للضرورة القصوى، ويفضَّل إخفاء الهوية (إزالة الأسماء/المعرِّفات).
- إن كان الاستخدام مؤسسيًا/سريًا، استخدم ChatGPT Business/Enterprise أو الـAPI مع سياسات احتفاظ مناسبة.
- فعّل ضوابط البيانات (تعطيل التدريب)، وحدّد صلاحيات الوصول داخليًا، واحتفِظ بسجل تدقيق.
- راجع دوريًا سياسة الخصوصية وأوراق الامتثال/الأمن (SOC2) عبر بوابة الثقة.
الخلاصة: الخصوصية مضمونة بتشفير قوي، وضوابط وصول وامتثال هكذا تعلن كافة منصات الذكاء الأصطناعى، ومع إمكانية منع استخدام بياناتك للتدريب—لكن مسؤولية اختيار الخطة المناسبة وتفعيل الإعدادات تقع عليك/على شركتك. إذا أخبرتني بسيناريو استخدامك (فردي/شركة، طبيعة البيانات، متطلبات الامتثال)، أضع لك إعدادات وخطوات دقيقة تناسبك. حيث يمكنك استخدام كافة تطبيفات الذكاء الاصطناعى بثقة مع الالتزام بمبدأ "الحذر" وعدم مشاركة المعلومات شديدة الحساسية.
التعليقات