في مرحلة تعطل TechCrunch 2023 ، ألقى رئيس Signal Meredith Whittaker خطابًا مثيرًا للتفكير ، مشيرًا إلى أن الذكاء الاصطناعي (AI) هو إلى حد كبير تقنية مراقبة. يكشف هذا العرض عن نموذج العمل وراء تقنية الذكاء الاصطناعى ، والذي يعتمد على جمع ومعالجة كميات كبيرة من بيانات المستخدم. لا تتحدى تصريحات Whittaker تصورنا التقليدي للذكاءات الذرية فحسب ، بل تثير أيضًا مناقشات مكثفة حول الخصوصية والقضايا الأخلاقية.
أوضح ويتاكر أيضًا أن تطوير تكنولوجيا الذكاء الاصطناعى يرتبط ارتباطًا وثيقًا بصعود أعمال الإعلان عن المراقبة. منذ أواخر التسعينيات ، كان هذا النموذج التجاري متجذرًا بعمق في تربة الاقتصاد الرقمي. التقدم في تكنولوجيا الذكاء الاصطناعى ، وخاصة في معالجة البيانات وتحليلها ، تجعل مراقبة أكثر دقة وإخفاء. هذا التغيير لا يغير وجه صناعة الإعلان فحسب ، بل يشكل أيضًا تهديدًا جديدًا للخصوصية الشخصية.
بالإضافة إلى ذلك ، ذكر Whittaker أيضًا الكمية الكبيرة من الموارد البشرية التي تدعم هذه السلسلة الصناعية. وأشارت إلى أن العديد من العمال يحافظون على هذا النظام الإيكولوجي للمراقبة الضخمة بأجور منخفضة. لا تعكس هذه الظاهرة عدم المساواة في سوق العمل فحسب ، بل تعرض أيضًا التكاليف الاجتماعية وراء تطوير تكنولوجيا الذكاء الاصطناعي. غالبًا ما يتم تجاهل عمل هؤلاء العمال ، لكن مساهمتهم أمر بالغ الأهمية في الحفاظ على تشغيل تكنولوجيا الذكاء الاصطناعي.
جذبت سمات المراقبة لتكنولوجيا الذكاء الاصطناعى اهتمامًا كبيرًا من جميع مناحي الحياة. مع التقدم المستمر للتكنولوجيا ، أصبحت كيفية إيجاد توازن بين حماية الخصوصية الشخصية وتعزيز التنمية التكنولوجية مشكلة ملحة. يذكرنا خطاب Whittaker بأن تقنية الذكاء الاصطناعى ليست مجرد رمز للابتكار ، بل يمكن أن تصبح أيضًا أداة للمراقبة والتحكم.
أخيرًا ، يدعو ويتاكر جميع قطاعات المجتمع إلى إجراء مراجعة أكثر صرامة والإشراف على تطبيق تقنية الذكاء الاصطناعي. إنها تعتقد أنه من خلال الممارسات الشفافة والمسؤولة فقط ، يمكننا التأكد من أن تطوير تكنولوجيا الذكاء الاصطناعي لا ينتهك الحقوق الفردية ويمكن أن يحقق أيضًا تقدمًا حقيقيًا إلى المجتمع. يوفر لنا هذا الرأي منظورًا جديدًا حول التفكير في التطوير المستقبلي لتكنولوجيا الذكاء الاصطناعي وأيضًا يشيرنا إلى اتجاه العمل.