الإفصاح: الآراء والآراء المعبر عنها هنا تخص المؤلف فقط ولا تمثل آراء وآراء افتتاحية crypto.news.

إن تركيز تطوير الذكاء الاصطناعي (AI) في أيدي عدد قليل من الشركات القوية يثير مخاوف كبيرة بشأن الخصوصية الفردية والمجتمعية.

ومع القدرة على التقاط لقطات الشاشة وتسجيل ضغطات المفاتيح ومراقبة المستخدمين في جميع الأوقات من خلال رؤية الكمبيوتر، تتمتع هذه الشركات بإمكانية وصول غير مسبوقة إلى حياتنا الشخصية والمعلومات الحساسة.

قد يعجبك ايضا: الذكاء الاصطناعي اللامركزي: الاستفادة من تقنية blockchain من أجل مستقبل أكثر إنصافًا | رأي

سواء أعجبك ذلك أم لا، فإن بياناتك الخاصة موجودة في أيدي مئات، إن لم يكن الآلاف، من الشركات. هناك أدوات في السوق تسمح لأي شخص بالتحقق من عدد الشركات التي تمتلك أدواتها. بالنسبة لمعظم الناس، هو عدة مئات. ومع ظهور الذكاء الاصطناعي، أصبح الأمر أسوأ.

تقوم الشركات في جميع أنحاء العالم بتطبيق تقنية OpenAI في برامجها، وتتم معالجة كل ما تدخله بواسطة خوادم OpenAI المركزية. علاوة على ذلك، فقد غادر موظفو السلامة في OpenAI الشركة.

وعندما تقوم بتنزيل تطبيق مثل Facebook، يمكن جمع ما يقرب من 80% من بياناتك. يمكن أن يشمل ذلك أشياء مثل عاداتك وهواياتك وسلوكك وتوجهك الجنسي وبياناتك البيومترية وغير ذلك الكثير.

لماذا تقوم الشركات بجمع كل هذه المعلومات؟

ببساطة، يمكن أن تكون مربحة للغاية. على سبيل المثال، لنفترض شركة تجارة إلكترونية تريد المزيد من المبيعات. إذا لم يكن لديهم بيانات تفصيلية عن عملائهم، فسيحتاجون إلى الاعتماد على حملات تسويقية واسعة النطاق وغير مستهدفة.

ولكن لنفترض أن لديهم ملفات تعريف غنية بالبيانات حول التركيبة السكانية للعملاء واهتماماتهم ومشترياتهم السابقة وسلوكهم عبر الإنترنت. وفي هذه الحالة، يمكنهم استخدام الذكاء الاصطناعي لتقديم إعلانات شديدة الاستهداف وتوصيات المنتجات التي تؤدي إلى زيادة المبيعات بشكل ملحوظ.

بينما يشق الذكاء الاصطناعي طريقه إلى كل جانب من جوانب حياتنا، بدءًا من الإعلانات ووسائل التواصل الاجتماعي وحتى الخدمات المصرفية والرعاية الصحية، فإن خطر الكشف عن المعلومات الحساسة أو إساءة استخدامها يتزايد. لهذا السبب نحتاج إلى الذكاء الاصطناعي السري.

معضلة البيانات

خذ بعين الاعتبار الكم الهائل من البيانات الشخصية التي نعهد بها إلى عمالقة التكنولوجيا مثل Google وOpenAI كل يوم. يتم تسجيل كل استعلام بحث، وكل بريد إلكتروني، وكل تفاعل مع مساعدي الذكاء الاصطناعي، وتحليله. نموذج أعمالهم بسيط: يتم إدخال بياناتك في خوارزميات متطورة لاستهداف الإعلانات والتوصية بالمحتوى والحفاظ على تفاعلك مع منصاتهم.

ولكن ماذا يحدث عندما تأخذ هذا إلى أقصى الحدود؟ يتفاعل الكثير منا مع الذكاء الاصطناعي بشكل وثيق لدرجة أنه يعرف أعمق أفكارنا ومخاوفنا ورغباتنا. لقد أعطيته كل شيء عن نفسك، والآن يمكنه محاكاة سلوكك بدقة مذهلة. يمكن لعمالقة التكنولوجيا استخدام هذا للتلاعب بك لشراء المنتجات، أو التصويت بطريقة معينة، أو حتى التصرف ضد مصالحك الخاصة.

هذا هو خطر الذكاء الاصطناعي المركزي. عندما تتحكم مجموعة قليلة من الشركات في البيانات والخوارزميات، فإنها تمارس سلطة هائلة على حياتنا. يمكنهم تشكيل واقعنا دون أن ندرك ذلك.

مستقبل أفضل للبيانات والذكاء الاصطناعي

تكمن الإجابة على هذه المخاوف المتعلقة بالخصوصية في إعادة التفكير في الطبقة الأساسية لكيفية تخزين البيانات وحسابها. من خلال بناء أنظمة ذات ميزات الأمان والخصوصية المتأصلة من الألف إلى الياء، يمكننا إنشاء مستقبل أفضل للبيانات والذكاء الاصطناعي الذي يحترم الحقوق الفردية ويحمي المعلومات الحساسة. أحد هذه الحلول هو الذكاء الاصطناعي الخاص اللامركزي وغير المسجل والمدعوم بأجهزة افتراضية سرية (VMs). تلعب الأجهزة الافتراضية السرية دورًا حاسمًا في ضمان خصوصية البيانات أثناء معالجة الذكاء الاصطناعي. تم تصميم هذه الأجهزة الافتراضية لمعالجة البيانات الحساسة وتخزينها بشكل آمن، باستخدام بيئات التنفيذ الموثوقة القائمة على الأجهزة لمنع الوصول غير المصرح به وانتهاكات البيانات.

تساعد ميزات مثل العزل الآمن للأجهزة، والتشفير أثناء النقل وأثناء الراحة، وعمليات التمهيد الآمنة، وبيئات التنفيذ الموثوقة (TEEs) في الحفاظ على سرية البيانات وسلامتها. ومن خلال الاستفادة من هذه التقنيات، يمكن للشركات ضمان بقاء بيانات المستخدمين محمية عبر مسار معالجة الذكاء الاصطناعي دون المساس بالخصوصية.

قد يعجبك ايضا: الحلقة المفقودة في الإنترنت اللامركزي هي السرية | رأي

مع هذا النهج، يمكنك الاحتفاظ بالسيطرة الكاملة على بياناتك. يمكنك اختيار ما تريد مشاركته ومع من. يعد تحقيق الذكاء الاصطناعي الخاص والآمن حقًا تحديًا معقدًا يتطلب حلولًا مبتكرة. وفي حين أن الأنظمة اللامركزية تبشر بالخير، إلا أن عددًا قليلاً فقط من المشاريع تعمل بنشاط على معالجة هذه المشكلة. يمكن لـ LibertAI، وهو مشروع أساهم فيه، إلى جانب مبادرات مثل Morpheus، استكشاف تقنيات التشفير المتقدمة والبنى اللامركزية لضمان بقاء البيانات مشفرة وتحت سيطرة المستخدم عبر خط أنابيب معالجة الذكاء الاصطناعي. تمثل هذه الجهود خطوات مهمة نحو تحقيق إمكانات الذكاء الاصطناعي السري.

إن التطبيقات المحتملة للذكاء الاصطناعي السري واسعة النطاق. وفي مجال الرعاية الصحية، يمكن أن يتيح إجراء دراسات واسعة النطاق حول البيانات الطبية الحساسة دون المساس بخصوصية المريض. يمكن للباحثين استخراج الأفكار من ملايين السجلات مع ضمان بقاء البيانات الفردية آمنة.

في مجال التمويل، يمكن أن يساعد الذكاء الاصطناعي السري في اكتشاف الاحتيال وغسل الأموال دون الكشف عن المعلومات المالية الشخصية. يمكن للبنوك مشاركة البيانات والتعاون في نماذج الذكاء الاصطناعي دون خوف من التسريبات أو الانتهاكات. وهذه مجرد البداية. من التعليم المخصص إلى الإعلانات المستهدفة، يمكن للذكاء الاصطناعي السري أن يفتح عالمًا من الإمكانيات مع وضع الخصوصية في المقام الأول. في عالم web3، يمكن للوكلاء المستقلين الاحتفاظ بمفاتيح خاصة واتخاذ الإجراءات على blockchain مباشرة.

التحديات

وبطبيعة الحال، لن يكون تحقيق الإمكانات الكاملة للذكاء الاصطناعي السري بالأمر السهل. هناك تحديات تقنية يجب التغلب عليها، مثل ضمان سلامة البيانات المشفرة ومنع التسرب أثناء المعالجة.

هناك أيضًا عقبات تنظيمية للتنقل. لا تزال القوانين المتعلقة بخصوصية البيانات والذكاء الاصطناعي في طور التطور، وسيتعين على الشركات أن تتعامل بحذر حتى تظل متوافقة. اللائحة العامة لحماية البيانات (GDPR) في أوروبا وقانون HIPAA في الولايات المتحدة هما مجرد مثالين على المشهد القانوني المعقد.

ومع ذلك، ربما يكون التحدي الأكبر هو الثقة. لكي ينطلق الذكاء الاصطناعي السري، يحتاج الناس إلى الاعتقاد بأن بياناتهم ستكون آمنة حقًا. ولن يتطلب هذا حلولاً تكنولوجية فحسب، بل يتطلب أيضًا الشفافية والتواصل الواضح من الشركات التي تقف وراءها.

الطريق أمامنا

على الرغم من التحديات، فإن مستقبل الذكاء الاصطناعي السري يبدو مشرقًا. مع إدراك المزيد والمزيد من الصناعات لأهمية خصوصية البيانات، سينمو الطلب على حلول الذكاء الاصطناعي الآمنة.

ستتمتع الشركات التي يمكنها الوفاء بوعد الذكاء الاصطناعي السري بميزة تنافسية كبيرة. سيكونون قادرين على الاستفادة من مجموعات هائلة من البيانات التي كانت محظورة في السابق بسبب مخاوف الخصوصية. وسيكونون قادرين على القيام بذلك بثقة مستخدميهم.

ولكن هذا لا يتعلق فقط بالفرص التجارية. يتعلق الأمر ببناء نظام بيئي للذكاء الاصطناعي يضع الأشخاص في المقام الأول. دولة تحترم الخصوصية كحق أساسي، وليس كفكرة لاحقة.

بينما نتجه نحو مستقبل يعتمد على الذكاء الاصطناعي بشكل متزايد، يمكن أن يكون الذكاء الاصطناعي السري هو المفتاح لإطلاق إمكاناته الكاملة مع الحفاظ على بياناتنا آمنة. إنه فوز مربح للجانبين لا يمكننا أن نتجاهله.

اقرأ أكثر: يمكن لـ Blockchain أن يحررنا من كوابيس المراقبة عبر الإنترنت | رأي

جوناثان شيمول

جوناثان شيمول هو رجل أعمال في مجال التكنولوجيا، والرئيس التنفيذي لشركة Twentysix Cloud، aleph.im، وعضو مؤسس في LibertAI. وهو أحد كبار مطوري blockchain والذكاء الاصطناعي المتخصص في الحوسبة السحابية اللامركزية وإنترنت الأشياء والأنظمة المالية والتقنيات اللامركزية القابلة للتطوير للويب 3 والألعاب والذكاء الاصطناعي. جوناثان هو أيضًا مستشار للمؤسسات المالية الفرنسية الكبرى والشركات مثل Ubisoft، حيث يقوم بالإشراف على الابتكارات الإقليمية وتعزيزها.

شاركها.