تقدم التعليم الآلي الذي يحافظ على الخصوصية في البحث الطبي

فريق بحث من جامعة كاوست قد قام بتقدم كبير في التصدي لتحدي دمج الذكاء الاصطناعي مع البيانات الجينية مع ضمان خصوصية الأفراد. من خلال استغلال مجموعة من خوارزميات الحفاظ على الخصوصية، قد طوّر الفريق نهجًا للتعلم الآلي يحسن أداء النموذج دون المساس بالخصوصية.

الطريقة التقليدية لتشفير البيانات لحماية الخصوصية تواجه تحديات حسابية، حيث تحتاج البيانات إلى فك تشفيرها للتدريب. تفشل هذه الطريقة أيضًا في القضاء على بقاء المعلومات الخاصة في النموذج المدرب. بالمقابل، فإن تقسيم البيانات إلى حزم أصغر للتدريب باستخدام التدريب المحلي أو التعلم الاتحادي يعرض خطر تسرب المعلومات الشخصية.

للتغلب على هذه القيود، قام الفريق البحثي بتضمين خوارزمية تبديل لامركزية في نهجهم للتعلم الآلي الحافظ على الخصوصية. من خلال إضافة جهاز فرز داخل إطار الخصوصية التفاضلية، حققوا أداء نموذج أفضل مع الحفاظ على نفس مستوى حماية الخصوصية. أزال هذا النهج اللامركزي المشاكل المتعلقة بثقة الطرف الثالث المركزي لجهاز الفرز ووجد توازنًا بين الحفاظ على الخصوصية وقدرة النموذج.

أظهر نهج الفريق، المعروف باسم PPML-Omics، فعاليته في تدريب نماذج عميقة التعلم تمثيلية لمهام تعددية الأوميكس التحديّة. لم يتفوق PPML-Omics فحسب على الأساليب الأخرى من حيث الكفاءة، بل أثبت أيضًا صلابته ضد هجمات القرصنة الحديثة.

يسلط هذا البحث الضوء على أهمية حماية الخصوصية المتزايدة في مجال التعلم العميق، خاصة عند تطبيقها على تحليل البيانات البيولوجية والطبية. قدرة نماذج التعلم العميق على الاحتفاظ بالمعلومات الشخصية من بيانات التدريب تشكل مخاطر خصوصية كبيرة. لذا، فإن الجمع بين خوارزميات الحفاظ على الخصوصية مع تقنيات التعلم الآلي ضروري لتقدم البحوث الطبية مع الحفاظ على خصوصية الأفراد.

من خلال تحقيق توازن بين الخصوصية وأداء النموذج، يفتح نهج PPML-Omics إمكانيات جديدة لتسريع اكتشاف البيانات الجينية. يمكّن الباحثين من استغلال قوة الذكاء الاصطناعي في البحوث الطبية دون المساس بخصوصية الأفراد.

The source of the article is from the blog motopaddock.nl

Privacy policy
Contact