dioodbanner

هوش مصنوعی نیز راه درازی در پیش دارد – زوم

[ad_1]

ظهور ویروس کرونا راه را برای تلاش‌های بی‌شماری هموار کرده است، از قهرمانی‌های فردی گرفته تا حوادث علمی حیرت‌انگیز. شرکت های داروسازی از فناوری جدید برای تولید واکسن های موثرتر از همیشه استفاده می کنند. کارآزمایی‌های بالینی جدید تصور جهانیان از احتمالات و غیرممکن‌های مبارزه با کووید 19 را تغییر داده است. اکنون موسسه آلن تورینگ بریتانیا گزارشی در مورد تأثیرات هوش مصنوعی بر این بحران منتشر کرده است که بعید است.

بر اساس گزارش موسسه تورینگ که در سال گذشته منتشر شد، هوش مصنوعی تاثیر کمی بر جهانی شدن داشته است و کارشناسان در ارزیابی اطلاعات سلامت و استفاده از فناوری بدون انحراف با طیف گسترده ای از مسائل مواجه شده اند. این گزارش بر اساس مطالعات موردی بیش از 100 مطالعه است. بر اساس این مطالعات، تقریباً تمام ابزارهای هوش مصنوعی مورد استفاده برای تشخیص سندرم کووید دارای 19 نقص هستند. بلال متین، پزشک و محقق و سردبیر تورینگ ریپورت می گوید:

هدف ما برجسته کردن نقاط روشنی است که نتایج این فناوری را نشان می دهد. متاسفانه ما نتوانستیم این نقاط روشن را پیدا کنیم و در عوض با مشکلات زیادی مواجه شدیم.

قابل درک است که ابزارهای نسبتاً جدید در مراقبت های بهداشتی، مانند هوش مصنوعی، به تنهایی نمی توانند راه حلی ارائه دهند. علیرغم امیدهای بسیار قوی، بهبود سلامت تنها از طریق داده های الگوریتمی قابل اثبات است.

بسیاری از مطالعات از نمونه هایی از داده های پزشکی گذشته استفاده می کنند. بر اساس این گزارش‌ها، الگوریتم در انجام وظایف خاص مانند یافتن سرطان پوست یا پیش‌بینی نتایج بیمار دقت بیشتری دارد. برخی از مطالعات همچنین از محصولات اثبات شده ای استفاده می کنند که پزشکان برای نظارت بر علائم سکته مغزی یا بیماری چشم استفاده می کنند.

بسیاری از مفاهیم هوش مصنوعی برای مراقبت های بهداشتی فراتر از اصول اولیه نیستند. محققان همچنین هشدار می دهند که بسیاری از مطالعات از داده های کافی یا با کیفیت بالا برای آزمایش درست برنامه های هوش مصنوعی استفاده نمی کنند. در نتیجه، خطر آسیب ناشی از فناوری غیرقابل اعتماد افزایش می یابد. برخی از الگوریتم‌های سلامت برای برخی از گروه‌های آماری غیرقابل اعتماد یا تحریف شده‌اند.

فشرده سازی داده ها دستاورد جدیدی برای بهبود سلامت نیست. این روش برای اپیدمیولوژی در سال 1855 آغاز شد. در آن زمان دکتر جان اسنو از لندن یک نمونه خاص از وبا را بر روی نقشه ارائه کرد تا ثابت کند که این بیماری در آب است. اخیراً، پزشکان، محققان و کارشناسان فناوری به تکنیک های یادگیری ماشینی در پروژه های صنعتی مانند ویرایش تصویر یا تبدیل کلمه به کلمه علاقه مند شده اند.

با این حال، وضعیت شرکت های فناوری با داخل بیمارستان ها متفاوت است. شرکت هایی مانند فیس بوک می توانند به میلیاردها پیام کاربر برای بهبود سیستم های تشخیص تصویر دسترسی داشته باشند. اما دسترسی به اطلاعات بهداشتی به دلیل نگرانی در مورد حریم خصوصی و سیستم های IT معیوب دشوار است. علاوه بر این، توسعه الگوریتم هایی که می تواند وضعیت سلامت افراد پرخطر را در فیلتر کردن هرزنامه یا تبلیغات هدفمند تعیین کند. ویسار بریشا، استادیار دانشگاه ایالتی آیسونا می گوید:

ما نمی توانیم در حوزه توسعه پزشکی مدل ابزارهای موثر هوش مصنوعی در فضای کاربری وارد شویم.

هوش مصنوعی و آناتومی بدن انسان

بریشا اخیراً مقاله‌ای را با همکارانش از گروه پزشکی و مهندسی دانشگاه آریزونا نوشت که نشان می‌دهد بسیاری از مطالعات سلامت هوش مصنوعی الگوریتم‌ها را دقیق‌تر نشان می‌دهند. زیرا آنها از الگوریتم های قوی در مجموعه داده های کوچک استفاده می کنند.

این به این دلیل است که داده‌های سلامتی مانند پردازش تصویر پزشکی، سیگنال‌های حیاتی و داده‌های دستگاه پوشیدنی متناسب با سایر عوامل مانند سبک زندگی یا نویز پس‌زمینه تغییر می‌کنند. فرآیند یادگیری ماشینی که در دنیای فناوری بسیار محبوب شده است، موفق به یافتن الگوها می شود. تا بتوانند میانبر پاسخ صحیح را پیدا کنند. مجموعه داده های کوچک تقلب الگوریتم را آسان تر می کند و نقاط کوری ایجاد می کند که منجر به نتایج بالینی ضعیف می شود. بریشا می افزاید:

این جامعه را فریب می دهد تا این باور را ایجاد کند که ما در حال توسعه مدلی برای عملکرد بهتر هستیم.

به گفته بریشا، این موضوع می تواند منجر به برخی الگوهای نگران کننده در تحقیقات هوش مصنوعی شود. پس از بررسی تحقیقات با استفاده از الگوریتم‌هایی برای تشخیص علائم آلزایمر یا اختلالات شناختی، بریشا و همکاران دریافتند که مطالعات در مقیاس بزرگ نسبت به مطالعات در مقیاس کوچک دقت کمتری دارند. بررسی تحقیقاتی که برای شناسایی اختلالات مغزی بر اساس اسکن های پزشکی یا تحقیقاتی که به دنبال تشخیص اوتیسم با یادگیری ماشین هستند، الگوی مشابهی را نشان داده است.

برخی از الگوریتم ها در تحقیقات اولیه به خوبی عمل کردند. اما آنها با داده های واقعی بیمار متفاوت عمل می کنند و این خطر را نمی توان نادیده گرفت. طبق یک مطالعه در سال 2019، یک سیستم میلیون‌ها بیمار را برای اولویت‌بندی دسترسی به درمان به کار می‌گیرد و بیماران سفیدپوست را در اولویت بالاتری نسبت به بیماران سیاه پوست قرار می‌دهد.

ما به مجموعه داده های متعادل و آزمایش دقیق نیاز داریم تا از سیستم های انحرافی جلوگیری کنیم. با این حال، در دسترس بودن داده های انحرافی در تحقیقات سلامت هوش مصنوعی به دلیل نابرابری های مداوم رایج است. طبق یک مطالعه در سال 2020، محققان دانشگاه استنفورد 71 درصد از داده های مورد استفاده در تحقیقات یادگیری عمیق را از کالیفرنیا، ماساچوست یا نیویورک دریافت کردند. 47 ایالت دیگر آمار کم یا بدون آمار دارند. کشورهای کم درآمد به ندرت در آموزش هوش مصنوعی شرکت می کنند. طبق مطالعه‌ای که سال گذشته منتشر شد، از 150 مطالعه در مورد استفاده از یادگیری ماشینی برای پیش‌بینی تشخیص یا طول مدت بیماری، اکثر مطالعات روش‌های بی کیفیت و پرخطر برای انحراف داشتند.

مقالات مرتبط:

دو محقق سازمان غیرانتفاعی Nightingale Open Sicence را برای کار بر روی بهبود کیفیت و وسعت مجموعه داده‌های موجود در دسترس محققان تأسیس کردند. این شرکت با سیستم مراقبت های بهداشتی برای جمع آوری تصاویر پزشکی و داده های مربوط به سوابق بیماران برای تجزیه و تحلیل داده ها و سپس تبدیل داده ها به تحقیقات غیرانتفاعی همکاری می کند.

زیاد اوبرمیر، یکی از بنیانگذاران نایتینگل و استادیار دانشگاه کالیفرنیا، برکلی، امیدوار است با فراهم کردن دسترسی به اطلاعات و منجر به نتایج بهتر، تعامل را افزایش دهد، فقط تصویر بزرگ، مجموعه باز می تواند به پیشرفت یادگیری ماشین کمک کند. او می گوید:

قلب مشکل این است که محقق می تواند با اطلاعات بهداشتی هر کاری که می خواهد انجام دهد. زیرا هیچ کس نمی تواند نتایج را بررسی کند.

نایتینگل روی پروژه های دیگری برای بهبود سلامت هوش مصنوعی و افزایش دسترسی و کیفیت داده ها کار می کند. صندوق لاکونا از ایجاد مجموعه یادگیری ماشینی در کشورهای با درآمد متوسط ​​و کم حمایت می کند و در حال کار بر روی یک سیستم مراقبت بهداشتی است. پروژه جدیدی در بیمارستان دانشگاهی بیرمنگام در بریتانیا، با حمایت سرویس بهداشت عمومی (NHS) و MIT، به دنبال توسعه استانداردهایی برای ارزیابی سیستم های هوش مصنوعی بر اساس داده های نادرست است.

متین، سردبیر گزارش بریتانیایی در مورد الگوریتم‌های الگوریتم‌های جهانی‌سازی، از حامیان چنین پروژه‌های هوش مصنوعی است. اما او معتقد است چشم انداز سلامت هوش مصنوعی به سطح بالایی از مراقبت های بهداشتی بستگی دارد. او می گوید:

باید روی ریشه مشکل سرمایه گذاری کرد و منتظر نتیجه بود.

[ad_2]

Claudia Larsen

پیشگام وب. خالق حرفه ای درونگرا. پزشک آبجو. شیطان متعصب تلویزیون.

تماس با ما