проверени факти доверлив извор
лекторирани
од Брендан М. Линч, Универзитетот во Канзас
Новото истражување на Институтот за животен век на Универзитетот во Канзас ја нагласува клучната ранливост на дезинформациите генерирани од вештачката интелигенција и потенцијалниот модел за борба против неа.
Студијата, објавена во Журналот за педијатриска психологија, открива дека родителите кои бараат информации за здравствена заштита за своите деца повеќе и веруваат на вештачката интелигенција отколку на здравствените работници кога авторот е непознат, а родителите исто така го оценуваат текстот генериран со вештачка интелигенција како веродостоен, морален и доверлив.
„Кога го започнавме ова истражување, тоа беше веднаш по првото лансирање на ChatGPT – имавме загриженост за тоа како родителите ќе го користат овој нов, лесен метод за собирање здравствени информации за нивните деца“, рече водечкиот автор Калиса Лесли-Милер, докторант на KU по клинички. детска психологија. „Родителите честопати се обраќаат на Интернет за совет, па сакавме да разбереме како би изгледало користењето на ChatGPT и за што треба да бидеме загрижени.
Лесли-Милер и нејзините колеги спроведоа пресек студија со 116 родители, на возраст од 18 до 65 години, на кои им беше даден текст поврзан со здравјето, како што се информации за обука за спиење и исхрана на доенчињата. Тие ја прегледаа содржината генерирана од ChatGPT и од здравствените работници, иако учесниците не беа информирани за авторството.
„Учесниците ги оценија текстовите врз основа на перципираниот морал, доверливост, стручност, точност и колку е веројатно да се потпрат на информациите“, рече Лесли-Милер.
Според истражувачот на KU, во многу случаи родителите не можеле да направат разлика помеѓу содржината генерирана од ChatGPT и онаа од експерти. Кога имаше значителни разлики во оценките, ChatGPT беше оценет како подоверлив, точен и сигурен од содржината генерирана од експерти.
„Овој исход беше изненадувачки за нас, особено затоа што студијата се одржа на почетокот на достапноста на ChatGPT“, рече Лесли-Милер. „Почнуваме да гледаме дека вештачката интелигенција се интегрира на начини кои можеби не се веднаш очигледни, а луѓето можеби дури и не препознаваат кога читаат текст генериран од вештачка интелигенција наспроти содржина од експерт.
Лесли-Милер рече дека наодите предизвикуваат загриженост, бидејќи генеративната вештачка интелигенција сега ги напојува одговорите кои се чини дека доаѓаат од апликации или интернет, но всушност се разговори со вештачка интелигенција.
„За време на студијата, некои рани повторувања на излезот на вештачката интелигенција содржеа неточни информации“, рече таа. „Ова е загрижувачко затоа што, како што знаеме, алатките за вештачка интелигенција како ChatGPT се склони кон „халуцинации“ – грешки што се случуваат кога системот нема доволен контекст“.
Иако ChatGPT функционира добро во многу случаи, Лесли-Милер рече дека моделот со вештачка интелигенција не е експерт и е способен да генерира погрешни информации.
„Во детското здравје, каде што последиците можат да бидат значителни, од клучно значење е да го решиме ова прашање“, рече таа. „Загрижени сме дека луѓето може се повеќе да се потпираат на вештачката интелигенција за здравствени совети без соодветен стручен надзор.
Коавторите на Лесли-Милер беа Стејси Сајмон од Детската болница Колорадо и Медицинскиот факултет на Универзитетот во Колорадо во Аурора, Колорадо; Келси Дин од Центарот за здрав начин на живот и исхрана во болницата Детска милост во Канзас Сити, Мисури; Д-р Надин Мохалати од Altasciences Clinical Канзас во Оверленд Парк; и Кристофер Кушинг, вонреден професор по клиничка детска психологија на КУ и вонреден научник во Институтот за животен век.
„Резултатите укажуваат дека навремениот инженерски ChatGPT е способен да влијае на намерите во однесувањето за лекови, спиење и донесување одлуки за исхрана“, известуваат авторите.
Лесли-Милер рече дека важноста на животот и смртта на информациите за здравјето на децата помагаат да се засили проблемот, но дека можноста дека генеративната вештачка интелигенција може да биде погрешна и дека корисниците можеби немаат експертиза да идентификуваат неточности се протега на сите теми.
Таа сугерираше дека потрошувачите на информации за вештачка интелигенција треба да бидат претпазливи и да се потпираат само на информации што се во согласност со експертизата што доаѓа од негенеративен извор на вештачка интелигенција.
„Сè уште има разлики во доверливоста на изворите“, рече таа. „Побарајте вештачка интелигенција која е интегрирана во систем со слој на експертиза што е двојно проверен – исто како што отсекогаш сме научени да бидеме внимателни при користењето на Википедија бидејќи не е секогаш потврдена. Истото важи и сега со вештачката интелигенција – побарајте платформи што имаат поголема веројатност да бидат доверливи, бидејќи не се сите еднакви“.
Навистина, Лесли-Милер рече дека вештачката интелигенција може да биде придобивка за родителите кои бараат здравствени информации сè додека ја разберат потребата да се консултираат и со здравствените работници.
„Верувам дека вештачката интелигенција има многу потенцијал да биде искористена. Поточно, можно е да се генерираат информации со многу поголем обем од порано“, рече таа. „Но, важно е да се признае дека вештачката интелигенција не е експерт и информациите што ги дава не доаѓаат од експертски извор“.
Повеќе информации:
Калиса Ј Лесли-Милер и други, Критична потреба за стручен надзор на ChatGPT: Брзо инженерство за заштита на информациите за здравствената заштита на децата, Журнал за педијатриска психологија (2024). DOI: 10.1093/jpepsy/jsae075.