Badanie wykazało, że lekarze polegający na AI byli o 20% gorsi w wykrywaniu zagrożeń zdrowotnych.
Narzędzia wspomagane przez AI stały się codziennym zasobem, który pomaga zwiększać produktywność i tempo pracy w wielu branżach. Pomimo zauważalnych korzyści płynących z tych inteligentnych systemów, eksperci medyczni obawiają się, że nadmierne poleganie na sztucznej inteligencji może przynosić więcej szkody niż pożytku.

W skrócie
- Badanie pokazuje, że lekarze polegający na AI podczas kolonoskopii mogą wykrywać mniej nieprawidłowości, gdy pracują bez tego narzędzia.
- Badania wykazują, że AI zwiększa efektywność, ale może osłabiać umiejętności oceny poprzez zniechęcanie do głębokiego i krytycznego myślenia.
- Katastrofa lotu Air France 447 podkreśla zagrożenia związane z nadmiernym poleganiem na automatyzacji w środowiskach o wysokim ryzyku.
- Eksperci podkreślają korzyści płynące z AI, ale ostrzegają branże, by utrzymywały ludzką ekspertyzę na wypadek awarii automatyzacji.
Poleganie na AI może obniżać wskaźniki wykrywalności lekarzy podczas kolonoskopii
Niedawne badanie przeprowadzone na 1 443 pacjentach wykazało, że endoskopiści korzystający z agentów AI podczas kolonoskopii osiągali niższy wskaźnik sukcesu w wykrywaniu nieprawidłowości, gdy nie korzystali z tych narzędzi.
Wyniki badań, opublikowane w tym miesiącu w czasopiśmie Lancet Gastroenterology & Hepatology, pokazują, że ci lekarze osiągnęli 28,4% skuteczności w wykrywaniu potencjalnych polipów przy użyciu technologii. Bez tych narzędzi wskaźnik ten spadł do 22,4%, co oznacza spadek wykrywalności o 20%.
Dr Marcin Romańczyk, gastroenterolog z H-T. Medical Center w Tychach oraz autor badania, wyraził zaskoczenie wynikami. Wskazał na nadmierne poleganie na sztucznej inteligencji jako jeden z kluczowych czynników przyczyniających się do spadku wskaźników wykrywalności.
Uczyliśmy się medycyny z książek i od naszych mentorów. Obserwowaliśmy ich. Mówili nam, co robić. A teraz pojawia się jakiś sztuczny obiekt sugerujący, co powinniśmy zrobić, gdzie powinniśmy patrzeć, i właściwie nie wiemy, jak się zachować w danej sytuacji.
Dr Marcin Romańczyk
Wynik ten nie tylko ukazuje potencjalne negatywne skutki nadmiernego polegania na sztucznej inteligencji, ale także dotyka ewolucji praktyki medycznej od tradycji analogowej do ery cyfrowej.
Obawy dotyczące sztucznej inteligencji w miejscu pracy: wzrost produktywności kosztem zdolności poznawczych
Poza coraz szerszym zastosowaniem na salach operacyjnych i w biurach, automatyzacja AI stała się stałym elementem miejsc pracy, a wiele osób korzysta z tych narzędzi, by zwiększyć produktywność. Goldman Sachs przewidywał nawet w 2023 roku, że AI może zwiększyć produktywność w miejscu pracy nawet o 25%.
Jednak wdrażanie tych systemów AI wiąże się również z ryzykiem pojawienia się negatywnych skutków. W rzeczywistości badania wiodących firm podkreśliły zagrożenia związane z nadmiernym zaufaniem do tych narzędzi.
Publikacja Microsoft i Carnegie Mellon University zauważyła, że AI pomogła zwiększyć efektywność pracy wśród grupy ankietowanych pracowników wiedzy. Jednak osłabiła ich umiejętności oceny i zdolności analityczne.
Nadmierne poleganie na sztucznej inteligencji w lotnictwie: lekcje z katastrofy Air France Flight 447
Nawet w sektorze lotniczym, gdzie bezpieczeństwo jest najważniejsze, wcześniejsze dowody sugerują, że nadmierne poleganie na automatyzacji może zagrażać bezpieczeństwu. W 2009 roku samolot Air France Flight 447 lecący z Rio de Janeiro do Paryża rozbił się nad Atlantykiem, w wyniku czego zginęło ponad 228 osób.
Późniejsze dochodzenia wykazały, że system automatyzacji samolotu uległ awarii. Spowodowało to, że zautomatyzowany „flight director” przekazywał nieprawidłowe informacje. Ponieważ personel lotniczy nie był odpowiednio przeszkolony w zakresie ręcznego pilotażu, polegał na zautomatyzowanych funkcjach samolotu zamiast dokonać niezbędnych korekt.
Równoważenie wdrażania AI z ludzką ekspertyzą w branżach o wysokim ryzyku
Lynn Wu, profesor nadzwyczajny operacji, informacji i decyzji w Wharton School na University of Pennsylvania, zauważyła, że te incydenty są sygnałem ostrzegawczym dla wdrażania AI w sektorach, gdzie bezpieczeństwo ludzi jest kluczowe. Wu wyjaśniła, że podczas wdrażania tych technologii branże powinny zapewnić, że pracownicy odpowiednio korzystają z tych narzędzi.
Ważne jest, abyśmy wyciągnęli wnioski z historii lotnictwa i poprzedniej generacji automatyzacji, że AI zdecydowanie może zwiększyć wydajność. Ale jednocześnie musimy utrzymywać te kluczowe umiejętności, tak aby gdy AI nie działa, wiedzieliśmy, jak przejąć kontrolę.
Lynn Wu
Dodała, że jeśli ludzie utracą własne umiejętności, sztuczna inteligencja również będzie działać gorzej. Aby AI się rozwijała, ludzie muszą także nieustannie doskonalić siebie.
Romańczyk również akceptuje wykorzystanie AI w medycynie, zauważając, że „AI będzie, lub już jest, częścią naszego życia, czy nam się to podoba, czy nie.” Podkreślił jednak potrzebę zrozumienia, jak sztuczna inteligencja wpływa na ludzkie myślenie i wezwał profesjonalistów do określenia najskuteczniejszych sposobów jej wykorzystania.
Zastrzeżenie: Treść tego artykułu odzwierciedla wyłącznie opinię autora i nie reprezentuje platformy w żadnym charakterze. Niniejszy artykuł nie ma służyć jako punkt odniesienia przy podejmowaniu decyzji inwestycyjnych.
Może Ci się również spodobać
Cena XRP celuje w 4 dolary, „bardzo zdrowy” wykres sprawia, że analityk jest nastawiony byczo

Czego można się spodziewać po cenie HBAR w październiku 2025 roku
HBAR od Hedera wchodzi w październik 2025 roku pod presją po słabym wrześniu. Historyczna zmienność w październiku oraz niedźwiedzie nastroje sugerują ostrożność w najbliższym czasie, a ryzyko spadków przeważa nad szansami na szybkie odbicie.

Bitcoin do 60 000 USD czy 140 000 USD? Traderzy nie zgadzają się co do dalszego kierunku ceny BTC
Zespół Firedancer firmy Jump proponuje zniesienie limitu bloków Solana po aktualizacji Alpenglow
Zespół Firedancer z Jump Crypto zaproponował usunięcie limitów obliczeniowych w sieci Solana, co pozwoliłoby blokom skalować się wraz z wydajnością walidatorów. Zmiana ta, która miałaby wejść w życie po nadchodzącej aktualizacji Alpenglow, miałaby na celu zachęcenie walidatorów do ulepszania swojego sprzętu. Walidatorzy korzystający ze słabszego sprzętu automatycznie pomijaliby zbyt duże bloki.

Popularne
WięcejCeny krypto
Więcej








