środa, 20 lutego 2019

O autorze i tym blogu słów kilka...


Na co dzień zajmuje się etnofarmakologią, fitofarmakologią i ziołolecznictwem. Interesują mnie substancje z roślin i grzybów oraz ich zakres działania na organizmy żywe, w szczególności na człowieka. Zgłębiam też historyczny i kulturowy kontekst użytkowania roślin w różnych społecznościach. Piszę artykuły specjalistyczne na zlecenie, a także prowadzę własne badania w zakresie fitofarmakologii i psychofarmakologii doświadczalnej. Moje główne zainteresowania naukowe oscylują wokół substancji pochodzenia naturalnego w leczeniu schorzeń funkcji kognitywnych (m.in. Alzheimer, depresja, psychozy), chorób serca i układu krążenia, a także wykorzystywania pospolitych roślin flory polskiej i amazońskich lasów deszczowych w medycynie. Jednocześnie odkąd pamiętam moją pasją jest zagadnienie świadomości i jej manifestowania w żywych systemach. Świadomość jest jedną z największych zagadek ludzkości. Dlatego interesuje się wszystkimi modelami, które w sposób spójny i zgodny z nauką próbują wytłumaczyć jej działanie. Fascynuje mnie inteligencja roślin i jej przetwarzanie w biosferze, dlatego śledzę badania w tej dziedzinie, a także prowadzę własne eksperymentalne obserwacje. Ostatecznie wszystko sprowadza się do osobliwości, czyli czegoś co przekracza nasze rozumienie praw fizycznych i biologicznych. Wiemy, że osobliwość jest tworem typowo kosmologicznym (czarne dziury, supermasywne czarne dziury w centrach galaktycznych), ale moim zdaniem w kontekście świadomości możemy również hipotetyzować o osobliwości biologicznej. Kwestie te sprowadzają się również do największego misterium: tego jak powstał Wszechświat, czym on w ogóle jest i w jakim celu powstało w nim życie. Są to bardzo złożone kwestie i mam świadomość mojej ułomności w próbie objęcia ich rozumem. Jednak nie wyobrażam sobie życia bez zagłębiania się w to, ponieważ zawsze prowokuje to nieszablonowe myśli i pobudza wyobraźnię, a także inteligencję. Dlatego interesują mnie zagadnienia związane z geometrią czasu i przestrzeni, cykliczną kosmologią, kwantowymi fluktuacjami osobliwości kosmicznych i biologicznych, teorią symulacji i multiwersów.


Ważną częścią mojego życia jest również technologia, wykorzystywanie jej w celu usprawnienia mojej pracy nad roślinami, a także świadomością. Jestem członkiem zespołu badawczego Laboratorium Investment Analitycs, gdzie pracuję jako analityk nad różnymi projektami dotyczącymi zastosowania sztucznej inteligencji w medycynie i technologii użytkowej. Uważam, że AI zrewolucjonizuje wiele gałęzi nauki i poszerzy niewyobrażalnie nasze zdolności czysto analityczne, matematyczne i diagnostyczne (już to robi). Dlatego też powstał ten blog. Chciałbym pisać na nim o postępach w pracach badawczych nad zastosowaniem sztucznej inteligencji w medycynie. Będę również pisał o projektach badawczych wykorzystujących sztuczne sieci neuronowe, nad którymi osobiście pracuję. Ten blog będzie miał naturę popularnonaukową, ale nie wykluczam, że będą pojawiać się tutaj również teksty stricte techniczne. Nie będę też prawdopodobnie jedynym piszącym na tym blogu, choć pewnie w większości będą tutaj artykuły mojego autorstwa. Będę jednak zachęcał do publikacji na blogu matematyków, fizyków, analityków i bioinformatyków, z którymi pracuje lub których znam. Oprócz tekstów dotyczących zagadnienia sztucznej inteligencji, będę również publikował tutaj materiały z zakresu statystyki medycznej, analityki bioinformatycznej, osobliwości i zagadnień kosmologicznych. Jest bardzo dużo podobieństw między tym jak działa technologia (komputery, algorytmy) i naturalne procesy biologiczne. Unifikacja tych dwóch obszarów pozwoli nam lepiej zrozumieć naturę rzeczywistości i robić większe postępy w wielu dziedzinach nauki. Dlatego zainteresowałem się sztuczną inteligencją. Uważam, że pomoże mi to odnaleźć więcej wzorców i biologicznych algorytmów, które stabilizują i umożliwiają istnienie i doświadczanie rzeczywistości. 

wtorek, 27 listopada 2018

Sztuczna inteligencja może być przyszłością diagnostyki medycznej

Jedną z najprężniej rozwijających się branż współczesnego świata są systemy informatyczne oparte o sztuczną inteligencję. Być może jest to, już w tej chwili, najbardziej obiecująca branża technologiczna na świecie. Najwięksi gracze na rynku (Google, Microsoft, Facebook, Amazon) inwestują ogromne zasoby w rozwój sztucznej inteligencji (AI) oraz wbudowywanie tej technologii do wszystkich swoich usług. Dzięki unikalnym algorytmom takim jak: machine learning, deep learning, a także infrastrukturze zbudowanej na bazie sztucznych sieci neuronowych, sztuczna inteligencja jest w stanie analizować, porównywać, rozpoznawać dane, uczyć się i samodzielnie udoskonalać na niespotykaną dotąd skalę. Już w tym momencie AI od Google o nazwie AlphaGo pokonuje największych mistrzów w skomplikowanej, starożytnej grze planszowej Go, grając nawet z kilkoma z nich jednocześnie. Do tego systemy oparte na sztucznej inteligencji zdobywają coraz większe sukcesy w obszarze medycyny. Mogą one bowiem analizować dane, a także wychwytywać i porównywać szczegóły, których ludzkie oko i umysł w standardowej fazie czuwania, nie są w stanie objąć. Maszyny się nie nudzą, nie są zmęczone, emocje i aktualny stan psychofizyczny nie mają wpływu na wykonywaną przez nie pracę. Jest to istotna przewaga nad człowiekiem, zwłaszcza na polu diagnostyki medycznej. Już teraz systemy diagnostyczne na bazie sztucznej inteligencji potrafią osiągać lepsze wyniki niż człowiek, czasem na tyle spektakularnie, że obecnie nikt nie boi się powiedzieć, że diagnostyka medyczna, dzięki rozwojowi tych technologii, zmieni się na zawsze. Przede wszystkim znacząco usprawni ten obszar medycyny i poprawi wykrywalność wielu schorzeń. 

Czym jest sztuczna inteligencja?

W dużym skrócie są to systemy informatyczne inspirowane procesowaniem informacji i wzorców komunikacji używanych przez biologiczne układy nerwowe. Systemy działają na bazie algorytmów porządkujących i kategoryzujących, które wytyczają pewne ramy funkcjonalne dla danego systemu sztucznej inteligencji. Oznacza to, że taki system w oparciu o algorytmy, samodzielnie analizuje i różnicuje nowe dane, rozpoznaje w nich wzorce i porównuje z posiadaną bazą wzorów i danych. Dzięki temu AI może rozpoznawać co znajduje się na analizowanym przez nią zdjęciu, a także precyzyjnie określić kontekst i głębsze dane w nim zawarte np. czy człowiek lub zwierze na zdjęciu wydaje się szczęśliwe, zaniepokojone czy rozgniewane. Najbardziej istotna w działaniu sztucznej inteligencji jest ilość przetwarzanych danych. Im więcej specyficznych danych, tym lepiej wyuczone stają się sieci neuronowe, które mogą wypluwać wyniki z coraz większą dokładnością i coraz mniejszym marginesem lub prawdopodobieństwem błędu. W obszarze badań nad AI, najbardziej zaawansowane algorytmy to: machine learning (ML) i deep learning (DL).

Machine Learning (Uczenie maszynowe) - to zbiór algorytmów opartych na infrastrukturze sieci neuronowych, które posiadają wiele warstw przetwarzania danych. Każdy pojedynczy neuron w takiej sieci to jednostka zawierająca określoną wartość liczbową, najczęściej od 0 do 1 np. 0.2 czy 0.95. Wartości te wyrażają się w konkretnych wzorcach, zależnie od zadań, które mają wykonywać sieci. Każda wartość liczbowa wewnątrz neuronu powoduje pewien stopień "aktywacji" lub "wzbudzenia". Przykładowo wartość 0.98 będzie miała wyższą wartość aktywacji niż wartość 0.35, co zazwyczaj oznacza większą precyzję obróbki danych, czyli najwyższą minimalizację błędu. Prostym przykładem niech będzie tutaj mała siatka neuronów 28 x 28, która pozwala systemowi opisać jakąś liczbę, jej kształt i części składowe. Daje to razem 784 neurony, dzięki którym system jest w stanie przetwarzać określone wartości liczbowe, które wyrażają wizualnie liczbę. Taka siatka 784 neuronów tworzy pierwszą warstwę systemu. Warstwa ta może łączyć się z kilkoma innymi, a kończy się na warstwie wyjściowej, która odpowiada za wynik końcowy, w tym przykładzie: rozpoznanie liczby. Pomiędzy pierwszą warstwą i wyjściową, są jeszcze warstwy ukryte. Jeśli do sieci załadujemy więc obraz reprezentujący liczbę, zaangażujemy wszystkie 784 neurony, spowoduje on kaskadę aktywacji poprzez wszystkie warstwy. Każda warstwa łączy się ze sobą i na wiele różnych sposobów przetwarza najdrobniejsze szczegóły dotyczące reprezentacji liczby. Wspomniane warstwy ukryte neuronów mają za zadanie, analizując wszystkie aktywowane sygnały w sieci, rozpoznawać te drobne części składowe i precyzyjnie je do siebie dopasowywać, niestrudzenie porównując z danymi wejściowymi, co powoduje kolejne kaskady aktywacji. Jest to bardzo uproszczony model biologicznego systemu nerwowego. W rzeczywistości to właśnie ukryte warstwy wykonują coś co ma je zbliżyć do abstrakcyjnego przetwarzania danych. Tam ma odbywać się różnicowanie najdrobniejszych elementów i łączenie ich ze sobą tak, aby zminimalizować błędne rozpoznanie. Im bardziej skomplikowana infrastruktura (sieć neuronowa) oraz zadanie jej powierzone, tym większy poziom abstrakcji w łączeniu ze sobą wzorców i wartości. Dlatego to co dzieje się w warstwach ukrytych, które są swego rodzaju gobelinem, sprzężonym ze wszystkimi warstwami sieci, przetwarzającym każdy bit informacji z możliwie największej liczby kątów, jest w pewnym zakresie niewiadomą, dopóki nie poznamy rezultatu końcowego (sumy aktywacji wszystkich procesów w ostatniej warstwie neuronów). Dzięki takiej mechanice możliwe jest wyuczenie sieci neuronowych np. odnajdywania i obliczania wzorców w ogromnych strumieniach danych. Z rozwiązań tych korzystają słowniki auto-korekty, wyszukiwarki internetowe, systemy rozpoznające obrazy, czy dźwięki.

Ukryte warstwy sieci neuronowych mają naśladować pewien stopień abstrakcji w analizie danych, który jest w stanie zwiększać precyzję wykonywanego zadania przez niestandardowe łączenie ze sobą najmniejszych stałych wartości.

Można to szybko zobrazować na podstawie sieci, której zadaniem jest rozpoznawanie mowy z surowego materiału audio. Ucząc taką sieć poszczególnych słów, będą one w systemie rozbite na najmniejsze elementy: frazy, sylaby, głoski. Ukryte warstwy będą różnicowały i dopasowywały wszystkie elementy składowe, aby osiągnąć zaprogramowany cel z możliwie największą precyzją. W ten sposób sieć będzie w stanie rozpoznać większość elementów składowych danego słowa z próbki audio i poprawnie rozpoznać wzór słowa, przetwarzając go w formę jego cyfrowej reprezentacji. Dzięki tego typu mechanizmom, możemy za pomocą aparatu mowy dyktować treść sms'a w smartfonie. Jest to oczywiście uproszczony sposób mówienia o tych złożonych algorytmach. Każdy neuron można bowiem modyfikować, programować, nadawać mu wartości, które będą określały warunki jego aktywacji. Przykładowo neuron z warstwy drugiej (ukrytej) będzie miał określone parametry (wartości liczbowe i ich odchylenia dla każdego połączenia/bitu/piksela), wedle których dochodzi do konkretnej aktywacji względem sygnału z neuronów wejściowych.


Oznacza to, że w sieci mającej pierwszą warstwę składającą się z 784 neuronów, jeden neuron z warstwy ukrytej będzie wykorzystywał 784 połączenia, aby różnicować dane w układzie. W przypadku gdy ukryta warstwa składa się z 15 neuronów, otrzymujemy 784 x 15 + 15 x 15 (dodatkowe odchylenia) + 15 x 10, czyli 12135 możliwych zmiennych wartości (tzw. wag - weights) i odchyleń (biases) do wprowadzenia, aby modyfikować zachowanie sieci. W istocie uczenie maszynowe oznacza stworzenie i wprowadzenie precyzyjnego modelu zmiennych wartości dla danego zadania, aby różnicowanie i analiza danych były dokładne. Wówczas pseudo-abstrakcyjny sektor neuronów warstwy ukrytej będzie mógł skuteczniej dopasowywać się do wprowadzonych założeń. Można spojrzeć na każdy neuron jako funkcję, która zbiera dane wyjściowe ze wszystkich neuronów poprzedniej warstwy i przedstawia je za pomocą wartości skompresowanej do przedziału od 0 do 1. W takim ujęciu sieć jest bardzo skomplikowaną funkcją matematyczną, która posiada 784 liczby na wejściu, z których powstaje 10 liczb na wyjściu. Wszystkie zmienne wprowadzone w funkcji, których w tym wypadku jest ponad 12 000,  a także zastosowane algorytmy i efekty działań w macierzach i wektorach w obrębie funkcji matematycznej, dają efekt końcowy, który jest przetworzoną formą danych.

Deep Learning (Uczenie głębokie) - to algorytmy porządkujące i usprawniające funkcjonalność sieci neuronowych. Ich głównym celem jest minimalizacja błędu, czyli nauczenie sieci, aby dążyła za każdym razem do wybierania rozwiązania, które jest najbliższe prawidłowemu odczytowi danych wejściowych. Jeśli sieci zostaną wyuczone za pomocą dużego zbioru odpowiednich danych, istnieje duże prawdopodobieństwo, że algorytmy wbudowane w kolejne warstwy neuronów, będą w stanie samodzielnie wybierać te dane, które niosą za sobą największą szansę powodzenia powierzonego zadania. W istocie głębokie uczenie jest bardziej związane z matematycznymi obliczeniami, niż z maszynowym myśleniem lub innym rodzajem science-fiction. Ostatecznie sprowadza się to do działań w funkcji matematycznej. Każdy neuron jest połączony z każdym neuronem w innej warstwie, a wszystkie zmienne (wagi - weights) są jakby nitkami, strunami, za pomocą których te połączenia są tworzone. Natomiast wprowadzone do algorytmu liczby będące zakresem pewnego dopuszczalnego odchylenia (bias) są wyznacznikiem tego, czy neuron powinien być aktywowany lub pozostać nieaktywny. Jeśli te wszystkie zależności będą losowe, to sieć będzie działać bardzo nieprecyzyjnie, czyli również losowo. Dlatego ważne jest odpowiednie wprowadzenie zmiennych i odchyleń, aby sieć mogła działać bardziej precyzyjnie i przewidywalnie. Bardzo istotnym elementem układanki jest wprowadzenie funkcji korygującej, która zasygnalizuje komputerowi, że wykonuje zadanie źle. Funkcja ta ma wskazać komputerowi jak bardzo się myli dla każdego wejściowego elementu treningowego (np. rozpoznania konkretnej liczby). Oznacza to, że suma przetwarzanych danych ze wszystkich aktywacji neuronowych będzie niska kiedy sieć będzie realizowała zadanie prawidłowo, natomiast będzie wysoka i bardziej nieuporządkowana kiedy system będzie popełniał błędy. Zatem taka funkcja porządkująca będzie mierzyła jak bardzo sieć staje się chaotyczna, nieprzewidywalna i jak bardzo "zawstydzony" powinien być komputer wypluwający błędne dane. Jak zostało wspomniane przy opisie maszynowego uczenia, przykładowa sieć może być postrzegana jako funkcja, która z 784 liczb/pikseli/neuronów na wejściu, wypluwa 10 liczb na wyjściu, przy uwzględnieniu wszystkich nitek zmiennych wartości i odchyleń, które wynoszą dajmy na to te 12 000. Funkcja porządkująca bierze owe 12 000 wag/odchyleń jako dane wejściowe i wypluwa jedną wartość liczbową określającą jak bardzo są one nieprawidłowe. Narzędziem parametryzującym w tym wypadku będzie sposób zachowania sieci wobec dziesiątek tysięcy danych treningowych, którymi system będzie karmiony.

Funkcja sigmoidalna w głębokim uczeniu.

Algorytm odpowiadający za uczenie się sieci minimalizowania granic błędu, nazywa się propagacją wsteczną. Mając na myśli, że sieć się uczy, w rzeczywistości, sieć minimalizuje funkcję porządkującą, aby znaleźć lokalne minimum. Proces ten polega na powtarzalnym szturchaniu wejścia funkcji przez wielokrotność ujemnego gradientu i nazywa się metodą gradientu prostego. Znalezienie ujemnego gradientu funkcji porządkującej uwidacznia w jaki sposób należy zmodyfikować wszystkie wagi i odchylenia, aby zminimalizować błąd. Sieci neuronowe mogą mieć dowolnie skomplikowaną architekturę, zależnie od mocy obliczeniowej komputerów. Opisane tutaj mechanizmy zwielokrotniają swoją złożoność kiedy sieć jest bardziej rozbudowana. Sprawia to, że obliczanie gradientu i lokalnego minimum funkcji minimalizującej zakres błędu (koszt) staje się szalenie złożone. Algorytm propagacji wstecznej ma obliczać ten gradient. Jeśli sieć ma wiele warstw ukrytych neuronów, a każda warstwa składa się z wielu takich neuronów, stopień złożoności obliczeń wszystkich wag i odchyleń staje się ciężki do wyobrażenia. Dla prostej sieci, która posiada jedną warstwę ukrytą złożoną z 15 neuronów, wektor gradientu będzie obliczany w ponad 12 000 wymiarów. W skrócie propagacja wsteczna ma za zadanie obliczyć, które wagi i odchylenia i w jaki sposób muszą się zmienić w poprzedniej warstwie, aby wartości prawidłowych aktywacji w kolejnej uległy wzmocnieniu, a wartości błędnych zmniejszyły się, co ostatecznie da najbardziej precyzyjny wynik. Ten proces można nanosić na sieć wielokrotnie, a ta będzie go realizować wstecz , próbując ustalić, które ze zbioru wszystkich wag i odchyleń należy wzmocnić dla powierzonego zadania. Każdy osobny przykład treningowy (np. reprezentacja liczby) posiada odmienne parametry wag i odchyleń, dlatego proces propagacji wstecznej musi pokazać w jaki sposób dla każdego treningu system zmienia wagi i odchylenia, a następnie wyciąga średnią wartość liczbową ze wszystkich treningów. Te średnie wartości stają się czymś zbliżonym do ujemnego gradientu funkcji porządkującej. Obliczanie w ten sposób każdego małego kroczku by znaleźć minimum funkcji zajmuje komputerom bardzo dużo czasu. Proces ten można znacząco przyspieszyć stosując stochastyczną metodę gradientu prostego, która jest jakby drogą na skróty w poszukiwaniu lokalnego minimum funkcji porządkującej (minimalizującej koszt/błąd).



Podsumowując, sieci neuronowe i algorytmy głębokiego uczenia pozwalają na stworzenie warunków, dzięki którym sieć będzie optymalizować przetwarzanie danych i samodzielnie wybierać, które wartości liczbowe są istotne dla prowadzonych operacji. Im lepiej zorganizowane i czystsze dane treningowe, tym lepiej sieć będzie rozpoznawała wzorce i minimalizowała błędne rozpoznanie na wyjściu. Dobrze wyuczone sieci są w stanie osiągać bardzo precyzyjne wyniki w rozpoznawaniu wzorców (np. obrazów, mowy, twarzy). Stosując algorytm propagacji wstecznej, sieci uczą się precyzyjniej przetwarzać dane w warstwach neuronów, czyli obniżać wartości liczbowe aktywacji neuronów, niosących większe ryzyko błędu w stosunku do danych wejściowych oraz zwiększać wartości aktywacji neuronów z większym prawdopodobieństwem poprawności. Wszystko sprowadza się do zminimalizowania błędu, czyli wyuczenia sieci, które neurony powinny być aktywowane, a które nie, aby końcowy wynik był jak najbardziej precyzyjny. Architektura sieci neuronowych inspirowana jest biologicznymi sieciami neuronalnymi, które również tworzą warstwy oraz są ze sobą połączone na wiele różnych sposobów. Sztuczne sieci mogą mieć różne parametry i architekturę. Są one zaprojektowane do określonych typów zadań. Jest ich wiele rodzajów (np. sieci jednokierunkowe liniowe i wielowarstwowe, sieci klasyfikujące, sieci rekurencyjne sprzężone, sieci oparte o rywalizację), tak samo jak są różne rodzaje uczenia i nadzorowania sieci (np. uczenie z nadzorem, uczenie bez nadzoru - samoorganizacja, czy uczenie z krytykiem). Nie będziemy wchodzić tutaj we wszystkie szczegóły (być może odniesiemy się do nich w innych postach). Wszystkie te różnice modyfikują bowiem w różnym zakresie ogólne zasady, które zostały opisane wyżej. Ostatecznie prawidłowe działanie sieci zależne jest od odpowiedniej optymalizacji wag i odchyleń w strumieniu przetwarzanych danych, co wiążę się z określonym dobraniem funkcji/algorytmów, które będą kierować siecią tak, aby wartości wszystkich wag i dopuszczalnych odchyleń pozwalały na uczenie sieci na własnych błędach, udoskonalaniem rozpoznawania wzorców w powierzonych zadaniach i przedstawiania danych końcowych o najmniejszym możliwym błędzie (wartość najbardziej zbliżona do lokalnego minimum funkcji porządkującej/kosztów).

Sieci neuronowe w diagnostyce medycznej

Wykorzystanie sieci neuronowych i algorytmów głębokiego uczenia bardzo intensywnie rozwija się w obszarze diagnostyki medycznej. Statystyki podane przez Institute of Medicine at the National Academies of Science, Engineering and Medicine mówią, że błędy diagnostyczne są przyczyną około 10% śmierci pacjentów, a także są przyczyną 6-17% komplikacji leczenia szpitalnego. Należy wziąć pod uwagę fakt, że błędy diagnostyczne często nie wynikają z bezpośredniej winy lekarza, a są konsekwencją wielu różnych czynników np. niewystarczająca współpraca i integracja danych w informatycznych systemach medycznych, niedostatki komunikacji na linii lekarz-pacjent-rodzina, a także struktura systemu medycznego w danych kraju, która nie wspiera należycie procesu diagnostyki. Do tego dochodzi częste lekceważenie symptomów, samodzielna diagnostyka w internecie lub strach przed wizytą u lekarza. Dlatego coraz więcej badaczy angażuje się w adaptowanie systemów sztucznej inteligencji do diagnostyki medycznej, aby znacząco usprawnić ten obszar. Sieci neuronowe się nie męczą, nie nudzą, a na ich decyzję nie ma wpływu stan psychofizyczny oraz natężenie emocji. Są w stanie rozpoznawać wzorce w ogromnych strumieniach danych i podawać precyzyjne wyniki. 

Obecnie programy oparte na algorytmach sztucznej inteligencji testowane są w wielu obszarach diagnostyki medycznej. Jednymi z najpopularniejszych tego typu rozwiązań są: personalni doradcy medyczni (chatboty analizujące symptomy opisywane przez użytkownika) oraz aplikacje rozpoznające i analizujące wzorce w obszernych bazach danych, które bardzo obiecująco radzą sobie na polu onkologii, patologii i rzadkich chorób. Weźmy dla przykładu onkologię, ponieważ choroby nowotworowe są jednym z najpoważniejszych (oprócz chorób układu krążenia i mentalnych) problemów epidemiologicznych współczesnego świata. Badacze ze Stanford University wykorzystując algorytm wyuczony w diagnozowaniu nowotworów skóry, osiągnęli imponujące wyniki. Algorytm oparty na architekturze głębokich konwolucyjnych (splotowych) sieci neuronowych (CNN) został wyuczony na podstawie 129450 obrazów zmian skórnych, zawierających ponad 2000 różnych schorzeń. Skuteczność i precyzja sieci w analizowaniu zmian była zestawiona z zespołem 21 dermatologów w klinicznie potwierdzonych obrazach na dwóch płaszczyznach diagnostycznych: keratynocytowe nowotwory kontra łagodne łojotokowe rogowacenie skóry oraz czerniak złośliwy kontra niegroźne znamiona. Pierwsza klasyfikacja dotyczyła najbardziej powszechnych nowotworów skóry, a druga najbardziej śmiertelnych. W obu przypadkach sztuczna inteligencja nie odstawała od zespołu dermatologów. Pierwszym elementem diagnostyki zmian skórnych przez lekarza jest dokładna analiza zmiany przy pomocy dermatoskopu (podręcznego mikroskopu). Jeśli lekarz stwierdzi, że zmiana niesie ze sobą ryzyko znowotworzenia lub nie jest w stanie jednoznacznie stwierdzić takiego ryzyka, zleca wówczas biopsję. Algorytm w CNN wraz z dermatologami analizował 370 obrazów w celu wydania opinii o potrzebie zlecenia biopsji, leczenia lub uspokojenia pacjenta w kontekście każdego obrazu. Testy pokazały, że SI posiada taką samą zdolność diagnostyczną, co 21 dermatologów w ustaleniu najlepszego możliwego działania. W samych Stanach Zjednoczonych co roku diagnozuje się 5,4 mln nowych nowotworów skóry. W 2017 roku szacunkowo 9730 osób zmarło z powodu nowotworu skóry, średnio co 54 minuty ktoś umiera z tego powodu. Kluczowe w takich przypadkach jest wczesne wykrycie, które znacząco zwiększa szansę na całkowite wyleczenie. Szanse te szybko spadają, im później następuje wykrycie. Wczesna prawidłowa diagnoza łączy się z 97% wskaźnikiem przeżycia w ciągu 5 lat od diagnozy, natomiast osiąga margines 15-20% dla fazy IV. Tego typu badania pokazują jak ważne będzie korzystanie w przyszłości z aplikacji, które w oparciu o wyuczone algorytmy w sieciach neuronowych, będą mogły z dużą precyzją pozwolić każdemu na wykonanie analizy zmian skórnych u siebie lub bliskich i być może odpowiednio wcześnie zareagować na niepokojące wyniki.


Sieci neuronowe CNN są w stanie diagnozować zmiany skórne na poziomie porównywalnym do zespołu 21 certyfikowanych dermatologów.

Badacze z chińskiego Shanghai University osiągnęli sukces w użyciu głębokiego uczenia do rozpoznawania guzów piersi. Zespół pod przewodnictwem Dr Qi Zhang'a ustalił, że algorytm jest w stanie rozróżniać łagodne i złośliwe guzy piersi na ultradźwiękowej elastografii (SWE), osiągając 93% precyzję w analizie obrazów elastogramu ponad 200 pacjentów. Inni badacze z Chin uzyskali bardzo dobre wyniki w użyciu algorytmów głębokiego uczenia w segmentacji guzów mózgu w obrazach rezonansu magnetycznego (MR). Sztuczna inteligencja zapewniła bardziej stabilne wyniki w porównaniu do manualnej segmentacji przeprowadzanej przez lekarzy, którzy byli bardziej skłonni do popełniania błędów motoryczno-wizualnych. Badacze z Holandii analizowali efektywność algorytmu głębokiego uczenia na polu histopatologii (mikroskopowej analizy tkanki w poszukiwaniu zmian chorobowych). Sztuczna inteligencja miała za zadanie identyfikować raka prostaty w próbkach z biopsji oraz wychwytywać metastazy (przerzuty) nowotworów piersi w węzłach wartowniczych (SLN). Ustalono, że wszystkie próbki zawierające raka prostaty oraz mikro- i makro-przerzuty nowotworów piersi mogą być automatycznie zidentyfikowane, podczas gdy 30-40% próbek zawierających łagodnie zmienione lub zdrowe tkanki, mogą zostać odrzucone bez żadnych dodatkowych immunohistochemicznych markerów i ludzkiej interwencji. Pozwala to znacząco odciążyć i usprawnić pracę patologów i zwiększyć trafność diagnozy, uznając algorytmy głębokiego uczenia jako bardzo obiecujące narzędzia diagnostyczne. Firma Philips wraz z LabPON jest w trakcie tworzenia największej na świecie bazy danych opisanych obrazów tkanek dla algorytmów głębokiego uczenia. Taka ogromna baza zawierająca wysokiej jakości, sklasyfikowane dane zapewni wysoką precyzję działania wyuczonych na jej podstawie sieci neuronowych, co powinno znacząco usprawnić cały obszar patologii. Z kolei badacze z Oak Ridge National Laboratory (ORNL) adaptują technologie głębokiego uczenia do automatyzacji procesu zbierania i kolekcjonowania danych z raportów patologii nowotworów w ogólnokrajowej sieci rejestrów nowotworowych. Zespół naukowców skupia się na oprogramowaniu, które będzie w stanie identyfikować istotne informacje z raportów medycznych szybciej niż metody manualne. Działania te pozwolą przyspieszyć badania nad nowotworami oraz wgląd naukowców i polityków w precyzyjną statystykę dotyczącą nowotworów w danym kraju.

Algorytm GoogLeNet w rozpoznawaniu nowotworów piersi. Po lewej: obrazy dwóch biopsji węzłów wartowniczych; Pośrodku: wcześniejsze rezultaty algorytmu; Po prawej: późniejsze (usprawnione) rezultaty z wyraźnie zredukowanym szumem danych, zwiększającym prawdopodobieństwo błędnej diagnozy;

Zespół z Fraunhofer Institute for Medical Image Computing w Niemczech wykorzystuje algorytmy głębokiego uczenia w konwolucyjnych sieciach neuronowych do mierzenia objętości guzów nowotworowych i wykrywania nowych przerzutów, które mogły zostać przeoczone. Im więcej danych pacjentów z tomografii komputerowej i MRI zostanie przeanalizowanych przez głębokie sieci neuronowe, tym z większą precyzją jest ona w stanie odczytywać wyniki. Badania Google nad medycznymi narzędziami na bazie głębokiego uczenia również przynoszą obiecujące rezultaty. Algorytm o nazwie GoogLeNet został wyuczony w identyfikacji nowotworów piersi dających przerzuty do węzłów wartowniczych. Algorytm uzyskał precyzję lokalizacji na poziomie 89%, przekraczając 73% dokładność patologów. Oznacza to, że technologie te mogą znacząco usprawnić pracę patologów i w bliskiej przyszłości stać się bardzo ważnym narzędziem w obszarze diagnostyki. Sam obszar diagnostyki nowotworów piersi jest problematyczny. Tylko w roku 2012 na świecie zdiagnozowano blisko 1,7 mln nowotworów piersi, choć wynik ten byłby z pewnością wyższy, gdyby wszystkie kraje realizowały ten sam program wczesnej diagnozy, a jak wiadomo są na tym polu dość duże międzynarodowe dysproporcje. Duży nacisk kładzie się na wczesne wykrycie rozwijającego się raka, stąd też promowanie regularnych badań mammografami z promieniowaniem typu X. Jednak według danych amerykańskiej organizacji Breast Cancer Action mammografom brakuje precyzji. Około 20% badań mammograficznych jest fałszywie negatywna, co oznacza, że lekarz lub technik obsługujący mammograf nie znajduje nowotworu, który w rzeczywistości rozwija się w czyimś ciele. Badania fałszywie pozytywne, gdzie lekarz lub technik wykrywa raka, którego dalsze testy jednak wykluczają, również są problemem. W Stanach Zjednoczonych ponad 50% kobiet, które biorą udział w corocznych badaniach mammograficznych w okresie 10 lat, otrzymają co najmniej jeden wynik fałszywie pozytywny podczas trwania takiego 10-letniego programu diagnostycznego. Negatywne skutki badań dających wyniki fałszywie negatywne są oczywiste, natomiast fałszywie pozytywne mogą doprowadzić do niepotrzebnego stresu, dodatkowych testów, biopsji, a nawet chemioterapii w niektórych przypadkach. Wszystkie te czynniki generują olbrzymią dawkę stresu dla pacjentów, a także dodatkowych kosztów dla sektora opieki zdrowotnej na świecie.

Mając na uwadze zarysowane powyżej problematyczne kwestie, wiodący badacze sztucznej inteligencji, a także specjaliści opieki zdrowotnej, postanowili połączyć siły już w listopadzie 2017 roku w celu usprawnienia odczytów i diagnoz mammograficznych. Głównym graczem na tym polu jest DeepMind Health, którego celem jest adaptacja algorytmów AI od Google, aby pomóc radiologom w analizie odczytów mammografu i zaalarmować w przypadku wykrycia potencjalnie rakowatej  tkanki z większą precyzją, niż pozwala na to dotychczasowa technologia. Przy obecnym poziomie zaawansowania algorytmów sztucznej inteligencji, a także patrząc na szybkość ich rozwoju, można się domyśleć, że użycie tej technologii stanie się standardem w diagnostyce medycznej już w najbliższej przyszłości. Możliwości algorytmów w wyszukiwaniu wzorców w dużych strumieniach danych i separacja newralgicznych (najważniejszych dla powierzonego sieci zadania) treści, już potrafią być spektakularne, a to dopiero początek adaptowania AI w obszarze diagnostyki medycznej. Liczba firm technologicznych, które za pomocą swoich systemów sztucznej inteligencji starają się usprawnić diagnostykę raka piersi, powiększa się. Algorytm stworzony przez Houston Methodist Research Institute w Teksasie uzyskał 99% dokładność w identyfikacji ryzyka raka piersi w odczytach mammogramów, a dodatkowo potrafi analizować je 30 razy szybciej niż człowiek. Powstanie The Digital Mammography DREAM Challenge pokazuje jak ważna jest kwestia ulepszenia diagnostyki raka piersi. W 2017 roku program ten, do trwającej 9 miesięcy kampanii, przyciągnął ponad 1200 uczestników, co uwidoczniło jak wiele zespołów pracujących nad AI, jest zainteresowanych tematyką w tym obszarze medycyny. DeepMind Health trenuje swoje algorytmy na podstawie bazy Optimam, która zawiera ponad 80 000 cyfrowych obrazów zebranych dzięki Narodowemu Systemowi Badań Przesiewowych Piersi w Wielkiej Brytanii. Niemalże zbędne jest pisanie jak bardzo skutecznie działający algorytm, pomoże usprawnić pracę lekarzy, diagnostów, redukując tysiące godzin pracy do minut. W samych Stanach Zjednoczonych co roku przeprowadza się ponad 30 milionów badań mammograficznych. Poza tym inną ważną kwestią jest fakt, że mammografy nie są w stanie wyłapać tzw. raków interwałowych, czyli szybko rozwijających się, często śmiertelnych nowotworów, które pojawiają się między badaniami. Jednakże DeepMind stara się testować swoje algorytmy również pod kątem raków interwałowych, dzięki czemu AI w przyszłości może być skuteczna i na tym polu. 

Firmy z branży technologiczno-zdrowotnej coraz częściej adaptują algorytmy sztucznej inteligencji do diagnostyki różnych typów nowotworów. W czerwcu 2019 roku chińska firma BioMind użyła swojej AI do analizy skanów z guzami mózgów. Algorytm wystawił prawidłową diagnozę w 87% przypadków, podczas gdy lekarze z krwi i kości osiągnęli wynik na poziomie 66% w tych samych warunkach. Ponadto algorytm wykonał zadanie w czasie o połowę krótszym. Tego typu przykłady obecnie mnożą się i będzie ich coraz więcej. Algorytmy uczenia maszynowego sprawdzane są w celu ulepszenia detekcji raka płuc, modelowaniu prognostycznym dla pacjentów z nowotworami gastrycznymi, czy w onkologii radiacyjnej. Potencjalnych zastosowań technologii AI jest bardzo dużo. Jedno jest pewne. Dzięki sztucznej inteligencji diagnostyka medyczna zostanie odmieniona na zawsze. Przede wszystkim odciąży osoby pracujące w różnych obszarach opieki zdrowotnej i medycyny diagnostycznej. Poza tym zmniejszy ilość typowo ludzkich błędów, wynikających z ogromnej liczby czynników mogących wpłynąć na ludzką percepcję podczas wykonywania określonego zadania. Ktoś może zapytać: dlaczego mam powierzać swoje zdrowie jakiejś głupiej maszynie lub polegać na stawianej przez nią diagnozie? Otóż w obecnym świecie cały czas polegamy na maszynach. Wsiadając do samochodu, powierzamy maszynie swoje zdrowie. Od jego prawidłowego działania najczęściej zależy, czy dojedziemy do celu w jednym kawałku. Uruchamiając w domu lub w pracy komputer, korzystamy non-stop z gotowych algorytmów. Inaczej musielibyśmy wpisywać każdą komendę, linijkę kodu samodzielnie, aby wzbudzić w komputerze odpowiednią akcję np. otwarcie strony internetowej lub pliku tekstowego. Gdyby nie algorytmy lub gotowe linie kodu, korzystanie z komputerów i większości innych urządzeń byłoby niemożliwe dla przeciętnego człowieka. Algorytmy poprawiają funkcjonalność, zaoszczędzają nasz czas, usprawniają płynność pracy i sprawiają, że wykonywana przez nas praca może być możliwie najbardziej precyzyjna do przyjętych przez nas założeń. Dokładnie tak samo widzę rozwój AI w dziedzinie diagnostyki medycznej, a także ogólnie w medycynie. Sztuczna Inteligencja zaoszczędzi ogrom czasu, pieniędzy i przyczyni się do skuteczniejszego i precyzyjniejszego działania całej opieki zdrowotnej. Trzeba tylko dać tej technologii i stojącym za nią ludziom czas. Warto też wspierać tego typu projekty pieniężnie, bo są one projektowane najczęściej z myślą o ludziach.

Materiały źródłowe:

Machine Learning in Healthcare: Expert Consensus from 50+ Executives
Diagnostic Errors More Common, Costly And Harmful Than Treatment Mistakes
Improving Diagnosis in Health Care
Deep learning algorithm does as well as dermatologists in identifying skin cancer
Dermatologist-level classification of skin cancer with deep neural networks
Skin cancer - Data and Statistics
Better Together - Artificial intelligence approach improves accuracy in breast cancer diagnosis
Artificial Intelligence Industry – An Overview by Segment
Deep Learning Drops Error Rate for Breast Cancer Diagnoses by 85%
A DEEP LEARNING APPROACH FOR CANCER DETECTION AND RELEVANT GENE IDENTIFICATION
Case Western Reserve University-led research could speed identification of recurrent tumors, eliminate costly and risky brain biopsies
A deep learning-based segmentation method for brain tumor in MR images
Sonoelastomics for Breast Tumor Classification: A Radiomics Approach with Clustering-Based Feature Selection on Sonoelastography
Deep learning as a tool for increased accuracy and efficiency of histopathological diagnosis
Philips and LabPON plan to create world's largest pathology database of annotated tissue images for deep learning
Accelerating Cancer Research With Deep Learning
Revealing Hidden Potentials of the q-Space Signal in Breast Cancer
Superior prognosis prediction performance of deep learning for gastric cancer compared to Yonsei prognosis prediction model using Cox regression
Antibody-supervised deep learning for quantification of tumor-infiltrating immune cells in hematoxylin and eosin stained breast cancer samples
Data Science Bowl 2017. Can you improve lung cancer detection?
Special Issue on Deep Learning for Computer Aided Cancer Detection and Diagnosis with Medical Imaging
Machine Learning in Radiation Oncology
Machine Learning Healthcare Applications – 2018 and Beyond
Breast cancer is the most common cancer in women worldwide
This AI software can tell if you're at risk from cancer before symptoms appear
Chinese AI beats 15 doctors in tumor diagnosis competition
Optimam mammography image database and viewing software
Assisting Pathologists in Detecting Cancer with Deep Learning 

O autorze i tym blogu słów kilka...

Na co dzień zajmuje się etnofarmakologią, fitofarmakologią i ziołolecznictwem. Interesują mnie substancje z roślin i grzybów oraz ich za...