Dzięki wykorzystaniu m.in. AI nastąpiła eksplozja działalności naukowej. Nowe technologie przynoszą odkrycia nagradzane Noblami i zmieniają sposób pracy badaczy, nawet matematyków – powiedział PAP prof. Marcin Nowotny z Międzynarodowego Instytutu Biologii Molekularnej i Komórkowej (IIMCB).
Nowe technologie, sztuczna inteligencja, nowoczesne urządzenia, które generują ogromne ilości danych, w bardzo złożony sposób wpływają na to, jak uprawiamy naukę. Sama kultura uprawiania nauki się też trochę zmienia – zwraca uwagę prof. Marcin Nowotny z Międzynarodowego Instytutu Biologii Molekularnej i Komórkowej w Warszawie, szef Laboratorium Struktury Białka. Laureat m.in. Nagrody Naukowej Fundacji na rzecz Nauki Polskiej.
– Możemy zacząć od najprostszych narzędzi, których używamy jako społeczeństwo, ale jako naukowcy również. Mam na myśli metody komunikacji. W tej chwili z moim współpracownikiem zza oceanu mogę się skontaktować w ułamku sekundy, podczas gdy jeszcze 40-50 lat temu komunikowano się przez listy. Sam proces przepływu informacji powoduje, że nauka nabrała nieprawdopodobnego tempa. Jeżeli ktoś coś opublikuje – dzięki internetowi dowiaduję się o tym natychmiast – zauważa naukowiec.
– Gdy zaczynałem karierę naukową w dziedzinie, którą w tej chwili uprawiam, czyli biologii strukturalnej, to obliczenia potrzebne do określenia struktur przestrzennych wykonywano na specjalnych tzw. stacjach roboczych – potężnych, wyspecjalizowanych komputerach. W tej chwili prawdopodobnie komórka, przez którą rozmawiamy, byłaby w stanie takie obliczenia wykonać. Więc oczywiście w ogóle rozwój technologiczny powoduje, że postęp naukowy czy szybkość działalności naukowej dramatycznie przyspiesza i rzeczywiście to przyspieszenie jest absolutnie imponujące – dodaje.
Prof. Nowotny zwraca uwagę, że zmienia się nawet praca matematyków. – W tej chwili to już nie jest ołówek i papier, ale wiele dowodów przeprowadza się za pomocą programów komputerowych, i to coraz częściej z zastosowaniem sztucznej inteligencji. Pojawiają się systemy oparte o AI, które rozwiązują problemy matematyczne czy udowadniają twierdzenia – mówi.
W biologii molekularnej – dziedzinie, którą zajmuje się prof. Nowotny, również widać przyspieszenie w badaniach, choćby w przypadku sekwencjonowania genomów. – Pierwszy, zresztą niekompletny jeszcze ludzki genom, zakończono sekwencjonować we wczesnych latach dwutysięcznych. Sam koszt sekwencjonowania wyniósł 300 milionów dolarów, choć cały projekt kosztował prawie 3 miliardy dolarów, bo trzeba było od podstaw stworzyć całą infrastrukturę. I to trwało kilkanaście lat. W tej chwili w ciągu kilkunastu godzin, za cenę około tysiąca dolarów, jesteśmy w stanie zsekwencjonować ludzki genom. Konsekwencje tego są kolosalne. Jeśli mamy pacjenta z jakąś niezdiagnozowaną chorobą, to możemy sekwencjonować jego genom i stwierdzić, czy jest w tym genomie jakaś mutacja, zmiana, która powoduje, że dane objawy u niego występują. U pacjenta z nowotworem po zsekwencjonowaniu genomu możemy tak dobrać leczenie, żeby było ono jak najbardziej skuteczne – opowiada.
– W ludzkim organizmie żyje kilka kilogramów mikroorganizmów, głównie bakterii i również grzybów, które są w pewnym sensie takim kosmosem w człowieku. Dopiero dzięki temu, że zaczęliśmy sekwencjonować materiał genetyczny tych mikrobów – zrozumieliśmy, jak są zróżnicowane, ile ich jest, że to są tysiące gatunków, jak te populacje różnych gatunków ze sobą oddziałują. To rewolucja ostatnich kilku, może dziesięciu lat – dodaje.
Tegoroczną Nagrodę Nobla z chemii przyznano m.in. twórcom programu AlphaFold. – To prawdopodobnie jeden z najbardziej spektakularnych i najbardziej użytecznych przykładów zastosowań sztucznej inteligencji w nauce – zwraca uwagę naukowiec.
Jak przypomniał, rozwiązanie pierwszej struktury przestrzennej białka, czyli ułożenia kilku tysięcy atomów w cząsteczce białka, zajęło 22 lata. – Przez kolejne kilkadziesiąt lat naukowcy na świecie określili struktury przestrzenne kilkudziesięciu tysięcy białek. To był żmudny proces, wiele z tych projektów trwało kilka lat, ale dzięki wspólnemu wysiłkowi powstała doskonałej jakości baza danych tych struktur. Te dane dotyczące struktur białek są bardzo dobrze uporządkowane, a ich jakość weryfikowana. Dzięki temu sztuczna inteligencja mogła się na tej bazie wytrenować – zauważył prof. Nowotny.
Jak dodał, dawniej naukowcy potrzebowali lat, żeby uzyskać informację o przestrzennej budowie danego białka. W tej chwili zajmuje to kilka minut. – Nadal jest to przewidywanie komputerowe, a nie coś, co ‘widzimy’ metodami eksperymentalnymi, więc trzeba to różnymi metodami weryfikować. Jednak informacja o strukturze przestrzennej białka już sama w sobie jest niezwykle użyteczna – mówi.
Według naukowca z IIMCB Komitet Noblowski docenił to osiągnięcie dość szybko zapewne m.in. ze względu na jego ogromny wpływ na funkcjonowanie naukowców. – Natomiast rzeczywiście w przypadku AlphaFold doceniono narzędzie. W ogóle Nobel z chemii jest w tym roku nietypowy, bo trzeba powiedzieć, że jeden laureatów to właściwie przedsiębiorca, założyciel firmy DeepMind. Oni po prostu identyfikują największe wyzwania intelektualne i naukowe, dla których można zastosować AI – skonstatował specjalista.
Jak nowe narzędzia przydają się w codziennej praktyce naukowej? Mówiąc o podstawowym warsztacie badacza prof. Nowotny podkreślił, że jednym z podstawowych zadań naukowców jest zapoznawanie się z literaturą naukową: czytanie, co odkryli inni, i inspirowanie własnych badań; upewnianie się, że odkrywane zjawiska czy mechanizmy są faktycznie nowe.
– Obecna eksplozja działalności naukowej powoduje, że tych danych jest ogromna ilość. Mówimy już w tej chwili o dziesiątkach milionów artykułów naukowych, które opublikowano. Niedługo dojdziemy do etapu, w którym naukowiec nawet w swojej dziedzinie będzie miał kłopot z tym, by śledzić dokładnie wszystko, co opublikowano. Myślę, że kluczowym narzędziem będą metody sztucznej inteligencji, które będą wydobywać dane z tego zalewu informacji, będą oceniać, która z tych informacji jest najistotniejsza – mówi prof. Nowotny.
– Są też narzędzia, które – dostając pytanie – próbują znaleźć konsensus naukowy, bo naukowcy też się przecież spierają. Jedni uważają, że pewne zjawiska wyglądają tak, inni – że inaczej. Program komputerowy może prześledzić całą literaturę i powiedzieć, jak jest według większości badaczy. Poda jeszcze odnośniki do właściwych publikacji – zwraca uwagę biolog. – Takie narzędzia są w tej chwili rozwijane bardzo intensywnie. Wciąż są jednak niedoskonałe, przynajmniej w moim prywatnym doświadczeniu. Więc też na tym poziomie sztuczna inteligencja staje się absolutnie podstawowym narzędziem badacza.
Naukowiec zwraca uwagę, że bardzo często badania naukowe, które później doprowadzają do absolutnych przełomów, są początkowo w ogóle niedocenione i nie do końca zauważone.
– Tak było z badaniami mikroRNA, za które przyznano w tym roku Nobla z medycyny i fizjologii – mówi. – Początkowo, gdy badacze w milimetrowym nicieniu odkryli, jak można regulować działanie genu, to myślano, że to jest po prostu jakiś egzotyczny fenomen. Dzisiaj, kilkadziesiąt lat później, wiemy, że to proces powszechny w żywych organizmach, a w oparciu o ten mechanizm, opracowuje się zupełnie nową generację leków np. na wysoki poziom cholesterolu dla osób, u których statyny nie działają. Złożone są one z małych fragmentów RNA, odpowiednio chemicznie modyfikowanych, żeby skutecznie działały.
Jego zdaniem absolutnie niezmienna powinna też pozostać metoda naukowa. – Podstawową zasadą metody naukowej jest to, że chcemy mieć jak największą pewność, że to, co prezentujemy światu jest prawdą. Jeżeli coś odkrywamy, to staramy się zawsze znaleźć dziurę w całym i mieć możliwie jak największą pewność, że ta hipoteza, to odkrycie, to nowe zjawisko, które opisujemy jest prawdziwe, że to nie jest np. jakiś błąd w pomiarach. Więc w tym sensie słowo 'prawda’ pozostaje niezmienne. To jest serce działań naukowych. I tak powinno zostać – mówi.