Karolina Głowacka: Czym jest chemoinformatyka?

Dr Agnieszka Gajewicz-Skrętna*: W dużym uproszczeniu: to zastosowanie metod komputerowych w chemii. Jednak chemoinformatyka to niezwykle interdyscyplinarna dziedzina nauki. Łączy w sobie zagadnienia z zakresu chemii, informatyki, matematyki, statystyki i chemometrii, lecz także biologii czy toksykologii. Metody chemoinformatyczne wykorzystywane są przede wszystkim w procesie projektowania nowych leków. Umożliwiają one identyfikację i optymalizację struktur nowych związków wiodących, żeby wskazać te najbardziej aktywne, jako potencjalnych kandydatów na leki. To bardzo istotne wsparcie, bo trzeba wiedzieć, że opracowanie i wprowadzenie na rynek nowego leku metodami tradycyjnymi trwa około 12-15 lat i - jak wyliczył "Forbes" - może kosztować średnio 4 mld dolarów. Wynika to z tego, że zaledwie kilka z dziesiątek czy setek tysięcy rozważanych związków kwalifikuje się do przeprowadzenia badań klinicznych. Ostatecznie do aptek trafia jeden, a niekiedy  żaden z rozważanych leków.

PHOTOGRAPHER:JUSTYNA CIEŚLIKOWSKA

Obecnie chemoinformatyka znajduje również coraz szersze zastosowanie, także w przemyśle kosmetycznym, fotochemicznym czy w rolnictwie, wspierając projektowanie nowych związków chemicznych o pożądanych właściwościach.

Jak?

Najpierw tworzy się wirtualną bibliotekę milionów związków, z których wybiera się najbardziej obiecujące. Ostatecznie zsyntezowane i eksperymentalnie przebadane zostaną wyłącznie takie, które mają optymalną kombinację specyficznych i pożądanych właściwości fizykochemicznych oraz bezpieczeństwa. Możliwość oceny właściwości i aktywności nowo projektowanych związków przed ich właściwą syntezą w laboratorium pozwala zminimalizować czas i koszt badań oraz zredukować liczbę zwierząt wykorzystywanych do badań.

Jednak, co równie ważne, metody komputerowe pomagają też w ocenie ryzyka zarówno nowo projektowanych, jak i istniejących już związków chemicznych. U podstaw metod komputerowych leży założenie, że różnice pomiędzy aktywnością biologiczną poszczególnych związków chemicznych wynikają z różnic w ich budowie chemicznej. Innymi słowy, zakładamy, że związki o podobnej budowie chemicznej mają podobną aktywność biologiczną. Dlatego na podstawie eksperymentalnych danych, dostępnych tylko dla części strukturalnie podobnych związków, można przewidzieć np. toksyczność związków, dla których takich danych brakuje. Oznacza to, że nie trzeba prowadzić badań eksperymentalnych dla każdego z analizowanych związków.

Jak dużo powstaje nowych związków?

Bardzo dużo. Od wczesnych lat XIX w.  do dzisiaj w największej komputerowej bazie danych związków chemicznych zarejestrowanych zostało ponad 155 mln organicznych i nieorganicznych substancji i ponad 68 mln sekwencji białek i kwasów nukleinowych. Każdego dnia baza jest aktualizowana o ponad 15 tys. nowych substancji!

W rzeczywistości jednak nikt nie zna całkowitej liczby związków chemicznych w środowisku. Pamiętać bowiem należy, że oprócz związków syntezowanych celowo są też takie, które są np. efektem ubocznym procesów przemysłowych, np. dioksyny, czy związki powstające w wyniku procesów fizycznych, chemicznych, biologicznych lub fotochemicznych naturalnie zachodzących w środowisku

I kto to wszystko sprawdza?

I tu pojawia się problem, bo jeżeli uzmysłowimy sobie, że kompleksowe przebadanie in vivo tylko jednego związku chemicznego, np. nowego pestycydu, czyli substancji chemicznej powszechnie stosowanej w rolnictwie lub ogrodnictwie do ochrony roślin, średnio kosztuje blisko 10 mln dol. i w ciągu kilku lat wymaga przeprowadzenia testów z wykorzystaniem około 7 tys. organizmów żywych, to oczywiste się staje, że ocena ryzyka wszystkich związków chemicznych jest praktycznie niemożliwa.

Dlatego do użytku czasem trafiają związki, które po pewnym czasie okazują się szkodliwe?

Niestety tak. Historia współczesna zna liczne przykłady związków chemicznych, które początkowo ze względu na swoje unikalne właściwości uznawane były za "wyjątkowe substancje", a dopiero po latach masowej produkcji okazywały się substancjami niebezpiecznymi, wywołującymi niepożądane działania toksyczne i stwarzającymi zagrożenie dla zdrowia człowieka i środowiska przyrodniczego. Takim przykładem jest choćby azbest. To minerał, który przez wiele lat był postrzegany jako materiał doskonały. Na jego wyjątkowość składały się nie tylko jego unikalne właściwości - m.in. niepalność, wysoka wytrzymałość termiczna i mechaniczna, dźwiękochłonność czy trwałość - lecz także ogólna dostępność i relatywnie niskie koszty wytworzenia. Historia azbestu zatoczyła koło – od euforii związanej z jego szerokim zastosowaniem w różnych gałęziach przemysłu po całkowity zakaz stosowania w wielu państwach, w tym w całej Unii Europejskiej. Światowa Organizacja Zdrowia szacuje, że każdego roku na pylicę azbestową lub wywołane przez azbest nowotwory umiera ponad 100 tys. osób. Zresztą azbest nie jest jedynym takim przykładem. Wystarczy przejrzeć listę substancji chemicznych objętych przepisami konwencji sztokholmskiej w sprawie trwałych zanieczyszczeń organicznych. Wśród substancji, które zostały uznane za niebezpieczne i tym samym przewidziane do wycofania z produkcji i stosowania, znalazły się m.in. pestycydy, insektycydy, tj. środki owadobójcze, czy chemikalia przemysłowe

Wszystkie one powstały w XIX lub XX wieku. Czy współczesna chemoinformatyka byłaby w stanie przewidzieć wynikające z nich zagrożenia?

To trudne pytanie i nie potrafię na nie jednoznacznie odpowiedzieć. Bez wątpienia metody komputerowe już niejednokrotnie potwierdziły swoją użyteczność w procesie projektowania nowych związków chemicznych, jak również w przewidywaniu brakujących charakterystyk toksykologicznych i właściwości fizykochemicznych dla nieprzebadanych eksperymentalnie związków chemicznych. Możliwe, że współczesna chemoinformatyka już na etapie projektowania pozwoliłaby na wykrycie cech alarmujących danego związku, a w konsekwencji jego dokładniejsze przebadanie.

Ale przecież producenci mają obowiązek kontroli tego, co wprowadzają na rynek?

Oczywiście. W Unii Europejskiej jest to regulowane zapisami rozporządzenia REACH z grudnia 2006 r., traktującym o rejestracji, ocenie, udzielaniu zezwoleń i stosowanych ograniczeniach w zakresie chemikaliów. Według tej regulacji producenci i dystrybutorzy muszą ocenić ryzyko chemiczne - i nim zarządzić - dla substancji chemicznych produkowanych lub importowanych powyżej 1 tony rocznie. Ponadto rozporządzenie to dosłownie mówi o tym, że gdy jest to możliwe, informacje na temat toksyczności powinny być generowane nie podczas doświadczeń na zwierzętach, ale w wyniku badań in vitro - głównie z udziałem linii komórkowych, lub in silico - tu wykorzystywana jest analiza komputerowa. To ogromna oszczędność nie tylko w kontekście nakładów finansowych, lecz przede wszystkim w świetle zredukowania liczby zwierząt wykorzystywanych do badań laboratoryjnych.

O jakiej skali mówimy?

Z raportu Wspólnotowego Centrum Badawczego Komisji Europejskiej wynika, że kosztem wejścia w życie rozporządzenia REACH byłoby wykonanie 3,9 mln dodatkowych badań eksperymentalnych na zwierzętach.

To mnóstwo zwierząt.

Niestety. Jednak według wyliczeń autorów wspomnianego raportuw przypadku powszechnego stosowania metod alternatywnych, w tym metod komputerowych, liczba dodatkowych badań eksperymentalnych mogłaby zostać zredukowana blisko o połowę. Pozwoliłoby to na zmniejszenie liczby zwierząt laboratoryjnych wykorzystanych do badań o 1,9 mln! Stąd inicjatywy podejmowane obecnie przez administrację publiczną i środowisko naukowe na całym świecie zmierzają do doskonalenia  istniejących oraz rozwoju nowych strategii oceny bezpieczeństwa chemicznego, które stanowiłyby alternatywę dla czasochłonnych, drogich i etycznie wątpliwych badań z wykorzystaniem zwierząt laboratoryjnych.

A gdyby już teraz zakończyć testy na zwierzętach?

Niestety, na razie nie możemy sobie na to pozwolić. Metody komputerowe do poprawnego działania wymagają danych z doświadczeń, mierzonych według ustalonego protokołu eksperymentalnego. Na pewno dużym krokiem w kierunku zakończenia testów na zwierzętach będzie stworzenie ogólnodostępnej centralnej bazy danych toksykologicznych. Będzie to również krok w kierunku realizacji mojego największego marzenia naukowego tzn., żeby metody, nad którymi pracuję, stały się podstawowym narzędziem tzw. inteligentnych strategii testowania, a także - tam, gdzie to możliwe - w pełni zastąpiły testy na zwierzętach.

*Dr Agnieszka Gajewicz-Skrętna pracuje na Wydziale Chemii Uniwersytetu Gdańskiego. Odbywała staże naukowe m.in. w USA, Japonii i Niemczech. Jest autorką ponad 45 publikacji naukowych w wiodących czasopismach (m.in. "Nature Nanotechnology", "Nanoscale", "Nanotoxicology", "Advanced Drug Delivery Reviews", "Chemistry of Materials"). W Polsce: stypendystka Ministra Nauki i Szkolnictwa Wyższego dla Wybitnych Młodych Naukowców oraz programu L’Oréal Polska dla Kobiet i Nauki. Międzynarodowo: laureatka nagrody International Rising Talents (L’Oreal i UNESCO) przyznawanej co roku 15 kobietom, których badania naukowe mogą zmienić świat.