Wywiad

Czy roboty będą mieć nosy? – rozmowa z dr Emilią Witkowską Nery

4 lutego 2019, Aktualizacja 15 lutego 2019Lenovo

Już wkrótce roboty mogą posiadać zmysły podobne do ludzkich… Tylko co dalej? Elektroniczne języki i nosy naszego robota powinny być „zainteresowane” zapachem jabłek i ziemniaków, czy może lepiej gdyby specjalizowały się w rozpoznawaniu bomb lub wyczuwały obecność narkotyków?

W skrócie

Od końca lat 80. istnieją elektroniczne języki i elektroniczne nosy, zestawy czujników do analizy płynów i odpowiednio gazów, które starają się naśladować działanie ludzkich zmysłów.

Elektroniczne nosy i języki mogą "próbkować" materiały wybuchowe, wyczuwać narkotyki lub rozpoznawać obecność substancji toksycznych w powietrzu.

Są już badania pokazujące, że dzieci autystyczne chętniej wchodzą w interakcje z robotem niż z człowiekiem.

Rozmowa z dr Emilią Witkowską Nery z Instytutu Chemii Fizycznej PAN.

 

Nad czym aktualnie Pani pracuje?

Obecnie zajmuję się wykorzystaniem nietypowych substratów (głównie różnych form papieru i folii) do tworzenia czujników i układów analitycznych, które wyróżniają się bardzo niską ceną albo niespotykanymi właściwościami, niemożliwymi do otrzymania przy użyciu w standardowo stosowanych układów krzemowych. Układy z papieru są ekstremalnie tanie, nie wymagają użycia pomp, mogą w kontrolowany sposób dostarczać odczynników reakcyjnych, a dzięki drukowanej elektronice mogą też być wyposażone w zintegrowany, tani wyświetlacz i układ logiczny.

Taki trochę myślący papier?

Może myślący to za dużo powiedziane, gdyż ta elektronika jest jeszcze dość prosta, ale rzeczywiście sporo jest teraz prac nad „inteligentnymi” materiałami takimi jak papier czy tkaniny. Na przykład ubrania odpowiadające na nasze samopoczucie, pokazujące wydajność treningu, czy poziom smogu. Podobnie z papierem.

To jednak nie koniec Pani aktywności naukowych…

Rozpoczynam również projekt, który ma na celu zautomatyzowanie, do pewnego stopnia, kultur komórkowych stosowanych w farmacji do badań nowych leków. Wsparty metodami uczenia maszynowego układ nie tylko ma pozwolić hodować komórki w trójwymiarowym otoczeniu imitującym nasz organizm, ale również półautomatycznie analizować, co dzieje się z komórkami po podaniu leku.

Ma to przyspieszyć proces ich hodowli?

Komórki są obecnie hodowane w dwóch wymiarach, z jednej strony w kontakcie z płaską, twardą ścianką naczynia, z drugiej z medium hodowlanym, w którym nie brak tlenu i substancji odżywczych. To zupełnie niefizjologiczna sytuacja, brak gradientów, brak interakcji z innymi komórkami w trzech wymiarach. Właśnie z tego powodu, chociaż leki badane są na komórkach ludzkich, często uzyskane wyniki są zupełnie inne niż w organizmie i badane substancje muszą być niejednokrotnie wycofywane z badań klinicznych np. ze względu na toksyczność dla wątroby. Od prawie pół wieku wiadomo, że problem ten można by ograniczyć stosując hodowle 3D, ale nie ma jak ich zbadać, gdyż hodowle komórkowe analizuje się za pomocą mikroskopu, a jak można sobie wyobrazić, zajrzenie w głąb gąbczastej lub żelowej struktury pokrytej komórkami, nie jest łatwe. Opracowywany przeze mnie system ma nie tylko pozwolić hodować komórki w trzech wymiarach, ale także dostarczać informacji na temat stanu hodowli w różnych jej punktach, zarówno w środku jak i na zewnątrz, dzięki temu będzie można znacznie ograniczyć czas badań nad nowymi lekami.

Jak chemia przenika się z robotyką?

Jest kilka aspektów tego zagadnienia. Z jednej strony możemy mówić o chemicznych komputerach, czyli substancjach które potrafią przechowywać informacje w formacie zero-jedynkowym lub chemicznych robotach, czyli konstruktach imitujących żywe komórki, będących w stanie przetwarzać substancje i wykonywać predefiniowane funkcje.

Z drugiej strony jest zastosowanie czujników fizycznych i chemicznych, które pozwalają wyposażyć roboty w zmysły. Jest też cała gałąź wiedzy związana z tzw. „miękką” robotyką (ang. soft robotics), zajmująca się badaniami nowych materiałów, głównie hydrożelowych i poszukiwaniem sposobów wprawiania ich w ruch, czujników, które można dowolnie rozciągać i zginać oraz wielu innych tym podobnych zastosowań.

NEWSLETTER

Bądź na bieżąco z nowinkami produktowymi Lenovo, otrzymuj najlepsze oferty i korzystne rabaty!

Dużo mówi się o robotach w kontekście ich zdolności manualnych oraz obliczeniowych, a jak jest ze zmysłami?

Od końca lat 80. istnieją elektroniczne języki i elektroniczne nosy, zestawy czujników do analizy płynów i odpowiednio gazów, które starają się naśladować działanie ludzkich zmysłów. Chociaż są one bardzo szeroko stosowane w przemyśle farmaceutycznym (np. do analizy smaku leków), spożywczym (zamiast drogich paneli eksperckich), rolnictwie (np. do oceny momentu zbioru owoców) i w wielu innych dziedzinach, na razie, z tego, co mi wiadomo, nikt nie próbuje wyposażyć robotów w tego typu zmysły, chociaż oczywiście byłoby to możliwe.

Ważniejszy wydaje się zmysł dotyku, gdyż to on pozwala lepiej manipulować przedmiotami, z którymi ma styczność robot. Dużo uwagi poświęca się także wzrokowi i tutaj nie w sensie lepszych kamer i czujników, a raczej zrozumienia tego, co robot postrzega i jak ma to zinterpretować. Ważne jest to w przypadku samojeżdżących samochodów czy też robotów humanoidalnych przeznaczonych do terapii osób z zaburzeniami neurologicznymi.

Roboty w terapii z zaburzeniami neurologicznymi?

Od lat karmieni jesteśmy obrazami humanoidalnych robotów zajmujących się osobami w podeszłym wieku, pomagających w codziennych czynnościach, dbających o przyjmowanie leków. Możemy sobie jednak również wyobrazić roboty pomagające osobom, których kontakt z innymi jest utrudniony, np. uczące interakcji dzieci z autyzmem. Są już badania pokazujące, że dzieci chętniej w tym przypadku wchodzą w interakcje z robotem niż z człowiekiem. Dlaczego więc nie wykorzystać tego faktu i uczyć dzieci interakcji z robotem, którego zachowanie staje się coraz bardziej ludzkie, aż dziecko zaznajomi się z naturalnymi emocjami, mimiką etc. Dodatkowo tylko za pośrednictwem robotów będziemy w stanie odegrać dokładnie te same warunki doświadczalne czy terapeutyczne. Do jakiejkolwiek bardziej złożonej interakcji oczywiście jeszcze daleka droga.

Czy da się podrobić odczucia fizyczne człowieka?

To jest bardzo skomplikowane pytanie, bo my sami nie bardzo wiemy, co odczuwamy i jak do końca działa nasz mózg. Każdy bodziec interpretowany jest razem z całym zapleczem innych informacji, dlatego każdy z nas odczuwa trochę coś innego. Tak jak wspomniałam, bardzo dużo uwagi poświęca się zmysłowi dotyku, bo tutaj możemy łatwo ocenić, czy odczucie było poprawne – czy robot zgniecie podnoszony przedmiot czy zauważy, że to coś miękkiego i należy użyć mniejszej siły. Tak samo ze wzrokiem. Jeżeli robot rozpozna jakąś emocję, możemy mu zakodować jakiś gest odpowiedzi i mierzyć jego możliwość ciągłej interakcji czy rozmowy z ludzkim partnerem. A z węchem czy smakiem? Czy wystarczy nam, że odpowie, że dany zapach pochodzi od jabłka? Czy taka informacja to już odczucie?

Problemem jest, zakładam, także relewantność tych odczuć w przypadku różnych osób.

To jak będziemy odczuwać daną potrawę zależy od naszej bazy danych – czyli tego, co do tej pory w życiu jedliśmy, odczuć towarzyszących tzn. trywialnych rzeczy jak węch, ale też w jakim jesteśmy nastroju. Nie należy zapomnieć o stanie naszych czujników – język prześle do mózgu inny sygnał, jeżeli ostatnio ogłuszyliśmy go czymś ostrym, czy gorącym itd. Jeżeli dwie osoby włożą do ust dokładnie to samo, ich odczucie będzie przecież zupełnie inne. Które z nich powinien odczuć robot?

Jest też drugi problem, skąd będziemy wiedzieć, co on poczuł? Ma o tym opowiedzieć? A może, tak jak w futurystycznych wizjach z filmów, przesyłać jakiś sygnał wprost do naszego mózgu, żebyśmy sami mogli poczuć to co on? Nawiasem mówiąc do tego jeszcze nam daleko.

A więc odpowiedź jest taka – przy odpowiednio skomplikowanym systemie roboty mogą czuć jak my, tylko co dalej? Czy robotowi gotującemu musi smakować to, co zrobił, czy może wystarczy, jeżeli robotyczna gotująca ręka zanurzy palec w sosie i zmierzy, ile jest tam soli, jakie jest stężenie kilku innych składników i dostosuje ich poziom do tego, co zwykle nam smakuje.

A jak jest z węchem?

Elektroniczne nosy działają bardzo podobnie do elektronicznych języków, którymi ja się zajmuję. Trenujemy odpowiednio dobrany zestaw czujników na różnorodnych próbkach, w ten sposób tworząc naszą bazę danych. Potem, mierząc coś nieznanego, porównujemy sygnał do tych zmierzonych wcześniej i przy użyciu mniej lub bardziej złożonych algorytmów sprawdzamy ich podobieństwo. Dlatego też podobnie jak ze smakiem, roboty mogą być wyposażone w takie czujniki, które działają na tej samej zasadzie, co nasz węch, ale pytanie brzmi, co zrobią z tą informacją?

Właśnie – to jest zasadne pytanie – do czego takie umiejętności mogłyby być użyteczne, co roboty z takimi zdolnościami mogłyby robić/badać?

Takie układy czujników połączone z algorytmami mają niesamowity potencjał, bo mogą badać nawet bardzo złożone próbki, których nikt nie śmiałby badać przy użyciu tak prostych narzędzi, gdyby każdy z czujników miał być użyty osobno. Na razie, zamiast myśleć o naszym smaku, lepiej rozważyć „próbowanie” innych rzeczy, na przykład półproduktów na liniach produkcyjnych fabryk lub materiałów wybuchowych. Nikt nie powiedział, że język naszego robota powinien być zainteresowany smakiem jabłek czy ziemniaków, może lepiej gdyby specjalizował się w rozpoznawaniu bomb, albo elektronicznym nosem wyczuł obecność narkotyków? A z dobrą bazą danych pewnie mógłby też i powiedzieć, z jakiego regionu świata one pochodzą. Tak samo możemy sobie wyobrazić robotyczne języki wyczulone na markery różnych chorób. Smakowych zastosowań trochę spoza naszego ludzkiego rozumienia smaku naprawdę nie brak.

Zatem nie ma sensu tworzenie robota, który mógłby znaleźć, a w zasadzie obliczyć algorytmicznie, przepis na idealne potrawy i zostać mistrzem kuchni?

A czy potrzebujemy do tego robota? Kilka lat temu na warszawskim TEDxie występował James Briscione, który przy użyciu superkomputera wyszukuje idealne połączenia smaków. Burger z grzybami i sosem z truskawek? Podobno przepyszny!

Czy bylibyśmy w stanie odróżnić potrawę przygotowaną przez robota od potrawy przygotowanej przez człowieka?

Jeszcze z pewnością nie jesteśmy na tym etapie rozwoju robotów, zarówno pod względem ich zdolności manualnych jak i możliwości rozpoznawania i katalogowania składników, które wystarczą do przygotowania naszego egzaminacyjnego dania. Możemy sobie wyobrazić, że dobry kucharz widząc, że otrzymał mniej aromatyczne zioła, doda ich trochę więcej niż w przepisie, a roboty, które są postulowane na chwilę obecną, byłyby może w stanie jedynie dokładnie odtworzyć przepis. Ale w przyszłości, jeżeli tylko będzie potrzeba budowania takich systemów, nie uważam, by była to jakaś technologia, której działania nie jesteśmy sobie w stanie już na chwilę obecną wyobrazić.

Czy ma pani jakieś wyobrażenie robotów przyszłości?

Bliższe mi są wizje inteligentnego otoczenia niż humanoidalnych służących, np. w filmie „Wyspa” ze Scarlett Johansson i Ewanem McGregorem była taka scena, w której podczas wizyty w toalecie sedes analizował skład moczu i potem dana osoba w zależności od parametrów dostawała przydział pasującego do wyników menu i zestawu aktywności, by utrzymać optymalny stan zdrowia. Oczywiście nie chodzi mi zupełnie o to, żeby nasze życie wyglądało jak to wiedzione przez hodowlane klony z tej wizji, ale jak ten system był zrobiony. Ten robot, który pobierał próbkę, mierzył, analizował i przekazywał wynik, był skonstruowany tak, że użytkownik wcale nie musiał robić nic więcej niż zazwyczaj.  

Pięknych futurystycznych wizji nie brakuje w książkach i filmach, nie sądzę bym mogła do tego dodać coś bardzo innego.

Co sądzi Pani o koncepcji basic income. Czy faktycznie wielu zawodom grozi wyginięcie w kontekście automatyzacji?

Mnie pomysł basic income bardzo się podoba. Trudno powiedzieć, jak wyjdzie jego wdrożenie. Z tego, co wiem, istnieją systemy pilotażowe w kilku krajach, jednak nie wiem, czy łatwo je będzie przełożyć na duże populacje, całe miasta, czy kraje. Idee stojące za basic income są wspaniałe. Świat bez ludzi głodujących czy umierających z pragnienia, możliwość wykorzystania czasu na działalność twórczą i artystyczną, zamiast w wielu przypadkach trwonienia go w pracy zupełnie bezmyślnej, którą mogłyby wykonywać maszyny, brzmi pięknie. Ale jak to zwykle bywa, pomysł to jedno, a jak on zostanie wdrożony i wykorzystany przez ludzi – to zupełnie co innego.

Jeżeli chodzi o zawody, z pewnością niektóre znikną całkowicie, inne odrodzą się w trochę zmienionej formie. Przeszliśmy rewolucję przemysłową, trudno oczekiwać, że już nigdy nie nadejdzie kolejna. W związku ze wzrostem automatyzacji powinniśmy pomyśleć przede wszystkim o edukacji i tak zmodernizować szkołę, by odpowiadała nadchodzącym realiom. Czy nadal ważne jest wkuwanie na pamięć jak 200 lat temu, jeżeli wiele z tych informacji można sprawdzić jednym klikiem? Nie mówiąc już o tym, że samej informacji jest zwyczajnie znacznie więcej… Czy może raczej powinniśmy postawić na rozwój wyobraźni, której na razie nie jesteśmy w stanie zautomatyzować; na rozumienie praw i pojęć, i przede wszystkim na zdolność krytycznego myślenia, tak byśmy nie zatonęli w powodzi informacji, która jak coraz częściej widać, pełna jest nieprawdy.

Na koniec – czy sztucznej inteligencji należy się też bać? Są jakieś zagrożenia? Czy może się ziścić scenariusz jak z wizji Kubricka lub Scotta?

Chyba daleko nam jeszcze do tego etapu, z globalnym ociepleniem może wcale do niego nie dojdziemy, ale jeżeli będziemy mieć odpowiednio dużo czasu, czemu nie? Przecież sami wiemy, że jeszcze daleko nam do ideału, a ewolucja wciąż działa, czy tego chcemy, czy nie.

Rozmowę przeprowadził Jakub Mazurkiewicz.

 


Rozmowa z dr Emilią Witkowską Nery

Dr Emilia Witkowska Nery

Chemik analityk z zamiłowaniem do biologii i smykałką do inżynierii. Ukończyła biotechnologię na Politechnice Warszawskiej, obroniła doktorat z chemii analitycznej na University of Campinas w Brazylii, a obecnie pracuje w Instytucie Chemii Fizycznej PAN. Otrzymała Nagrodę dla Wybitnego Młodego Naukowca przyznawaną przez Ministerstwo Nauki i Szkolnictwa Wyższego oraz prestiżowy grant Lider fundowany przez Narodowe Centrum Badań i Rozwoju. W chwilach wolnych pisze książki i teksty podróżnicze, oraz opowiadania dla dzieci. Zdarzyło jej się także przebiec dystans maratoński w przebraniu feniksa, ale to już dłuższa historia.

Zainteresowany/a Artykułem?

Staramy się cały czas rozwijać, ... oferować coraz to lepszej jakości treści. Dla wybranych artykułów treść dostępna jest tylko po zalogowaniu.

Zaloguj się

Nie masz jeszcze konta? Zarejestruj się



Udostępnij

Powiązane Artykuły

Futurologia, czyli przyszłość oczami... Matura to Bzdura!

Lenovo

Poznajmy technologię – jak działa komputer kwantowy?

Lenovo

Trzy przykazania innowacji - felieton Konstantego Młynarczyka

Lenovo

Komentarze do artykułu


widget instagram lenovo
widget twitter lenovo
widget facebook lenovo
widget youtube lenovo
Przeczytaj poprzedni wpis:
Znamy wyniki konkursu Profilmovo – sprawdź, czy wygrałeś!

Dziękujemy za zainteresowanie filmowym testem Lenovo. Jury zapoznało się ze wszystkimi nadesłanymi odpowiedziami i podjęło decyzję. A oto wyniki konkursu...

Zamknij