Sztuczna inteligencja w zmasowanym natarciu! To wygląda, jak kolejna rewolucja maszyn, które wypychają nas z rynku pracy, wygaszając sens istnienia poszczególnych zawodów. Gdy obserwowaliśmy zmierzch profesji typowo fizycznych, gdy ludzie byli zastępowani przez maszyny, to wydawało się to takie oczywiste, a obrońców starego porządku kojarzyliśmy z niektórymi scenami z „Ziemi obiecanej” Wajdy – miniona epoka i starcy, którzy nie rozumieją, że ich doświadczenie i wyuczone umiejętności już nikomu nie są potrzebne. Że powinni odejść w spokoju, a nie podejmować żałosną, z góry skazaną na niepowodzenie walkę. A dziś to my możemy być wypchnięci na zaplecze i pozostaje nam tylko się pocieszać, że przecież to normalne – profesje powstają, przeżywają swój rozkwit i umierają. I czasem umierają między pokoleniami do których należymy, a czasem nie. I wtedy odczuwamy koniec jakiejś epoki i jednocześnie niepokój przed tym, co przyniesie ta nowa.

     

    Dla lubiących bardziej słuchać, niż czytać ogłaszam, że tematyka tego tekstu jest też zbieżna z pierwszym odcinkiem mojego podcastu, który już w połowie lutego zadebiutuje na iTunes i w innych miejscach, ale odcinek tenże, dla czytelników bloga, już dziś:

    Pocieszamy się, tak jak wcześniej, że pewna grupa zawodów jest niemożliwa do zastąpienia przez maszyny, a nawet jeśli, to człowiek jest tak złożoną jednostką, że rewolucja szybko nie nastąpi. Można nas pokonać w pracach mechanicznych bardzo łatwo, ale wszędzie tam, gdzie liczy się to, co „ludzkie” jest to niemal niemożliwe. Ja dziś postawię tezę, że nastąpi to szybciej, niż nam się wydaje, a nasze dzieci i wnuki będą uczone przez roboty, jak futurystycznym serialu Jetsonowie.

    No to zobaczmy, gdzie z tą tezą dojdziemy.

    Giganci inwestują

    Ostatnie kilka lat to ogromne inwestycje w sztuczną inteligencję, o czym już kiedyś pisałem. Wtedy skupiłem się głównie na Watsonie – flagowym AI od IBM. Dziś w uczenie się maszyn i oprogramowania inwestują wszyscy, którzy chcę się liczyć w technologicznym wyścigu. Nie tylko IBM, ale Google, Facebook, Apple, Amazon, Microsoft czy chiński Baidu. Czy są już jakieś efekty?

    Słyszeliśmy już, że Watson pracuje jako prawnik czy lekarz, ale zdajemy sobie sprawę, jakie to odległe od nas. Tymczasem pomyślmy o przypadkach z Amazona. Przy czym trzeba sobie uzmysłowić, że Amazon to już od dawna nie jest po prostu sklep sprzedający kindla, książki na niego i inne pierdoły. W listopadzie 2016 roku firma Jeffa Bezosa zapowiedziała uruchomienie dużego pakietu narzędzi Artifical Intelligence dla swoich klientów. Pisał o tym m.in. TechCrunch w artykule Amazon launches Amazon AI to bring its machine learning smarts to developers – co jest niezwykle ciekawe samo w sobie, bo nie chodzi już o jakieś zmasowane prace nad AI, ale o to, aby dokonania Amazona na tym polu były bardziej dostępne dla twórców aplikacji, czyli – pośrednio – dla nas. Badania „wychodzą” z laboratorium i to za całkiem wysoką cenę:

    We do a lot of AI in our company, we have thousands of people dedicated to AI in our business.

    Andy Jassy – Amazon Web Services CEO

    To się wydaje odległe, ale już dziś przecież w obrębie produktów opartych o Amazon obsługuje nas Alexa – sztuczna inteligencja, której zadaniem jest nas zrozumieć i dostarczyć nam obsługę skrojoną na miarę naszych potrzeb, a nie uniwersalną. Nawet znany i dyskutowany jakiś czas temu temat dronów, których celem jest dostarczanie przesyłek, to przecież nie wyzwanie dla lotnictwa bezzałogowego, ale właśnie dla sztucznej inteligencji. Drony mogące unieść kilkukilogramowy ładunek i które precyzyjnie orientują się w przestrzenii to żadna nowość. Wyzwaniem jest zaprojektowanie całości tak, aby radziły sobie samodzielnie, bez udziału człowieka. Inaczej – to nie ma sensu.

    Teraz, przy okazji swojego dorocznego wydarzenia Amazon Web Services: re-Invent, cytowany przed chwilą Andy Jassy, przez ponad dwie godziny opowiadał o innowacjach z których w zasadzie już można korzystać, jeśli jest się developerem. Zapraszam w wolnej chwili, choć materiał jest długi, to warto, w końcu pokazuja naszą przyszłość:

     

    To dzieje się samo

    Wiem dobrze, że nic nie dzieje się samo, ale zaciekawił mnie ostatnio przypadek profesora Rekimoto z Uniwersytetu w Tokio. Pisał o tym N.Y. Times w artykule The Great A.I. Awakening. Jak ktoś chce, to może sobie ten tekst zostawić na deser, bo jest bardzo ciekawy, ale ma prawie 90 tysięcy znaków, a więc tyle co niejedna praca licencjacka.  Ja daję subiektywny skrót fragmentu w kontekście naszych dzisiejszych rozważań:

    Tak więc profesor Rekimoto pewnego piątkowego wieczora przygotowywał się do zajęć na uczelni (ach, ci Japończycy), gdy zauważył osobliwą rzecz. Posty tłumaczone w mediach społecznościowych wydawały się jakieś inne, lepsze niż dotychczas. Rekimoto jest na to wyczulony, bo jego specjalizacja to badanie interakcji człowiek-maszyna. Przerwał swoje przygotowania i zamiast pójść spać, zagłębił się na dobre w znany nam Google Translator. Najpierw wziął na warsztat japońskie tłumaczenie „Wielkiego Gatsbiego”, opierając się na dwóch pierwowzorach: Takashi Nozaki z 1957 roku i bardziej współczesnego by Haruki Murakami, którgo znamy i cenimy przede wszystkim jako pisarza. Trzecim tłumaczem był Google. Wersja z 1957 roku była, co oczywiste, dosyć klasyczna. Wersja Murakamiego z kolei bardziej współczesna, ale też zdecydowanie „w jego stylu”. Wersję Google Rekimoto określił jako najbardziej przejrzystą.

    Jun Rekimoto

    prof. Jun Rekimoto we własnej osobie

    Dzielny naukowiec postanowił obrać odwrotny kierunek. Tym razem z japońskiego na angielski. Wziął na warsztat „Śniegi Kilimandżaro” Hemingwaya. Najpierw samodzielnie przetłumaczył pierwsze akapity na japoński, a następnie ten sam fragment miał wrócić do języka oryginału za pomocą znanego i czasem wyśmiewanego Google Translate. W ten sposób powstały dwie angielskie wersje: oryginalna i ta, która przeszła porces podwójnego tłumaczenia ludzko-maszynowego. Teraz należało zaprząc do roboty studentów. Rekimoto dał im oba fragmenty do analizy i odkrył, że mimo pewnych niedoskonałości, nie tak łatwo było odróżnić, które dzieło należy do amerykańskiego noblisty, a które do tandemu człowiek-robot. Przy czym pamiętać trzeba, że Rekimoto doskonale zna zasadę działania Google Translatora, bo jej badaniem zajmuje się zawodowo, więc niełatwo go zaskoczyć. Jakie było więc jego zdziwienie, gdy po 24 godzinach Google zaproponował nowe, lepsze tłumaczenie, samoudoskonalając swoje mechanizmy. I teraz odróżnić oryginał od przeróbki mogli już tylko znawcy literatury, którzy ogryginał mieli pod ręką.

    Rekimoto wykorzystał swoją popularność i temat zautomatyzowanych tłumaczeń stał się numerem jeden z japońskich mediach społecznościowych. Ludzie zaczęli sami robić eksperymenty, oczywiście z różnym skutkiem, jednak 100 tyś. obserwujących twittera profesora Rekimoto, a także media i naukowcy zadawali sobie pytanie: jak to możliwe, że znany wszystkim Google Translator stał się nagle tak pomysłowy? Ekspresowo naprawił swoje błędy i podciągnął się w dziedzinie, w której do tej pory uznawany był za narzędzie przydatne, ale w żadnym wypadku nie zastępujące człowieka-tłumacza, bo nie potrafiące oddać kontekstu czy nawet robiące błędy składni i znaczeń.

    Odpowiedź padła kilka dni później w Londynie, na specjalnym spotkaniu dla dziennikarzy. Google zajmuje się tematem na poważnie od 2011 roku, od kiedy powstał projekt Google Brain, choć oczywiście o uczeniu się maszyn możemy mówić od lat 40. ubiegłego stulecia. Wcześniej jednak był to częściej temat spekulacji czy żartów, niż coś, co mogłoby przynieść realne korzyści czy jakkolwiek wpłynąć na naszą rzeczywistość. Wszystko odmieniło się niedawno i bez wielkiej fety. Google uruchomił swoje systemy tłumaczące na nowych maszynach i oparł się właśnie na samodzielnym uczeniu się. Google Brain wspiera też przede wszystkim Androida i jego systemy rozpoznawania mowy, ale także inteligentne wyszukiwanie obrazów w Google Photos czy rekomendowane wideo w YouTube. Sundar Pichai, CEO Google wie doskonale, że przyszłość firmy na której czele stoi, nie jest ulokowana w pracy ludzi, lecz w pracy robotów. To roboty, samodoskonaląc się, będą pisały software, a ludziom nie przypadnie nawet rola kontrolerów całego procesu, bo proces będzie odbywał się zbyt szybko dla naszych wątłych zmysłów.

    Londyńskie wydarzenie Google otwierał burmistrz tego miasta Sadiq Khan i zaczął od anegdoty: bliski współpracownik często powtarzał, że Khan jest jak Google. Czemu – dopytał któregoś dnia Khan – bo wiem wszystko? Nie – odparł współpracownik – bo zawsze próbujesz kończyć moje zdania. W pewnym sensie jest to doskonała definicja sztucznej inteligencji.

    Razem można więcej

    Całkiem świeża informacja, bo z piątku – Apple dołącza do Amazona, Facebooka, Googla i innych, i tworzą wspólny program rozwoju Artifical Intelligence. Całe działanie nazywa się Partnership on AI, a skład osobowy, potencjał biznesowy i intelektualny jego Rady Powierniczej (czy jak tam tłumaczyć Board of Trustees) pokazuje, że to właśnie tam, a nie w ONZ czy NATO, albo innych Brukselach tworzy się nasza przyszłość.

    This is a pivotal moment for the Partnership on AI, as we establish a diverse and balanced Board of Trustees that extends and broadens our existing leadership. The inclusion of varying perspectives and continuous, critical reflection has been a core commitment from the start, and we will continue to add new voices as we progress.

    Partnership on AI

    Pierwsze spotkanie przy słonych paluszkach i oranżadzie już 3 lutego. Ciekawe, co wymyślą. Możliwości mają sporo, bo połączony potencjał takich potęg jest niewyobrażalny, szczególnie, że firmy te „ogarniają” sporą część naszej rzeczywistości: software, hardware, social media, e-commerce itd. Jeśli będą tworzyły samouczącą się technologię razem, to zamiast wyścigu zbrojeń (jak ma to miejsce np. w rynku smartfonów) będziemy mieli rewolucję, bo wdrożone rozwiązania będą uniwersalne.

    Inteligentne uczenie

    No dobra, niech się roboty uczą, ale jak to się ma do uczenia nas przez roboty? Przecież to zupełnie odwrotny kierunek. Ja bym powiedział, że raczej dalsza część tego samego kierunku. Już dziś jeśli wykonujemy eksperyment oparty o komputer, to wynik tego eksperymentu jest od tego komputera zależny. Uczymy się z tego, co komputer nam przygotował. Różnica polega na tym, że ciągle jeszcze panujemy nad komputerem, ale to w końcu zacznie się zmieniać, bo badane procesy są coraz bardziej złożone.

    Futurolog Thomas Frey twierdzi, że w 2030 roku największą firmą technologiczną będzie jakaś oparta od edukację. Jakaś, ponieważ prawdopodobnie jeszcze nie istnieje, albo przynajmniej jeszcze o niej nie usłyszeliśmy. Może jest to więc jakiś start-up oparty o pomysł spisany na kartce papieru, który czeka na swój czas. To ciekawe w kontekście wspomnianych wcześniej zbrojeń gigantów.

    I’ve been predicting that by 2030 the largest company on the internet is going to be an education-based company that we haven’t heard of yet

    Thomas Frey

    android Piotr Maczuga sztuczna inteligencja

    Android to prawdopodobnie pierwszy system operacyjny w którym tak bardzo odczujemy istnienie sztucznej inteligencji, bo telefon ma każdy i wszędzie.

    Czy możemy się temu dziwić? Jeszcze dwadzieścia czy trzydzieści lat temu komputery w podstawówce to było coś, zazwyczaj zamknięte na klucz w sali informatycznej, bez pomysłu jak to wykorzystać (my wiedzieliśmy: Mortal Kombat!). Dziś uczeń z własnym tabletem to żaden szok. To właśnie urządzenia mobilne są ogromnym polem doświadczalnym i jednocześnie przez nie „dotykamy” A.I. na co dzień. Co prawda taka Siri w dalszym ciągu nie mówi po Polsku, więc jest dla nas dosyć nudną już zabawką, ale urządzenia korzystające z Androida powoli standardowo wyposażane są w uczących się asystentów, więc nadejdzie pora i na Polskę. Może kiedyś powstanie aplikacja w której będziemy mogli mierzyć się z innymi użytkownikami i sprawdzać czyj osobisty asystent jest najmądrzejszy.

    Nauczyciel-maszyna, a więc sztuczna inteligencja, powoli dochodzi do takiego poziomu, że będzie łatwiej i szybciej pracował z poszczególnym uczniem. Oczywiście, nie będzie to blaszany android na kółkach jak we wspomnianych Jetsonach, ale raczej model oparty na tym, co dziś proponuje Lynda, Khan Academy czy inne serwisy MOOC. Tyle, że zamiast człowieka nagrywającego lekcje na wideo będzie to automat, który nie tylko zajmie się uczeniem, ale i samodzielną analizą uczniów dobierając im materiały, metody czy tempo uczenia indywidualnie. Problem przerośniętych klas i przemęczonych nauczycieli, którzy muszą olewać najzdolniejszych, żeby skupiać się na najsłabszych zniknie sam. Razem z tymi nauczycielami?

    Tradycja trzyma się mocno

    Fray twierdzi, że mniej niż 14 lat, które dzieli nas od 2030 roku to trochę za mało, żeby roboty zastąpiły ludzi całkowicie. Będą ważne, ale nie najważniejsze. Wciąż jeszcze przeciętna maszyna, nawet dobrze wyszkolona, ma mentalność co najwyżej 5-latka. Choć to śmieszne, że w odniesieniu do robotów mówimy o mentalności, a więc cesze typowo ludzkiej.

    My, zamknięci w prowincjonalnych rejonach naszej ojczystej kultury, nie widzimy skali i możliwości zjawiska. Czytając fragment o Google Translate pewnie wielu pomyślało: „W Polsce i tak nie działa”. No ale w Wielkiej Brytanii już 4 tysiące podstawówek oferuje swoim uczniom korepetycje z matematyki w postaci spotkań online z hinduskimi tutorami. Jednak lata okupacji Półwyspu Indyjskiego teraz procentują, bo dzieciaki mogą wieczorami rozkminiać na Skajpie tajniki mnożenia, a po drugiej stronie mają bardzo ekonomicznego Hindusa dla którego angielski jest językiem oficjalnym, prawie ojczystym. No ale, co niezwykłe, nawet liczba Hindusów nie jest nieskończona. Nic więc dziwnego, że kombinują teraz na potęgę nie jak ich zastąpić, ale wesprzeć:

    What we are very interested in is the right blend of human and artificial intelligence in the classroom – identifying that sweet spot.

    prof. Rose Luckin, University College London

    To dobrze, że ktoś walczy jeszcze o to, żeby zmiany wprowadzane szybko i często niepostrzeżenie dla nas, nie niosły ze sobą toksycznych konsekwencji. Nawet w amerykańskim West Point zauważyli, że czasem uczenie wsparte technologią może przynieść dokładnie odwrotne rezultaty od oczekiwanych. W małych klasach, gdzie nauczyciel ma bliski kontakt ze studentem, a sam student jest mocno nastawiony na sukces (no bo tak działają przecież prestiżowe uczelnie, jak West Point) technologia może przeszkadzać. Z badań wynika, że osoby „wolne od technologii”, a więc robiące notatki ręcznie, a nie na laptopie, używające fiszek papierowych, a nie webowych, osiągały przeciętnie wynik lepszych o 1,7 punktu (w skali 100-punktowej) od swoich skomputeryzowanych kolegów. W takiej szkole 1,7 punktu może decydować o przyszłości.

    To jak w końcu będzie?

    Wirtualny nauczyciel oparty o AI to przyszłość, której nie unikniemy. Będzie on mądrzejszy i lepiej dostosowany, tańszy i bardziej wydajny. Poznamy też nowe znaczenie blended learning i poznamy sztukę odpowiedniego mieszania ze sobą tego, co ludzkie, z tym co maszynowe. Jednak to też wpływa na wszystko wokół nas i musimy być tego świadomi, bo kto chciałby, żeby jego dzieci uczyło coś, co w poprzednim pokoleniu było odkurzaczem. Giganci technologii pracują nad produktami, a nie ich użytkownikami, dlatego – pomijając działania CSR – nie muszą zadawać sobie zbyt wielu filozoficznych pytań o przyszłość człowieka. Naszym celem jest przygotować się na nadchodzące czasy i zająć w nich odpowiednie miejsce, może po raz ostatni w naszej historii będąc na szczycie drabiny ewolucyjnej.

    Wszystkie źródła, którymi się inspirowałem możesz znaleźć w moim magazynie na Flipboard – który jednocześnie jest kanałem do wcześniej wspomnianego podcastu.