Czy robot może napisać symfonię? Test Turinga – „Jesteś tylko robotem, imitacją życia. Czy robot może pokonać tę grę? Wadami terapii VR są stosunkowo wysoki koszt sprzętu i potencjalna fizjologiczna nietolerancja wirtualnej rzeczywistości.

Rozwój elementów systemów sztucznej inteligencji aktywnie się rozwija i staje się trendem dzisiejszych czasów, a inteligentnych botów nie piszą tylko leniwi. Dlatego przeprowadziliśmy wywiad z Dmitrijem shwarsem Soshnikovem, jednym z najlepszych ekspertów w dziedzinie sztucznej inteligencji w kraju. Jest ewangelistą technologii Microsoft, autorem książek, artykułów i tutoriali, a także koordynatorem programów dla nauczycieli i uczniów, specjalistą z zakresu programowania funkcjonalnego, sieci neuronowych i sztucznej inteligencji.


- Dmitry, proszę powiedz nam kilka słów o sobie i swojej pracy.

Dmitrij Sosznikow: Jako ewangelista Microsoftu zajmuję się popularyzacją i wdrażaniem najnowocześniejszych technologii firmy, obecnie przede wszystkim technologii związanych ze sztuczną inteligencją. Obejmuje to wystąpienia na konferencjach, pracę ze studentami i nauczycielami, start-upy, czasami udział w hackfestach i programowanie prototypowych systemów wspólnie z programistami z różnych firm. Popularyzuję także programowanie funkcjonalne i język F#, wykładam w MIPT, HSE i MAI oraz tworzę kursy online dla MVA i Coursera.

Moim zdaniem sieci neuronowe i w ogóle sztuczna inteligencja to bardzo ciekawy obszar, którego szybki rozwój w ostatnich latach umożliwił już rozwiązanie szeregu problemów, które wcześniej nie miały rozwiązania, jak np. automatyczne wyznaczanie wiek danej osoby na podstawie jej zdjęcia. A przyszłość niesie dla nas o wiele więcej interesujących możliwości.

Sieci neuronowe – moda czy narzędzie?

- Co dokładnie spowodowało w ostatnim czasie aktywny rozwój technologii sieci neuronowych?

Dmitrij Sosznikow: Tutaj z powodzeniem nałożyło się na siebie kilka czynników.
Po pierwsze, dostępna stała się przystępna cenowo moc obliczeniowa. Co więcej, dużą rolę odegrały usługi chmurowe, ponieważ zamiast inwestować w infrastrukturę do obliczania sieci neuronowych, można ją teraz wynajmować tylko na czas obliczeń, później rezygnując z wynajmu. Ponadto zaczęto stosować procesory graficzne, które pierwotnie były przeznaczone do grafiki komputerowej. Okazało się, że świetnie sprawdzają się w zadaniach związanych ze sztuczną inteligencją.

Po drugie, dzięki Internetowi w wielu obszarach zaczęły gromadzić się gigantyczne ilości danych. Rozważmy na przykład wspomniane wcześniej zadanie rozpoznania wieku danej osoby na podstawie fotografii. Aby wytrenować sieć neuronową do jej rozwiązania, potrzeba kilkuset tysięcy przykładów. Teraz możesz wziąć dowolny portal społecznościowy, w którym ludzie sami publikują swoje zdjęcia i informacje o koncie (wiek) - a my natychmiast otrzymujemy dane do szkolenia.
Po trzecie, oczywiście pojawiło się kilka interesujących badań, w tym nowe architektury sieci neuronowych, które pozwalają na rozwiązywanie istniejących problemów. Ale ten punkt jest prawdopodobnie konsekwencją dwóch pierwszych. Gdy dostępne są zasoby i technologie, obszar w naturalny sposób zaczyna się aktywnie rozwijać.

Tutaj również pojawiła się duża liczba narzędzi, które pozwalają na wykorzystanie tych sieci neuronowych. Jeśli wcześniej, aby rozwiązać problemy związane ze sztuczną inteligencją, trzeba było mieć dużą wiedzę i dużo programowania, teraz dostępne są usługi, z których możesz skorzystać i z których możesz skorzystać.

Temat sztucznej inteligencji jest dziś bardzo popularny. Ile z tej popularności jest zasłużone? Czy technologia jest naprawdę tak imponująca, czy też duży wpływ ma moda? I czy ta „moda” nie jest szkodliwa dla rozwoju?

Dmitrij Sosznikow: Rzeczywiście są duże sukcesy w dziedzinie AI, o których pisze się wiele, dlatego powszechnie słychać określenie „sztuczna inteligencja”. Dzięki temu pojawiają się nowi deweloperzy – ktoś idzie i studiuje dla siebie nowy obszar, tj. Jest więcej ludzi, którzy rozumieją ten obszar. Z drugiej strony ludzie uważniej szukają tych zadań, w których można zastosować technologie sztucznej inteligencji. Z tego punktu widzenia wszystko to w zasadzie jest dobre, ponieważ mamy szansę zautomatyzować pewne obszary, których wcześniej nie mogliśmy zautomatyzować.

Przykładowo problem przyjmowania zamówień możemy rozwiązać w oknie MacAuto. Zawsze starają się, aby rozwiązanie takich problemów było tańsze. Przykładowo w USA najpierw siedział tam Amerykanin, potem próbowano to zlecić na zewnątrz, przenosząc głos do kraju z tanią siłą roboczą (gdzie znowu ta osoba siedzi i dokonuje transkrypcji). A teraz może to zrobić komputer.

Czy uczestnicy rynku mają zawyżone oczekiwania? Czy są jakieś przewidywania, które Twoim zdaniem na pewno nie spełnią się w najbliższej przyszłości?

Dmitrij Sosznikow: Oczywiście. Przede wszystkim dziedzina sztucznej inteligencji jest nieco romantyczna. Jest sporo filmów – na przykład „Matrix” czy „Terminator” – w których roboty buntują się i przejmują kontrolę nad wszystkim. Dlatego też pewna liczba osób spodziewa się, że minie kolejne 5 lat i komputery przejmą władzę nad światem. Oczekiwania te najwyraźniej wciąż są dalekie od rzeczywistości. Obecnie rozwiązywanie niektórych klas problemów związanych z rozpoznawaniem obrazu, rozpoznawaniem mowy i uczeniem maszynowym jest bardzo dobrze zautomatyzowane. Jednak przed nami jeszcze długa droga, zanim zrozumiemy, jak ogólnie działa ludzkie myślenie. Dlatego przed stworzeniem takiej sztucznej inteligencji, która będzie myśleć jak człowiek i działać w oparciu o zgromadzoną wiedzę, pozostaje jeszcze wiele pracy do wykonania. Nie jest jeszcze bardzo jasne, jak to zrobić.

- A co z oczekiwaniami w zakresie inwestycji finansowych, a nie realizacji scenariuszy science fiction?

Dmitrij Sosznikow: Wydaje mi się, że do takiej rozmowy konieczne jest rozbicie tematu sztucznej inteligencji na osobne elementy, gdyż jest to bardzo szeroki obszar.

Jeśli spojrzymy na wizję komputerową, widzimy już niesamowite postępy, które są obecnie wdrażane w przedsiębiorstwach, zwiększając ich wydajność i przynosząc korzyści ekonomiczne. Wizja komputerowa już rozpoznaje obrazy lepiej niż ludzie, nie mówiąc już o tym, że jest znacznie tańsza.

W innych obszarach, takich jak zrozumienie języka naturalnego i umiejętność wyciągania wniosków na dowolne tematy, postęp był skromniejszy.

- Czy są czynniki, które Pana zdaniem utrudniają rozwój branży?

Dmitrij Sosznikow: Szczerze mówiąc, nie widzę żadnych oczywistych czynników. Myślę, że jest to obecnie najszybciej rozwijający się obszar.
Pragnę jednak zaznaczyć, że sztuczna inteligencja to dziedzina, która wciąż wymaga pewnych kwalifikacji. Praca w tym kierunku jest nieco trudniejsza niż tylko nauka programowania. Osoba, która ukończyła szkołę, a nie zdobyła wyższego wykształcenia, prawdopodobnie może z sukcesem rozpocząć pracę w obszarze doskonalenia standardów. W przypadku sztucznej inteligencji poprzeczka wejścia jest wyższa, choć stopniowo się obniża, m.in. dzięki wysiłkom uczestników tej branży. W szczególności jedną z rzeczy, nad którymi pracuje Microsoft, jest tzw. demokratyzacja sztucznej inteligencji. Oznacza to udostępnienie technologii możliwie najszerszemu segmentowi konsumentów.

W praktyce w tym kierunku działa nie tylko Microsoft, ale także wiele innych firm, dostarczając np. narzędzia do rozwiązywania problemów intelektualnych, poznawczych w postaci gotowych usług. Na przykład usługi określania płci, wieku i nastroju osoby na podstawie zdjęcia, możesz po prostu do niej zadzwonić i uzyskać wynik. To samo dotyczy tłumaczenia maszynowego itp. W ramach raportu na DotNext 2017 porozmawiamy o tym: jak można, nie rozumiejąc w ogóle, jak to dokładnie działa, po prostu korzystać z wyników.

Może A.NET?

- Porozmawiajmy o miejscu platformy .NET w segmencie sztucznej inteligencji. Na ile nadaje się do rozwiązywania takich problemów? Czy są jakieś funkcje, które pomagają lub odwrotnie utrudniają pracę z sieciami neuronowymi?

Dmitrij Sosznikow: Metody AI można wdrożyć w dowolnej technologii. Niemniej jednak istnieją pewne ustalone ekosystemy wokół podobnych zadań. Na przykład Python i R oraz towarzyszące im biblioteki są bardzo popularnymi językami wśród analityków danych. Te. jest tu już dużo pracy społecznej. Pod względem tych zmian oczywiście .NET pozostaje nieco w tyle, podobnie jak inne podobne platformy. Jednak .NET posiada już pewien zestaw narzędzi, o którym opowiem w ramach mojego raportu.

Ogólnie rzecz biorąc, platformy są obecnie w pewnym sensie zintegrowane, w tym między sobą. Ten sam język R bardzo dobrze integruje się z językiem F#, który jest natywny dla platformy .NET. W związku z tym, jeśli będziemy musieli skorzystać z jakichś narzędzi do uczenia maszynowego, możemy skorzystać z takiego łańcucha, wykorzystując możliwości i biblioteki języka R. Będzie to dość przejrzyste i łatwe do wykonania.

Ogólnie rzecz biorąc, jeśli mówimy konkretnie o sieciach neuronowych, Microsoft ma zestaw narzędzi poznawczych, który pozwala trenować sieci neuronowe. A ponieważ pierwotnie został zbudowany w ekosystemie Microsoft, bardzo dobrze współpracuje z .NET.

- To narzędzie w jakiś sposób wyróżnia się na tle analogów innych producentów?

Dmitrij Sosznikow: Zasadniczo Cognitive Toolkit jest odpowiednikiem frameworków TensorFlow, Caffe itp. firmy Microsoft.

Wszystkie są w zasadzie bardzo podobne ideologicznie. Jednak Microsoft Cognitive Toolkit jako pierwszy obsługiwał wysoce rozproszone środowisko szkoleniowe, w którym można trenować sieć neuronową nie tylko na jednym procesorze graficznym, ale na wielu procesorach graficznych lub nawet na wielu stacjach graficznych. Te. Możesz stworzyć farmę treningową sieci neuronowej.

O ile wiem, Cognitive Toolkit bije inne frameworki pod względem szybkości uczenia się. Poza tym jest bardzo wygodny w użyciu. Większość frameworków jest w taki czy inny sposób powiązana z językiem Python, ale Cognitive Toolkit początkowo poszedł nieco inną drogą. Początkowo możliwe było opisanie architektury sieci neuronowej w specjalnym języku, a następnie jej wytrenowanie bez budowania jakichkolwiek modeli w Pythonie. Było trochę łatwiej. Obecnie Cognitive Toolkit obsługuje obie opcje, tj. jest dość elastyczny.

- Prawdopodobnie są momenty, w których Cognitive Toolkit jest gorszy od swoich analogów?

Dmitrij Sosznikow: Ogólnie rzecz biorąc, takie struktury są narzędziami niskiego poziomu, na podstawie których można trenować dowolne sieci neuronowe. Podobnie jak jego odpowiedniki, Cognitive Toolkit obsługuje pewną warstwę bazową, na której można budować architekturę sieci o dowolnej złożoności. Dlatego zakres zadań rozwiązywanych przez różne narzędzia jest w przybliżeniu taki sam.

Wybór frameworka w dużej mierze zależy od osobistych preferencji i dostępności materiałów referencyjnych. I tutaj framework Microsoftu pozostaje nieco w tyle, ponieważ pojawił się nieco później, więc nie ma na nim tak dużej ilości materiałów, w szczególności kursów online. Ale sytuacja oczywiście stopniowo się stabilizuje.

Razem z MIPT planujemy udostępnienie kursu on-line poświęconego w szczególności problemom związanym z wykorzystaniem sztucznej inteligencji w praktyce. Zostaną tam również zawarte niektóre informacje dotyczące Cognitive Toolkit.

Bliska przyszłość

- Czy można już teraz przewidzieć, w jakim kierunku będzie podążał rozwój segmentu sztucznej inteligencji?

Dmitrij Sosznikow: Prawdopodobnie jest jeszcze za wcześnie na ostateczne prognozy, gdyż w latach 2011-2012 rozpoczął się niezwykle szybki rozwój technologii. Od tego czasu udoskonalono metody rozpoznawania, udoskonalono architektury sieci neuronowych, tj. wzrasta dokładność rozwiązywania problemów.

W tym segmencie jest jeszcze wiele nierozwiązanych kwestii. Problemy rozpoznawania obrazu i głosu zostały już rozwiązane na dość wysokim poziomie. Następnie, prawdopodobnie najciekawszą rzeczą, jest próba wydobycia jakiegoś znaczenia z tekstu. Tutaj także można znaleźć kilka naprawdę spektakularnych sukcesów. Można na przykład wytrenować sieć neuronową na fragmentach rozmów z filmów i otrzymać robota, który w jakiś sposób będzie potrafił podtrzymywać dialog. Ale jednocześnie dialog nie będzie miał większego znaczenia. Nie jest jeszcze jasne, jak przełożyć wiedzę na znaczenie, jak połączyć ukrytą reprezentację wiedzy w sieciach neuronowych z rozumowaniem symbolicznym. To jest kierunek badań, jaki będą podążać naukowcy.

Jeśli chodzi o narzędzia, są one obecnie aktywnie rozwijane. W pewnym sensie producenci narzędzi starają się podążać za postępem naukowym w swojej dziedzinie. Pojawiają się nowe architektury sieciowe – ich obsługa pojawia się w narzędziach, tj. Funkcjonalność jest stale rozwijana.

Jak mówiłem wcześniej, z punktu widzenia dewelopera zauważalny jest trend w kierunku demokratyzacji sztucznej inteligencji, a w szczególności narzędzi. Oprócz wspomnianego Microsoft Cognitive Toolkit istnieje ciekawe narzędzie o nazwie Azure Machine Learning, które pozwala zastosować je do rzeczywistych danych bez głębokiego zrozumienia implementacji wszystkich algorytmów uczenia maszynowego i sprawdzić, czy uda się zidentyfikować jakieś wzorce i wykorzystaj je dalej w swoich produktach. To narzędzie również jest dość intensywnie rozwijane – wprowadzane są w nim nowe metody i algorytmy.

Ogólnie rzecz biorąc, technologia staje się coraz bardziej dostępna. Złożone rzeczy są upraszczane, dzięki czemu można je wykorzystać w jak najszerszym zakresie projektów.
Kolejną kwestią, o której chciałbym wspomnieć jest to, że są to wciąż pierwsze eksperymenty w chmurze z wykorzystaniem wydajniejszych rozwiązań sprzętowych, które implementują algorytmy sztucznej inteligencji. Nie będziemy o tym rozmawiać na Dotnext, ale temat był szczegółowo omawiany na konferencji Microsoft Ignite. W chmurze Microsoft planuje oferować nie tylko klasyczne zasoby obliczeniowe, ale także programowalne układy logiczne: FPGA czy FPGA. W uproszczeniu są to chipy, które można sflashować w celu wykonania określonych operacji logicznych i które wykonają te operacje bardzo szybko. Dzięki takiemu schematowi możemy znacznie szybciej obliczyć sieć neuronową. Podczas eksperymentów procesor został „poproszony” o tłumaczenie z języka na język, w wyniku czego powieść „Wojna i pokój” została przetłumaczona z języka na język w 2 sekundy. Jeśli weźmie się pod uwagę wszystkie takie procesory, jakie Microsoft ma w chmurze, wówczas Wikipedię można przetłumaczyć z jednego języka na inny w czasie potrzebnym mrugnięciu okiem.

Więcej praktycznych informacji na temat wykorzystania sieci neuronowych i technologii sztucznej inteligencji w rzeczywistych projektach (m.in. na .NET) Dmitry przekaże w swoim raporcie na DotNext 2017 Piter („Dostępna sztuczna inteligencja na platformie .NET: od chatbotów i usług kognitywnych po głębokie sieci neuronowe").

Tagi: Dodaj tagi

Test Turinga jest zasadniczo testem, który odpowiada na pytanie „czy maszyny potrafią myśleć?” Oznacza to, że jest to zestaw testów, które może przejść tylko osoba lub doskonała sztuczna inteligencja zdolna do myślenia w ten sam sposób. To jest dokładnie to, o co jesteśmy proszeni w grze - udowodnienie, że jesteś Homo sapiens. Moim zdaniem to kwestia zasady!

Ci, którym spodobały się łamigłówki Zasada Talosa i Portal, z pewnością docenią Test Turinga. Te gry naprawdę mają ze sobą wiele wspólnego. Można nawet powiedzieć, że tworzą odrębny podgatunek, wywodzący się właśnie z Portalu.

Przejście to zestaw testów logicznych, które należy rozwiązać po kolei. Podstawy mechaniki gry w Test Turinga tworzą kule energii, które należy włożyć do specjalnych komórek, aby otworzyć drzwi, uruchomić mechanizmy itp. Jedynym narzędziem, które pomaga w tej kwestii, jest pewien pistolet magnetyczny, który może wchłonąć te kule i wystrzelić je we właściwe miejsce.

W sumie jest ponad 70 testów, ale wiele z nich można wykonać w ciągu kilku sekund. Dlatego całe przejście nie zajmuje dużo czasu. Ogólnie rzecz biorąc, w grze jest kilka trudnych przeszkód, większość z nich można pokonać niemal na bieżąco. Niektórym łamigłówki mogą wydawać się zbyt proste, ale mi podobał się balans trudności. Wręcz przeciwnie, nie lubię być „głupi” przez długi czas w takich grach.



Ogólny pomysł jest również podobny do gier, które zainspirowały twórców. Rozważania filozoficzne i etyczne na temat inteligencji, na temat różnicy między człowiekiem a maszyną.

Jeśli chodzi o samą fabułę: główna bohaterka trafia na stację kosmiczną na zaśnieżonej powierzchni Europy, satelity Jowisza. Zniknęła kadra bazy, a wszystkim steruje sztuczna inteligencja, którą poznaje bohaterka. Będzie musiała przejść ten właśnie Test Turinga i dowiedzieć się, co przydarzyło się ludziom. Fabuła jest dość ciekawa, ale przedstawiona w tak małych fragmentach (kilka linijek komputerowych na początku każdego poziomu), że nie zauważa się jej przez niemal całą grę i zwraca się na nią uwagę dopiero pod koniec.

Czy robot może napisać symfonię lub zamienić kawałek płótna w arcydzieło sztuki? To pytanie pozostaje otwarte. Ale oto, co wiemy na pewno: nowoczesne nanoroboty medyczne są w stanie „odciąć tlen” guzowi, przenikając do krwioobiegu i dostarczać leki do dotkniętych komórek, nie uszkadzając zdrowych. Sieci neuronowe wkrótce wyprzedzą lekarzy w diagnozowaniu wielu chorób, a badania z wykorzystaniem technologii CRISPR już wkrótce będzie można wykonywać bez wychodzenia z domu. Przyszłość medycyny już nadeszła – dowiedzmy się, czego możemy się spodziewać po nowych metodach i jak wpłynie to na nasze zdrowie.

Zdiagnozuj: sztuczna inteligencja

Sukces leczenia w dużej mierze zależy od szybkiej i bezbłędnej diagnozy: w tym celu lekarz musi zgromadzić duże doświadczenie praktyczne i znać aktualne prace naukowe w swojej dziedzinie. Ale przy tak dużej liczbie nowych badań i opisów przypadków ukazujących się co miesiąc drukiem, gdzie znajdziesz czas na przestudiowanie tego wszystkiego? Tutaj z pomocą ludziom przychodzą komputery, które są w stanie przetworzyć ogromne ilości informacji w ciągu kilku sekund.

Dziś algorytmy analizy danych medycznych tworzą największe korporacje, m.in. Microsoft, IBM czy Google. Najczęściej ich opracowania opierają się na różnych formach samouczącej się sztucznej inteligencji, która potrafi odnajdywać wzorce w dużych zbiorach danych, takich jak skany mózgu czy obrazy podejrzanych narośli na skórze. Algorytmy takie są szkolone przy użyciu bibliotek zawierających tysiące przykładów, gdzie do każdego obrazu przypisana jest diagnoza postawiona przez wykwalifikowanego lekarza.

Sieci neuronowe nauczyły się już identyfikować wiele chorób równie skutecznie jak człowiek, a w niektórych przypadkach udaje im się nawet przewyższyć specjalistów.

Konwolucyjne sieci neuronowe (CNN) umożliwiają analizę wielu obrazów. Są to struktury głębokie (wielowarstwowe), w których każdy sztuczny neuron otrzymuje jedynie niewielki fragment sygnału wyjściowego warstwy poprzedniej. Stopniowo sieć uogólnia cechy lokalne, odtwarzając pełny obraz. Łącząc wszystkie dane, CNN może rozpoznać na oryginalnym obrazie różne szczegóły, w tym charakterystyczne elementy, na podstawie których lekarze stawiają diagnozę.

Technologie CRISPR pozwalają nie tylko eliminować przyczyny chorób, ale także identyfikować choroby, na przykład szukać śladów DNA lub RNA czynników zakaźnych.

O ile w kontekście terapii najczęściej wymienia się białko Cas9 związane z CRISPR, o tyle inne białka: Cas12a i Cas13a są zazwyczaj białkami „diagnostycznymi”.

W 2017 roku badacze z MIT wprowadzili technologię diagnostyczną o nazwie SHERLOCK (Specific High Sensitivity Enzymatic Reporter UnLOCKing). Wykorzystuje enzym Cas13a, który potrafi rozpoznać określone sekwencje RNA i przeciąć podobne nici RNA znajdujące się w pobliżu, całkowicie niszcząc podejrzany obiekt. Podobnie jak książka Sherlock Holmes, medyczny SHERLOCK jest w stanie odtworzyć pełny obraz wydarzeń na podstawie najmniejszego dowodu: technologia ta działa przy atomolowych (10–18 mol na litr) stężeniach kwasów nukleinowych. Metodę przetestowano na lentiwirusach zawierających fragmenty wirusa gorączki denga i wirusa Zika: SHERLOCK był w stanie wykryć cząsteczki patogenu i rozróżnić je od siebie w stężeniu nie większym niż dwa atomole.

Podczas badań okazało się, że odczynniki do diagnostyki przy użyciu SHERLOCKA można wysuszyć, a następnie odtworzyć, przy czym czułość metody nie spada znacząco. W przypadku testów przenośnych zaleca się użycie papieru z włókna szklanego. Autorzy opracowania szacują, że jeden system testowy będzie kosztować około 61 centów.

Inni badacze również pracują nad stworzeniem zestawów do testów CRISPR w domu. Ostatnio rozwój w tym obszarze zapoczątkowała Jennifer Doudna, jedna z pionierek medycznej rewolucji CRISPR. Jej zespół stworzył metodę o nazwie DETECTR (reporter trans CRISPR ukierunkowany na endonukleazę DNA), wykorzystującą białko Cas12a. Znajduje określone sekwencje DNA i tnie najbliższe cząsteczki reporterowe kwasu nukleinowego znakowane fluorescencyjnie dodane do próbki, tworząc sygnał. W ten sposób można wykryć ślady patogenów wielu chorób, w tym różnych szczepów wirusa grypy.


Zdaniem twórców takich systemów testowych analiza CRISPR zajmie nie więcej niż kilka godzin, a wyniki można uzyskać przez Internet. Wciąż jednak nie wiadomo, kiedy takie zestawy pojawią się w publicznej sprzedaży.

To iluzja: wirtualna rzeczywistość

O wirtualnej rzeczywistości często mówi się w kontekście gier komputerowych i „kina 3D”, ale technologia ta ma potencjał także w medycynie, i to nie w najbardziej oczywistych obszarach. Na przykład VR jest skutecznie stosowana jako lek przeciwbólowy.

Takie podejście stosuje oddział oparzeń w szpitalu uniwersyteckim Loyola w Illinois.Rozpoczęty zastosowany dziesięć lat temu: pacjenci szpitala bawią się na symulatorze podczas bolesnych zabiegówŚwiat Śniegu.

Akcja rozgrywa się na tle na wpół fantastycznych północnych krajobrazów z licznymi zaspami i zamarzniętymi rzekami, zadaniem bohatera jest zabawa w śnieżki z niedźwiedziami polarnymi, pingwinami i bałwanami. Aby ukończyć wszystkie poziomy, pacjent mimowolnie skupia się na zagadce i odwraca uwagę od doznań fizycznych. Skany mózgu MRI wykazały, że SnowWorld faktycznie zmniejsza odczuwanie bólu, dlatego pacjenci wymagają mniej silnych środków przeciwbólowych, które mogą być szkodliwe dla organizmu.

VR zastępuje lub uzupełnia leki przeciwbólowe w wielu dziedzinach medycyny. Technologia ta stosowana jest w celu łagodzenia bólu podczas porodu i podczas zabiegów stomatologicznych. Uśmierzające ból właściwości wirtualnej rzeczywistości są szczególnie istotne w świetle „kryzysu opioidowego” w Stanach Zjednoczonych – wiąże się to ze wzrostem popularności leków przeciwbólowych na receptę (np. OxyContin i Vicodin) w ostatnich dziesięcioleciach.

VR działa nie tylko na ból fizyczny: może także przezwyciężyć traumę psychiczną. Pierwsze eksperymenty miały miejsce pod koniec lat 90. XX wieku, kiedy psycholog Barbarze Rothbaum udało się złagodzić objawy zespołu stresu pourazowego u weteranów Wietnamu, wykorzystując wirtualne modele kokpitu helikoptera i polany w azjatyckiej dżungli. Technika ta uzupełniała terapię ekspozycyjną – stopniowe „podejście” do traumatycznych wspomnień, których świadomość pacjenta stara się unikać. Podobny schemat działa w leczeniu zaburzeń lękowych i fobii z wykorzystaniem wirtualnej rzeczywistości. Technologia pomaga radzić sobie z aerofobią i strachem przed wystąpieniami publicznymi: symulowane środowisko umożliwia wielokrotne „przećwiczenie” przerażającej sytuacji.

Wadami terapii VR są stosunkowo wysoki koszt sprzętu i potencjalna fizjologiczna nietolerancja wirtualnej rzeczywistości.

Część uczestników testów nowych metod leczenia doświadczyła „nudności” VR (choroba rzeczywistości wirtualnej), która powoduje takie same objawy jak choroba lokomocyjna czy morska. Według powszechnych hipotez oba zaburzenia wynikają z zaburzeń w funkcjonowaniu receptorów aparatu przedsionkowego lub konfliktu sygnałów pochodzących z aparatu przedsionkowego z narządami wzroku.

Programiści stworzyli już kilka metod, które mogą zmniejszyć „mdłości” VR. Na przykład możesz umieścić na ekranie nieruchomy obiekt, który będzie stale skupiał wzrok użytkownika. Autorzy technologii Nasum Virtualis proponują jako punkt wyjścia wykorzystać wirtualny obraz nosa znajdujący się na środku ekranu. Oczy gracza postrzegają to jako swój własny nos, dzięki czemu uczucie mdłości i zawrotów głowy ustępuje.