Pułapki sztucznej inteligencji

Prace nad sztuczną inteligencją (AI – Artificial Intelligence) są prowadzone od dawna przez wiele ośrodków naukowych. O wyścigu na tym polu między firmami high-tech można było m.in. przeczytać wiosną br. w artykule „Google, Facebook and other tech companies race to develop artificial intelligence”, który ukazał się w kalifornijskiej gazecie San Jose Mercury.

Wiodące firmy technologiczne zatrudniają ekspertów oraz przejmują mniejsze firmy zajmujące się AI. I tak Google zapłacił w styczniu br. 400 mln USD za Deepmind, brytyjski start-up pracujący nad zastosowaniem sztucznej inteligencji w e-commerce, w grach wideo oraz przy rozpoznawaniu obrazów. Gigantom IT nie przyświecają jednak stricte naukowe cele, liczą bowiem oni, że uda im się stworzyć systemy, które pomogą lepiej rozpoznawać potrzeby konsumentów i przewidywać, jakiego rodzaju informacje i obrazy (w tym reklamy) chcą oni oglądać – piszą autorzy artykułu.

Giganci IT liczą, że uda im się stworzyć systemy, które pomogą lepiej rozpoznawać potrzeby konsumentów i przewidywać, jakiego rodzaju informacje i obrazy chcą oni oglądać

Istnieje też duże zainteresowanie wykorzystywaniem sztucznej inteligencji do poprawy wydajności osobistych asystentów w smartfonach, takich jak Apple Siri, Google Now czy Cortana – wprowadzony w tym roku przez Microsoft. Istnieje pewne prawdopodobieństwo, że dzięki temu kolejną liczącą się na rynku wyszukiwarką internetową może stać się osobisty asystent w telefonie komórkowym. O wiele łatwiej będzie wtedy „zapytać własny smartfon” o najbliższy fast food czy o najlepszą cenę 50-calowego telewizora HD, niż jak dotychczas wpisywać zapytanie w polu wyszukiwania – zauważa w swoim blogu Bill Schmarzo z EMC.

Intencje firm prowadzących badania nad naśladowaniem działania ludzkiego mózgu (jak choćby IBM z superkomputerem Watson, który odpowiada na pytania zadawane w języku naturalnym) mogą w niektórych przypadkach budzić pewne obawy. Jeśli użyteczność osobistego asystenta w smartfonie trudno kwestionować, to czy tak naprawdę chcemy replikować w systemach IT często irracjonalne i obciążone emocjami decyzje podejmowane przez człowieka – pyta Bill Schmarzo.

W wielu obszarach decyzyjnych ludzie wybierają niekoniecznie optymalne rozwiązania, co wynika – jak tłumaczą psychologowie – z takich ograniczeń, jak: zbytnia pewność siebie, awersja do podejmowania ryzyka, szablonowe myślenie czy trzymanie się przyzwyczajeń. I tak na przykład cała hazardowa machina Las Vegas jest w dużej mierze oparta na pułapkach ludzkiego umysłu – zwraca uwagę jeden z czytelników bloga eksperta EMC. W racjonalnym świecie nikt nie weźmie udziału w grze, w której z każdego postawionego tysiąca dolarów średnio zwraca się niecały dolar. Ludzie wolą jednak pamiętać wygrane (wzmacniane w kasynach iluminacjami, drinkami i zgiełkiem) niż ponoszone straty.

Systemy IT i aplikacje można wykorzystywać do korygowania niedoskonałości ludzkiego umysłu i wspomagania procesów decyzyjnych, opartych na danych i zaawansowanych modelach analitycznych

Dlatego systemy IT i aplikacje (np. narzędzia analityczne typu Big Data) można wykorzystywać do korygowania niedoskonałości ludzkiego umysłu i wspomagania procesów decyzyjnych, opartych na danych i zaawansowanych modelach analitycznych – przekonuje Schmarzo. Środowisko komputerowe gwarantuje racjonalne podejście, eliminując wpływ czynników emocjonalnych czy zakorzenionych błędów decyzyjnych. Z drugiej strony ostateczne decyzje nadal wymagają czynnika ludzkiego, aby potwierdzić zasadność komputerowych zaleceń oraz doskonalić modele biznesowe, uwzględniając przy tym zmieniające się warunki rynkowe i technologiczne.

Źródło: artykuł „Pułapki sztucznej inteligencji”, Stefan Kaczmarek, IT Polska News.

[ZOBACZ INNE WPISY W JĘZYKU POLSKIM]

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *