
Były czasy, kiedy nikt nie wierzył, że maszyny mogą myśleć. To były czasy największych przebojów science-fiction. A nawet czasy, kiedy nikt nie śnił o filmach, ale… Ludzie marzyli. Dziś? Mamy algorytmy, które piszą książki, malują obrazy i prowadzą rozmowy. To postęp czy iluzja? Historia Sztucznej Inteligencji to nie jest prosta linia. To wzloty i upadki. Ale czy to lot paraboliczny, który kiedyś zakończy się na poziomie, z którego wystartował, czy jednak poniesie naukę i ludzkość do gwiazd? Teraz science-fiction i marzenia ze starożytności stały się rzeczywistością, ale wszystko to jednak zaczęło się dawno, dawno temu.
AI, zanim jeszcze istniały komputery
Talos – mechaniczny strażnik Krety był jednym z pierwszych przykładów marzeń o AI. Golem – gliniana istota ożywiona magicznym słowem. Strażnik wykonujący polecenia człowieka, jednak i posiadający „instrukcję”, która dawała mu pewną swobodę. Ludzie od zawsze chcieli stworzyć coś, co działałoby jak oni albo i lepiej. Rozmyślali nad tym, jak stworzyć maszyny zdolne dosłownie wykonywać prace za nich – i to już tysiące lat temu. Nie wiedzieli jednak, jak to osiągnąć i marzyli, aż w końcu przyszła nauka.
Od liczenia do myślenia
Kiedy Charles Babbage w XIX wieku zaprojektował maszynę analityczną, nikt jeszcze nie myślał o AI w tej formie, jaką znamy obecnie. Zaprojektował on pierwszą koncepcję programowalnego komputera. Następnie pojawiła się Ada Lovelace, która powiedziała coś, co zmieniło wszystko: maszyny mogą robić więcej niż tylko liczyć. Być może już wiedzieli, dokąd to wszystko zmierza? Historia Sztucznej Inteligencji pisana od wieków zmierzała wielkimi krokami do…
XX wiek – przełom, który wszystko zmienił
Test Turinga.
Brytyjski naukowiec (matematyk i kryptograf) Alan Turing przedstawił pewną ideę – maszynę obliczeniową zdolną do symulowania dowolnego procesu myślowego. Koncepcję tę obecnie znamy jako „maszyna Turinga”. Jego prace postawiły jasne i wybrzmiewające od wieków pytanie: czy maszyny mogą myśleć? W 1950 roku wymyślił „test Turinga”, czyli test, który miał pokazać, czy komputer (program) jest w stanie udawać człowieka na tyle dobrze, aby oszukać ludzkiego „sędziego”. To właśnie ten konkretny moment uważany jest za jeden z pierwszych przełomów w historii Sztucznej Inteligencji. Czy komputer może oszukać człowieka i sprawić, by uwierzył, że rozmawia z innym człowiekiem? Wtedy niezupełnie. Ale co jest teraz, jeśli chodzi o AI? Obecnie test Turinga to bułka z masłem dla AI.

Alan Turing – brytyjski naukowiec, który położył podwaliny pod obecne rozumienie AI.
Za jego być może najważniejszą pracę matematyczną uważa się „On Computable Numbers with an Application to the Entscheidungsproblem„
Eksperymenty i pierwsze rozczarowania
W 1956 roku podczas konferencji w Dartmouth oficjalnie termin „Artificial Intelligence” (Sztuczna Inteligencja) powstał dzięki naukowcom. Ludzie tacy, jak John McCarthy, Marvin Minsky i Claude Shannon, wierzyli, że komputery będą wkrótce myśleć jak oni – jak ludzie. Powstały nawet pierwsze programy AI, na przykład General Problem Solver czy ELIZA – pierwszy chatbot symulujący rozmowę z człowiekiem!
Początkowe sukcesy napędzały rozwój AI (nie w takiej formie, jaką AI jest obecnie), która wykorzystywała reguły logiczne do modelowania swojego procesu myślowego.
Systemy ówczesnych AI potrafiły rozwiązywać skomplikowane zagadnienia matematyczne i udowadniać twierdzenia geometryczne, co jak na tamte czasy było niewiarygodne, a mimo to rzeczywiste.
Jednak już w latach 70. stało się jasne, że ówczesne możliwości komputerów (hardware, na jakim działała AI) są niewystarczające, aby urzeczywistniać kolejne cele naukowców. Historia Sztucznej Inteligencji zaczęła przeżywać swój pierwszy kryzys rozwoju od czasu pojawienia się jej po raz pierwszy. Kryzys ten nazwano „pierwszą zimą AI”.
„Zima AI” – czas, kiedy wszystko stanęło w miejscu
Optymizm lat 50. i 60. zmienił się w pesymizm lat 70. ubiegłego wieku. Finansowanie badań nad AI zostało ograniczone, a rozwój stanął w miejscu między innymi przez wspomniane wcześniej ograniczenia sprzętowe, ale i za sprawą kryzysu finansowania oraz raportu Lighthilla, który totalnie podważył użyteczność badań nad AI.
Ale historia AI to historia upadków i powrotów. Jak fala, która choć chowa się w oceanie, nadal ma wpływ na całość i kolejne fale, które powoli kreują linię brzegową.
Powrót AI – systemy ekspertowe i rewolucja sieci neuronowych
Choć lata 80. przyniosły następny boom AI (w formie systemów ekspertowych), szybko stało się jasne, że nie są one tak skuteczne, jak mogło się wydawać na początku – przynajmniej ich skuteczność była ograniczona. Prawdziwy przełom pojawił się później – w latach 90., kiedy to AI zaczęła korzystać z nowego podejścia: metod statystycznych i uczenia maszynowego, które sprawiły, że algorytmy przestały działać na zasadzie sztywnych reguł i zaczęły się… uczyć (!) na podstawie danych.
Jednocześnie nastąpił renesans sieci neuronowych, które wydawały się do niedawna nieodpowiednim kierunkiem rozwoju Sztucznej Inteligencji. Badania Geoffrey’a Hintona, Yanna LeCuna i Andrew Ng pozwoliły na opracowanie nowych, skutecznych metod trenowania głębokich sieci neuronowych, które – jak się miało okazać później – stały się podstawą szybkiego rozwoju współczesnej AI.
Jakie korzyści przyniosło to w krótkim czasie? Zastosowanie rozpoznawania obrazów, przetwarzanie języka naturalnego oraz analizowanie dużych zbiorów danych, tzw. „big data”.
Era deep learning i współczesna AI
W 2012 roku powstaje AlexNet – pierwsza konwolucyjna sieć neuronowa, która była zdolna do klasyfikacji obrazów (np. rozpoznawania, czy na zdjęciu jest kot, czy pies – a zapewniam, że czasami nawet człowiek może się pomylić) – co rozpoczęło erę głębokiego uczenia. To właśnie dzięki temu rozwój AI przyspieszył i można go już było nazwać wzrostem wykładniczym. Kolejne lata to pojawienie się AI, takich jak GPT-2, Sophia, LLaMDA (Google), GPT-3, które były w stanie generować tekst brzmiący jak ludzki (choć w wielu przypadkach odróżnialny), oraz DALL-E, uczony na milionach obrazów, dzięki czemu sam obecnie potrafi je tworzyć w sposób realistyczny, a nawet kreatywny – choć kreatywność do tej pory ludzie zawłaszczali dla siebie. (jeśli chcesz dowiedzieć się więcej o AI w kontekście jej rozwoju przeczytaj także:
aiamnova.comDo 2022 roku AI stała się nie tylko narzędziem naukowym, ale i po prostu codziennością – asystenci głosowi, systemy analizy danych w medycynie, AlphaFold, który pomaga w przewidywaniu struktur białek, czy AlphaGo, który wygrał w „Go” z człowiekiem… a potem został pokonany przez AlphaGo2.

Sophia – do niedawna jedna z najbardziej zaawansowanych robotów dialogowych z umysłem AI. Jej historia sięga oficjalnie 2015 roku. Udzieliła wielu wywiadów na całym świecie. W październiku 2017 została obywatelem Arabii Saudyjskiej i w ten sposób stała się pierwszą AI która otrzymała obywatelstwo jakiegokolwiek kraju.
https://commons.wikimedia.org/wiki/File:Sophia_(robot).jpg
Dokąd zmierzamy?
Nikt tego nie wie. Możemy jedynie spekulować.
Historia AI to historia prób, błędów, marzeń i porażek.
Każdy wielki przełom poprzedzały lata stagnacji i krytyki.
A może… AI kiedyś sama napisze własną historię? Jednego można być pewnym – AI pojawiła się w umysłach ludzi już tysiące lat temu, a od kiedy pojawił się pierwszy sztuczny neuron, od kiedy pojawiła się LLaMDA i GPT, Gemini, Grok czy Claude – można być pewnym, że historia Sztucznej Inteligencji dopiero się zaczęła.
Źródła: