W latach 30. XVII wieku René Descartes przewidział, że pewnego dnia maszyny będą w stanie podejmować decyzje tak jak ludzie. Kartezjusz traktował ciało niczym maszynę, czym dał początki rozumienia funkcjonowania układu nerwowego oraz teorii odruchów półautomatycznych.
Dziś sztuczna inteligencja towarzyszy nam na co dzień w postaci wirtualnych asystentów, oprogramowań do analizy obrazów, wyszukiwarek internetowych, systemów rozpoznawania twarzy w telefonach, automatycznych samochodów czy obrazowania termicznego. Przykładów jest jednak znacznie więcej. Dziś dowiesz się więcej na temat początków sztucznej inteligencji oraz możliwości jej wykorzystania w optymalizacji SEO.
Aby móc opowiedzieć o początkach sztucznej inteligencji, musimy cofnąć się w czasie do roku 1950, kiedy to Alan Turing – brytyjski matematyk i kryptolog, zaproponował możliwość udawania człowieka w zdalnej rozmowie. To właśnie dzięki jego pracy podczas II Wojny Światowej rozszyfrowano kod Enigmy, niemieckiej maszyny szyfrującej wiadomości skonstruowanej przez Artura Scherbiusa.
Dziś mówimy o teście Turinga, który określa zdolność maszyn do posługiwania się naturalnym językiem, co ma świadczyć o posiadaniu umiejętności myślenia na sposób ludzki. Informatyk nazwał to wówczas żartobliwie „grą w udawanie” (imitation game), w której udział brało trzech uczestników: dwie osoby oraz maszyna. Podczas gry jeden z uczestników próbuje ustalić, kto jest kim w konwersacji.
Pomysł Turing pozwolił na założenie laboratorium AI na Uniwersytecie Carnegie Mellon. Jednak tylko uniwersytety oraz wielkie firmy mogły pozwolić sobie na zakup tak kosztownego sprzętu do badań.
Sam termin „sztuczna inteligencja” został wprowadzony w obieg naukowo-społeczny dopiero w 1965 roku. W tym czasie na konferencji naukowej w Dartmouth John McCarthy – amerykański informatyk – użył go w swoim wystąpieniu. Kilka lat później dzięki temu został laureatem Nagrody Turinga. Określeniem tym nazwał wówczas konstruowanie maszyn, o których działaniach można by powiedzieć, że przypominają przejawy ludzkiej inteligencji.
Rok później nastąpił przełom. Joseph Weizenbaum z Instytutu Technologii w Massachusetts opracował pierwszego w historii chatbota o imieniu Eliza. Był to przykład przetwarzania języka naturalnego, który dziś odnajdujemy w kontakcie choćby z Alexą czy Siri.
Lata 50–70. XX wieku określa się dziś mianem „latem sztucznej inteligencji”, jako szczególnie ożywionego okresu nad badaniami oraz prognozami możliwości. Przyczyniło się to do zwiększenia świadomości korzyści, jakie niesie za sobą AI, a co za tym idzie z większymi nakładami finansowymi. Niestety później przez dekadę trwała stagnacja, badacze napotykali zbyt wiele przeciwności, które spowolniły procesy rozwoju maszyn. Zaczęło się to jednak zmieniać wraz z rozwojem marketingu oraz wprowadzeniem do użytku publicznego wyszukiwarek internetowych. Kolejna zmiana przyszła w latach 90., kiedy wzrosła moc obliczeniowa programów komputerowych.
Skoro mowa o latach 90. nie sposób nie wspomnieć o programie uczenia maszynowego wprowadzonego przez firmę IBM do szkolenia zawodników szachowych. Chociaż komputer Deep Blue został zaprojektowany na przełomie lat 50. i 60. XX wieku, to dopiero w 1997 roku wykorzystano go po raz pierwszy w kontakcie z człowiekiem. Pokonał on wówczas mistrza świata w szachach – Garii Kasparowa. Był to przełom pod kątem badań nad algorytmami, które zaczęły być wykorzystywane przez największe wyszukiwarki, takie jak Google, Bing oraz Yahoo!.
Algorytmy samouczące się wykorzystywane są do analizy olbrzymich baz danych, poszukiwania zależności, tłumaczeń, sterowania głosem, rozpoznawania ludzkiej mowy czy opracowywania złożonych problemów.
Współcześnie mianem AI określa się technologie i dziedziny badań z pogranicza informatyki, kognitywistyki, psychologii, neurologii, matematyki i filozofii oraz programy komputerowe zdolne do funkcjonowania na zasadach podobnych do ludzkiego umysłu, a które nie poddają się działaniom algorytmów. Mowa tutaj o podejmowaniu decyzji bez posiadania danych, analizie i syntezie języków naturalnych, rozumowaniu racjonalnym, grach logicznych (takich jak szachy), inteligentnych robotach czy dowodzeniu twierdzeń. Postępy w tej dziedzinie wymagają ogromnych nakładów pracy oraz środków finansowych, stąd proces ten przebiega znacznie wolniej niż rozwój innych dyscyplin.
Search Engine Optimization to proces polegający na poprawieniu widoczności strony internetowej w organicznych wynikach wyszukiwania. Opiera się on na działaniach algorytmów oraz robotów wyszukiwarek internetowych, a także na intencjach użytkowników (UX).
Jest to algorytm uczenia maszynowego, który rozwija się od 2015 roku i jest wykorzystywany w celu wyświetlania jak najtrafniejszych wyników wyszukiwania. Hasło wpisane przez użytkownika sieci zostaje przekazane do interpretacji programowi. Tym, co odróżnia go od Algorytmu Koliber, jest fakt szybkiego uczenia się zachowań odbiorców. Coraz lepiej radzi sobie również z wyświetlaniem stron, które wcześniej nie były wyszukiwane bądź są znacznie trudniejsze w interpretacji.
Jak widzisz, możliwości AI są ogromne, a ich liczba wciąż rośnie. Każda z możliwości jest wciąż udoskonalana, a tym samym stanowi wyzwanie dla właścicieli stron pod kątem optymalizacji i pozycjonowania. Z pewnością całość tych działań ma na celu również wyeliminowanie technik Black Hat SEO, aby zapewnić użytkownikom sieci jak największe bezpieczeństwo oraz satysfakcję.
Chcesz zobaczyć o czym jeszcze pisaliśmy?
Rozpocznij
od bezpłatnej
konsultacji SEO
Zainwestuj w szczegółową konsultację SEO i dowiedz się więcej na temat wydajności Twojego sklepu internetowego. Przeprowadzimy dla Ciebie kompleksową analizę, dzięki której uzyskasz jasny obraz tego, co należy poprawić.