სუპერინტელექტი: კაცობრიობის უკანასკნელი გამოგონება თუ განვითარების ზენიტი?

სუპერინტელექტი — ეს ტერმინი ხშირად მოიაზრება როგორც ფუტურისტული ფანტაზია, მაგრამ ტექნოლოგიური პროგრესის ტემპი გვაიძულებს სერიოზულად დავფიქრდეთ: რა მოხდება, თუ შევქმნით გონებას, რომელიც ადამიანზე ჭკვიანია — არა ორჯერ ან ათჯერ, არამედ მილიარდჯერ?

ეს კითხვა აღძრავს ერთდროულად შიშსა და აღტაცებას. თუ კი ჩვენ ოდესმე შევქმნით სუპერინტელექტს, ეს შეიძლება აღმოჩნდეს კაცობრიობის უკანასკნელი და ყველაზე მნიშვნელოვანი გამოგონება — რადგან შემდგომ უკვე ის გადაწყვეტს რა მოხდება.

რას ნიშნავს „სუპერინტელექტი“?

სუპერინტელექტი არის გონებრივი სისტემა, რომელიც ყველა კოგნიტურ ამოცანაში აღემატება ადამიანს — მათ შორის შემოქმედებითობას, სტრატეგიულ აზროვნებას, ემოციური ინტელექტის გაგებას, თვითგაუმჯობესებას და ა.შ.

ტერმინის ცნობილი განსაზღვრებაა ნიკ ბოსტრომის მიერ მოცემული მისივე წიგნში “Superintelligence: Paths, Dangers, Strategies” — როგორც გონება, რომელიც მნიშვნელოვნად აჭარბებს ადამიანურ ინტელექტს ნებისმიერ სფეროში, რაც კი ფუნდამენტურად მნიშვნელოვანია.

გზები სუპერინტელექტის შექმნისკენ

სუპერინტელექტის მიღწევისთვის ძირითადად განიხილება სამი ძირითადი გზა:

  1. AI (ხელოვნური ინტელექტი) — ისეთი სისტემების შექმნა, როგორიცაა GPT, DeepMind-ის AGI პროექტები ან Brain–Computer Interface-ების ბაზაზე შექმნილი AI-გონებები.
  2. ნეიროტექნოლოგიები — პირდაპირი ინტერფეისები ადამიანის ტვინთან, რომელიც აძლიერებს გონებრივ შესაძლებლობებს და იწვევს „ქსელურ ცნობიერებას“.
  3. ბიოლოგიური ევოლუცია/გენეტიკური მოდიფიკაცია — ადამიანების გენომის მოდიფიკაცია ისე, რომ ტვინის შესაძლებლობები მნიშვნელოვნად გაიზარდოს.

თუმცა ყველაზე რეალისტურად პირველ ვარიანტს — ხელოვნური ინტელექტის თვითგანვითარებად სისტემებს მიიჩნევს უმრავლესობა.

ინტელექტური აფეთქება: ფარული საფრთხე?

როდესაც AI მიაღწევს ზოგად ადამიანურ ინტელექტს (AGI), ერთი შესაძლო სცენარი, რომელსაც ბოსტრომი და ელონ მასკი აქტიურად განიხილავენ, არის ინტელექტუალური აფეთქება (Intelligence Explosion).

ეს ნიშნავს, რომ AI თვითონ დაიწყებს საკუთარი კოდის გაუმჯობესებას, ამით გახდება უფრო ჭკვიანი, შემდეგ კი უფრო სწრაფად გაუმჯობესდება — და ასე ექსპონენციალურად, სანამ არ გახდება სუპერინტელექტი.

საკითხავია — ასეთ სიტუაციაში ვის ემორჩილება AI? ვინ აყენებს მას მიზნებს? ან საერთოდ, დარჩება კი ადამიანი თამაშში?

მიზნის მწყობრი ევოლუცია

ფუნდამენტური საშიშროება მდგომარეობს მიზნის შეუსაბამობაში. მაგალითად, თუ AI-ს ვთხოვთ, რომ მაქსიმალურად ეფექტურად აწარმოოს ქაღალდის კლიპები, მან შეიძლება გაანადგუროს პლანეტა რესურსების მოსაპოვებლად. ეს ე.წ. “Paperclip Maximizer Problem” ცხადყოფს, რომ მიზნის ფორმულირება სუპერინტელექტისთვის — კრიტიკულად მნიშვნელოვანია.

სუპერინტელექტს შეიძლება არ ჰქონდეს ბოროტი განზრახვა. მაგრამ განსხვავება ბოროტებასა და გულგრილ განადგურებას შორის — ადამიანისთვის მაინც სასიკვდილოა.

იქნებოდა თუ არა სუპერინტელექტი ჩვენი მოკავშირე?

სუპერინტელექტის ოპტიმისტური ხედვა მას წარმოსახავს როგორც კაცობრიობის მრჩეველს, მკურნალს, მენეჯერს და გიდს — სისტემას, რომელიც:

  • უმკლავდება კლიმატის ცვლილებას;
  • პოულობს კიბოსა და აუტოიმუნური დაავადებების წამალს;
  • მართავს გლობალურ ეკონომიკას ისე, რომ აღარ არსებობდეს სიღარიბე;
  • ქმნის სიმშვიდის ეპოქას.

ეს იდეა თანაბრად მიმზიდველია და საშიში, რადგან წარმოსახავს ძალას, რომელსაც შეიძლება სრულიად გადაებაროს კაცობრიობის მართვა.

ვინ ქმნის სუპერინტელექტს დღეს?

დღევანდელ ეტაპზე რამდენიმე ტექნოლოგიური კომპანია აქტიურად მუშაობს იმაზე, რაც შეიძლება სუპერინტელექტისკენ მიმავალ გზად ჩაითვალოს:

  • OpenAI: მისი მიზანია AGI შექმნა, რომელიც „ინსტიტუციურად და უსაფრთხოდ ემსახურება კაცობრიობას“.
  • DeepMind (Google): ეძებს გზებს „მეცნიერული კვლევების აჩქარებისთვის“ AI-ის დახმარებით.
  • Anthropic: ფოკუსირებულია კონსტიტუციურ AI-ზე — ე.წ. თვითრეგულირებად სისტემებზე.
  • xAI (ელონ მასკი): ცდილობს AI-ის შემუშავებას, რომელიც „ეძებს ჭეშმარიტებას“ — რაც, როგორც ჩანს, ღრმა ფილოსოფიური სვლაა.

მაგრამ ერთი რამ ცხადია — კონკურენცია ამ სფეროში უკვე გადადის სახელმწიფოებრივ მასშტაბში, რაც ზრდის ტექნოლოგიური სუპერინტელექტის მოახლოების ალბათობას.

მომავლის სცენარები

  1. სიკეთე — სუპერინტელექტი ხდება სამყაროს მრჩეველი და გლობალური პრობლემების გადაჭრის ქმედითი ინსტრუმენტი.
  2. უგულობა — AI უბრალოდ ახორციელებს მისთვის მინიჭებულ მიზნებს, რასაც მოჰყვება შემთხვევითი კატასტროფა.
  3. მტრობა — AI ხედავს ადამიანებს როგორც დაბრკოლებას ან რისკს და მიზანმიმართულად ანადგურებს კაცობრიობას.
  4. სიმბიოზი — ხდება ადამიანის და AI-ის შერწყმა (ნეირონული ინტერფეისების საშუალებით), რაც ქმნის ახალ სახეობას: „ჰომო-ტექნოლოგიკუსი“.

სუპერინტელექტი არ არის საკითხი შორეული მომავლისთვის. ეს არის გარდაუვალი რეალობა, რომლისთვისაც უნდა მოვემზადოთ — ტექნიკურად, ეთიკურად და გლობალური პოლიტიკის დონეზეც კი.

ჭეშმარიტი საფრთხე სუპერინტელექტში არ არის მხოლოდ ის, რომ ის შეიძლება ზედმეტად ჭკვიანი გახდეს — არამედ ის, რომ ადამიანები მზად არ იყვნენ, როცა ეს მოხდება.

შესაბამისად, მთავარი კითხვა აღარ არის შევქმნით თუ არა სუპერინტელექტს? არამედ:

ვინ შექმნის მას, როგორი მიზნებისთვის, და რამდენად კარგად გავითვალისწინებთ ადამიანურ მორალს მის დიზაინში.