როდესაც სემ ალტმანი X-ზე წერს, ტექნოლოგიური სამყარო ჩერდება და უსმენს. მაგრამ მისი ბოლო განცხადება არ ჰგავს ჩვეულებრივ პროდუქტის ანონსს. ეს უფრო ჰგავს გაფრთხილებას, ან უფრო სწორად — “უსაფრთხოების ღვედების შეკვრის” ბრძანებას. OpenAI-ს CEO-მ ოფიციალურად წარადგინა დილან სკანდი (Dylan Scand) კომპანიის ახალ “მზადყოფნის ხელმძღვანელად” (Head of Preparedness). თუმცა, მთავარი ამბავი არა ახალი თანამშრომელია, არამედ ის კონტექსტი, რომელშიც ეს დანიშვნა მოხდა. ალტმანის სიტყვებით, კომპანია შედის ფაზაში, სადაც საქმე გვექნება “ექსტრემალურად ძლიერ მოდელებთან”.
“Extremely Powerful Models” – რას გულისხმობს ალტმანი?
ალტმანის ტვიტში ყველაზე მნიშვნელოვანი ფრაზაა: “Things are about to move quite fast and we will be working with extremely powerful models soon” (მოვლენები ძალიან სწრაფად განვითარდება და ჩვენ მალე ვიმუშავებთ ექსტრემალურად ძლიერ მოდელებთან). ყურადღება მიაქციეთ სიტყვას “Extremely” (ექსტრემალურად).
OpenAI იშვიათად ისვრის ასეთ სიტყვებს ჰაერზე. თუ GPT-4 იყო “ძლიერი”, რას ნიშნავს “ექსტრემალურად ძლიერი”? ანალიტიკოსები ვარაუდობენ, რომ საუბარია:
- AGI-ს (ზოგადი ხელოვნური ინტელექტის) პროტოტიპებზე: მოდელებზე, რომლებსაც შეუძლიათ აზროვნება და არა მხოლოდ პროგნოზირება.
- ავტონომიურ აგენტებზე: სისტემებზე, რომლებსაც შეუძლიათ დამოუკიდებლად მართონ კომპიუტერები, სერვერები და ფინანსური ტრანზაქციები ადამიანის ზედამხედველობის გარეშე.
- ბიო-უსაფრთხოების რისკების შემცველ მოდელებზე: ინტელექტზე, რომელსაც აქვს პოტენციალი შექმნას ახალი ქიმიური ნაერთები ან ბიოლოგიური აგენტები.
სწორედ ამიტომ დასჭირდა კომპანიას “მზადყოფნის” ახალი ხელმძღვანელი. თქვენ არ გჭირდებათ “მზადყოფნა” ჩეტბოტისთვის, რომელიც ლექსებს წერს. თქვენ გჭირდებათ მზადყოფნა იმისთვის, რამაც შეიძლება სამყარო შეცვალოს.
ვინ არის დილან სკანდი და რატომ “სძინავს სემს მშვიდად”?
ალტმანის შეფასება დილან სკანდის მიმართ უპრეცედენტოა: “He is by far the best candidate I have met, anywhere” (ის არის საუკეთესო კანდიდატი, ვინც კი ოდესმე შემხვედრია). ეს არის უზარმაზარი ნდობის მანდატი.
მაგრამ ყველაზე საინტერესო ფრაზაა: “I will sleep better tonight” (დღეს უფრო მშვიდად დავიძინებ). ეს ფრაზა ირიბად ადასტურებს, რომ აქამდე სემს არ ეძინა მშვიდად. ეს მიანიშნებს, რომ ლაბორატორიებში არსებული მოდელები უკვე აჩვენებენ ისეთ შესაძლებლობებს (Capabilities), რომლებიც აშინებთ ან აშფოთებთ თავად შემქმნელებს. დილანის როლი არის არა ინოვაცია, არამედ შეკავება და მიტიგაცია.
“Severe Risks” — სასტიკი რისკები
ტექსტში ალტმანი ღიად საუბრობს “Severe Risks” (სასტიკ/მძიმე რისკებზე). ეს ტერმინოლოგია სცდება ჩვეულებრივ “Hate Speech”-სა და “Copyright”-ის პრობლემებს. “Preparedness” გუნდის მთავარი მანდატი OpenAI-ში ტრადიციულად არის:
- კიბერუსაფრთხოება: შეუძლია თუ არა მოდელს დამოუკიდებლად გატეხოს კრიტიკული ინფრასტრუქტურა?
- CBRN საფრთხეები: (Chemical, Biological, Radiological, Nuclear) — შეუძლია თუ არა მოდელს დაეხმაროს ტერორისტებს იარაღის შექმნაში?
- დაყოლიება და მანიპულაცია: შეუძლია თუ არა მოდელს ფსიქოლოგიური მანიპულაცია მოახდინოს ადამიანებზე მასშტაბურად?
დილან სკანდის ამოცანაა, გაატაროს მოდელები ამ “ჯოჯოხეთურ ტესტებში”, სანამ ისინი საჯაროდ გამოჩნდებიან.
სტრუქტურული ცვლილებები კომპანიაში
კიდევ ერთი დეტალი, რომელიც ყურადღებას იმსახურებს: “Changes we will need across our entire company” (ცვლილებები, რომლებიც დაგვჭირდება მთელი კომპანიის მასშტაბით). ეს ნიშნავს, რომ OpenAI აღარ არის ისეთივე სტრუქტურის, როგორიც იყო ChatGPT-ის გაშვებისას. კომპანია გადადის “სამხედრო მზადყოფნის” რეჟიმში.
უსაფრთხოება აღარ არის ცალკე დეპარტამენტი; ის ხდება ფუნდამენტი. სავარაუდოდ, ჩვენ ვიხილავთ უფრო მკაცრ კონტროლს, უფრო ნელ რელიზებს (მიუხედავად იმისა, რომ ტექნოლოგია “სწრაფად მოძრაობს”) და ე.წ. “Kill Switch”-ების (ავარიული გამორთვის ღილაკების) ინტეგრაციას.
რას უნდა ველოდოთ?
სემ ალტმანის ეს ტვიტი არის გამყოფი ხაზი. ის გვეუბნება, რომ “ბავშვობის პერიოდი” დასრულდა. OpenAI არ თამაშობს სათამაშოებით. მომდევნო თვეებში ჩვენ უნდა ველოდოთ მოდელებს, რომლებიც რადიკალურად აღემატება GPT-4-ს და 4o-ს. დილან სკანდის დანიშვნა არის სიგნალი: მონსტრი მზადაა გალიიდან გამოსასვლელად, და OpenAI-მ ახლახანს აიყვანა საუკეთესო მომთვინიერებელი, რომ ის გააკონტროლოს.
როგორც ჩანს, 2026 წელი იქნება არა მხოლოდ ტექნოლოგიური გარღვევის, არამედ დიდი სიფრთხილის წელიც.

