Dalis susirūpinimo dėl naujojo Kinijos didelės kalbos modelio (LLM) „Deepseek“ (LLM) yra tai, kad Kinijos komunistų partija turės galimybę naudotis pažengusiais dirbtinio intelekto agentais, kad palaikytų didžiąją strategiją. Žmogaus sprendimas kartą vadovaujasi tik užsienio politika. Dabar AI tai keičia. PG agentai vis labiau visur yra. Šios sistemos jau daugėjo visoje JAV nacionalinio saugumo įmonėje. Tokios sistemos kaip „ChatGpt GOV“ plačiai naudojami vyriausybinėse agentūrose, po ankstesnių pastangų, tokių kaip „Camogpt“ ir „NipRGPT“ Gynybos departamente ir „Statechat“ Valstybės departamente.
Vis dėlto mano komanda „Futures Lab“, esančios Strateginių ir tarptautinių studijų centro (CSIS), dirbanti kartu su programinės įrangos inžinieriais iš AI duomenų teikėjo „Scale“ inžinierių, nustatė pagrindines LLMS galimybes analizuoti pagrindinius klausimus apie didžiųjų galių konkurenciją ir krizių valdymą, kylantį dėl strategijos ir įstatymų leidimo XXI amžiuje. Išbandę bendrus AI pamatų modelius, palyginti su 400 scenarijų ir daugiau nei 66 000 klausimų ir atsakymų porų naujame lyginamojo analizės tyrime, tyrėjai dabar gali dokumentuoti algoritminį šališkumą, nes tai susiję su kritiniais užsienio policiniais sprendimais dėl eskalacijos. Kai kurie modeliai atrodo vanai dėl kaltės. Ši tendencija gali pakenkti savo naudingumui didelio akcijų krizei, pakreipdama rezultatus, kuriuos žmogaus sprendimų priėmėjai naudoja patikslindami, kaip jie artėja prie krizės derybų ir meistriškumo, kitaip tariant, agresyvus „Curtis Lemay AI agentas“ vietoj atsargių „Dean Rusk Ai agento“, „Curtis Lemay AI agento“ vietoj atsargių „Dean Rusk AI agento“, „Curtis Lemay AI agento“ vietoj atsargių „Dean Rusk Ai agento“, „Curtis Lemay AI agento“ vietoj atsargių „Dean Rusk AI agento“, „Curtis Lemay AI agento“ vietoj atsargių „Dean Rusk Ai agento“, „Curtis Lemay AI agento“. Dėl to esamiems pamatų modeliams reikės papildomo derinimo, nes jie bus integruoti į aukščiausius sprendimų priėmimo lygius.
Dalis susirūpinimo dėl naujojo Kinijos didelės kalbos modelio (LLM) „Deepseek“ (LLM) yra tai, kad Kinijos komunistų partija turės galimybę naudotis pažengusiais dirbtinio intelekto agentais, kad palaikytų didžiąją strategiją. Žmogaus sprendimas kartą vadovaujasi tik užsienio politika. Dabar AI tai keičia. PG agentai vis labiau visur yra. Šios sistemos jau daugėjo visoje JAV nacionalinio saugumo įmonėje. Tokios sistemos kaip „ChatGpt GOV“ plačiai naudojami vyriausybinėse agentūrose, po ankstesnių pastangų, tokių kaip „Camogpt“ ir „NipRGPT“ Gynybos departamente ir „Statechat“ Valstybės departamente.
Vis dėlto mano komanda „Futures Lab“, esančios Strateginių ir tarptautinių studijų centro (CSIS), dirbanti kartu su programinės įrangos inžinieriais iš AI duomenų teikėjo „Scale“ inžinierių, nustatė pagrindines LLMS galimybes analizuoti pagrindinius klausimus apie didžiųjų galių konkurenciją ir krizių valdymą, kylantį dėl strategijos ir įstatymų leidimo XXI amžiuje. Išbandę bendrus AI pamatų modelius, palyginti su 400 scenarijų ir daugiau nei 66 000 klausimų ir atsakymų porų naujame lyginamojo analizės tyrime, tyrėjai dabar gali dokumentuoti algoritminį šališkumą, nes tai susiję su kritiniais užsienio policiniais sprendimais dėl eskalacijos. Kai kurie modeliai atrodo vanai dėl kaltės. Ši tendencija gali pakenkti savo naudingumui didelio akcijų krizei, pakreipdama rezultatus, kuriuos žmogaus sprendimų priėmėjai naudoja patikslindami, kaip jie artėja prie krizės derybų ir meistriškumo, kitaip tariant, agresyvus „Curtis Lemay AI agentas“ vietoj atsargių „Dean Rusk Ai agento“, „Curtis Lemay AI agento“ vietoj atsargių „Dean Rusk AI agento“, „Curtis Lemay AI agento“ vietoj atsargių „Dean Rusk Ai agento“, „Curtis Lemay AI agento“ vietoj atsargių „Dean Rusk AI agento“, „Curtis Lemay AI agento“ vietoj atsargių „Dean Rusk Ai agento“, „Curtis Lemay AI agento“. Dėl to esamiems pamatų modeliams reikės papildomo derinimo, nes jie bus integruoti į aukščiausius sprendimų priėmimo lygius.
Tai nereiškia, kad Nacionalinis saugumas turėtų būti uždarytas AI. Atvirkščiai, tyrimų komandos turėtų remti strateginę analizę, padėdamas įmonėms tiksliai sureguliuoti savo modelius-taip pat mokyti būsimus lyderius, kaip dirbti su naujomis AI agentų klasėmis, sintetinančiomis masinę informacijos kiekį.
Per paskutinį Šeši mėnesiai, „Futures Lab“ vadovaujama tyrimų komanda dirbo su akademikų tinklu ir vadovaudama AI firmoms kurti etaloninį tyrimą apie kritinių užsienio politikos sprendimų priėmimą. Šios pastangos buvo susijusios su tarptautinių santykių mokslininkais, siekiant sukurti scenarijus ir klausimus bei atsakymus, susijusius su pagrindiniais tyrimais. Pavyzdžiui, siekdama ištirti eskalavimą, komanda integruotų karo ir militarizuotų tarpvalstybinių ginčų tyrimų programų, kurios daugiau nei 60 metų yra auksiniai, koreliacijos ir militarizuotos tarpvalstybinių ginčų tyrimų programos, kurios yra auksinės politikos mokslų standartai. Šis tyrimas leido komandai sudaryti scenarijaus testą-bendrą techniką AI lyginamosios analizės tyrimuose, naudojamuose siekiant atskleisti šališkumą ir palaikyti modelio derinimą.
Rezultatai patvirtina poreikį geriau mokyti AI agentus, nes jie yra integruoti į Nacionalinio saugumo įmonę. Vienas ypač nerimą keliančių šalių, kurias komanda atrado, buvo polinkis į eskalaciją. Kitaip tariant, kai kurie PG fondo modeliai, kuriuos dažniausiai naudoja piliečiai, ir kurie yra vyriausybės paraiškų pagrindas, nusveria pirmenybę krizės eskalavimui, nei siekiant atsargesnių diplomatinių manevrų.
Kadangi AI agentų naudojimas dauginasi nacionaliniame saugume, paliktas be advokatų, šis šališkumas sukelia naujų rūšių riziką krizėse, susijusiose su artimiausiais konkurentais-pagalvokite apie taivaną tarp Taivano tarp JAV ir Kinijos. PG agentas, linkęs patvirtinti konfrontacines priemones, galėtų netiesiogiai padidinti įtampą, atsižvelgiant į tai, kaip ji apibendrino žvalgybos ataskaitas ir svertinius veiksmų kursus. Užuot rekomendavęs kruopščią atgrasymo ir dialogo derinį, eskalacijos šališkumo AI agentas gali pasisakyti agresyvius jėgos pasirodymus ar net atskleisti naujas karines technologijas. Pekinas šiuos judesius galėtų interpretuoti kaip priešiškus, sukurdamas pavojingą eskalacijos spiralę. Trumpai tariant, nesusipratimas, kurį sukelia AI agentas, gali spjaudytis į konfliktą arba, kaip matyti kituose tyrimuose, padidina ginklų rasių dinamiką.
Mūsų tyrimas taip pat nustatė, kad šis šališkumas skiriasi priklausomai nuo įprastų pagrindinių modelių, tokių kaip „ChatGPT“, „Dvyniai“ ir „Llama“. PG modeliai dažnai palaikė agresyvesnes pozas, imituodami JAV, JK ar Prancūzijos sprendimų priėmėjus, nei imituojant Rusijos ar kinų. Mokymo duomenys, kurie paprastai pabrėžia Vakarų vadovaujamą intervenciją, greičiausiai vaidina svarbų vaidmenį. Tai reiškia, kad vyriausybės, kurios labai remiasi šiomis priemonėmis, gali netyčia atsiremti į didelės rizikos pozicijas, jei nėra papildomų lyginamųjų analizės tyrimų ir modelio derinimo. Derybų procesas ir prielaidos apie racionalumą šiuolaikinio atgrasymo pagrindu gali suskirstyti.
Dar kartą apsvarstykite Taivano pavyzdį. Pavyzdžiui, „Deepseek“ AI agentas, kuris yra „Deepseek“, apibendrins intelektą, o kitos išanalizavo reagavimo į krizę galimybes. Kiekvienas, dėl konkrečios šalies šališkumo, būtų linkęs matyti bet kokius JAV veiksmus kaip priešiškesnius, dar labiau apskaičiuoti klaidingą apskaičiavimo riziką. Kiekvienas JAV karinio jūrų laivyno patrulis, kurį JAV ir jo partneriai išsiuntė kaip stiprybės, skirtos stabilizuoti krizę, parodymas bus aiškinamas kaip priešiškas, o informacija iš diplomatinių kanalų buvo ne tokia svarbi generuojant ataskaitas. Tuo pat metu kitas AI agentas, patariantis Kinijos komunistų partijos vadovams, neteisingai apibūdintų visus Kinijos veiksmus, kaip tikėtina, bus taikūs ir gerybiniai. PG agentai, kaip ir žmonės, yra linkę į šališkumą, kuris gali iškreipti objektyvius sprendimus. Dėl to jie turi būti mokomi sumažinti bendrus klaidų šaltinius ir prisitaikyti prie naujo konteksto.
PG neveikia vakuume. Tai formuoja tai, kaip vadovai suvokia grėsmes, sveria galimybes ir perduoda ketinimus. Šališkumai – eskalacija, bendradarbiavimas ar konkreti geopolitinė perspektyva – įgauna jo rezultatus. Ir kadangi AI gali išanalizuoti daug daugiau duomenų, nei gali bet kuris žmogaus politikos formuotojas, yra reali rizika, kad klaidingos rekomendacijos padarys didelę įtaką sprendimų priėmimui.
Didžiosios galios konkurencijai sustiprėja, ši rizika tik auga. Šiuolaikinių krizių greitis ir sudėtingumas gali pagunda lyderiams labiau pasikliauti AI įrankiais. Jei šie įrankiai yra šališki, klaidų skirtumas dramatiškai susitraukia. Kaip kariškiai neįdiegtų nepatikrintos ginklų sistemos įtemptoje aplinkoje, politikos formuotojai neturėtų pasikliauti AI, kuri nebuvo kruopščiai patvirtinta ar tiksliai sureguliuota.
JAV reikės AI agentų minios, remiančios darbo eigas visoje nacionalinės saugumo įmonėje. Ateitis nėra ignoruojant technologijas. Tai paaiškėja jį patobulinus ir integruojant į strategiją ir įstatymų leidimą. Dėl to PG kūrėjai ir politikos formuotojai turi sukurti nuolatinių bandymų ir vertinimo pagrindus.
Štai kodėl CSIS viešai išleido savo kritinį užsienio politikos etaloną ir toliau tobulins jį tikėdamiesi įvesti naują algoritminės strategijos ir įstatymų leidimo erą. Tyrimas yra didesnės tyrimų programos, reikalingos tobulinti ir mokytis, pradžia. Modeliai gali mokytis rekursyviai, prisitaikyti prie naujų duomenų ir atsisakyti pasenusių prielaidų, sukurti nuolatinių patikrinimų ir vertinimo reikalavimą.
Lygiai taip pat, kaip politinės mokyklos visame pasaulyje vystėsi siekdamos sukurti tarptautinių santykių ir valstybės tarnautojų bei karinių profesionalų grupių absolventus ir įstaigas, kurios įsteigė institucijas studijuoti strategiją, turės būti naujas kompetencijos centras, skirtas tobulinti AI agentus. Šis centras yra geriausias, jei jis sujungia akademikus, minčių grupes, pramonę ir vyriausybines agentūras, kad sukurtų naujas technologijas ir įvertintų ją kontekste, atspindinčioje didelės galios konkurenciją. Bendradarbiavimo komandos gali patobulinti mokymo duomenis, streso testo AI agentus ir sukurti mokymo gaires nacionalinio saugumo lyderiams, kurie pastebės, kad užsienio politikos kūrimas didina algoritmų meditą. Šis bendradarbiavimas yra tai, kaip JAV kuria AI, vertinančią įstatymų leidimo niuansus, užuot supaprastindamas krizes į nulinės sumos lygtis.
Galų gale visi AI agentai ir LLM yra tai, ką mes iš jų gaminame. Tinkamai apmokyti ir integruoti į Nacionalinio saugumo įmonę kartu su darbo jėga, kuri supranta, kaip bendrauti su modeliais, AI agentai gali pakeisti strategiją ir įstatymų leidimą. Palikę nepatikrintą, jie padarys keistas teismo klaidų klaidas, kurios gali pritraukti pasaulį arčiau slenksčio.