A csúcstalálkozón belül, ahol Kína elindította AI napirendjét a világon

A csúcstalálkozón belül, ahol Kína elindította AI napirendjét a világon

Három nappal később A Trump adminisztráció közzétette a várt AI cselekvési tervét, a kínai kormány közzétette saját AI politikai tervét. Az időzítés véletlen volt? Kétlem.

Kína „A globális kormányzati kormányzati irányítási tervet július 26 -án, a Mesterséges Intelligencia Világszervezeti Konferencia (WAIC) első napján tették közzé, amely Kína legnagyobb éves AI -rendezvénye.

Waic légköre volt a Polar ellentéte Trump látásának, az AI -rendeletek jövőképének. Nyitó beszédében Li Qiang kínai miniszterelnök józan érvet mutatott az AI globális együttműködésének fontosságára. Ezt követte a kínai AI rövid kutatóinak sorozata, akik olyan sürgős kérdéseket vettek fel, amelyek sürgős kérdéseket mutatnak, amelyek szerint a Trump adminisztráció széles körben megtisztul.

Zhou Bowen, a Shanghai AI Lab vezetője, az AI Kína egyik legjobb kutatóintézete dicsérte csapata munkáját az IA Security -nál a WAIC -ben. Azt is javasolta, hogy a kormány szerepet játszhasson az AI kereskedési modellek sebezhetőségének nyomon követésében.

A Wired interjújában Yi Zeng, a Kínai Tudományos Akadémia professzora és az ország egyik legfontosabb szavazata az AI -ről azt mondta, hogy reméli, hogy az IA biztonsági szervezetei szerte a világon megtalálják az együttműködés módját. “Javítható lenne, ha az Egyesült Királyság, az Egyesült Államok, Kína, Szingapúr és más intézetek találkoznak” – mondta.

A konferencia az AI biztonsági politikai kérdésekről szóló kamera -találkozókban is szerepelt. Miután részt vett egy ilyen konfabon, Paul Triolo, a DGA-Albright Stonebridge Group Consulting Company partnere elmondta a Wirednek, hogy a viták eredményesek voltak, annak ellenére, hogy az amerikai vezetés figyelemre méltó hiánya volt. Mivel az Egyesült Államok az asztalon kívül esik, “A fő AI biztonsági szereplők koalíciója, amelyet Kína, Szingapúr, az Egyesült Királyság és az EU társalgomja, most arra törekszik, hogy erőfeszítéseket készítsen az AI határmodell fejlesztésének körében”-mondta Triolo a Wirednek. Hozzátette, hogy nemcsak az amerikai kormány hiányzott: az összes fő amerikai laboratórium, csak az Elon Musk Xai küldte az alkalmazottakat a WAIC fórumon való részvételre.

Sok nyugati látogató meglepte, hogy megtanulta, hogy a Kínával folytatott AI -ről szóló beszélgetés mennyire a biztonsági előírások körül van. “Szó szerint az elmúlt hét napban folyamatosan részt vehet az IA biztonsági rendezvényein. És ez nem volt a helyzet az AI másik világcsúcsán” – mondta Brian TSE, az AI Biztonsági Kutatóintézet alapítója, a Concordia AI -ben. A hét elején a Concordia AI egy napi biztonsági fórumot szervezett Sanghajban, olyan híres AI kutatókkal, mint Stuart Russel és Yoshua Bengio.

Kapcsolási helyzet

A Kína AI cselekvési tervének és a Trump cselekvési tervének összehasonlításával úgy tűnik, hogy a két ország megváltoztatta a pozíciókat. Amikor a kínai vállalatok fejlett AI modelleket fejlesztettek ki, sok megfigyelő úgy gondolta, hogy a kormány által előírt cenzúra követelmények megtartják őket. Az amerikai vezetők most azt mondják, hogy meg akarják győződni arról, hogy a helyi AI modellek “folytatják az objektív igazságot”, egy olyan erőfeszítést, amelyet – amint azt Steven Levy kollégám írta a múlt héten, írta Hátcsatorna A hírlevél “egyértelmű gyakorlat a csökkenő ideológiai elfogultságban”. Az AI Kínában a kínai AI cselekvési tervet globalista manifesztumként lehet olvasni: azt javasolja, hogy az Egyesült Nemzetek Szervezete segítse az AI közvetlen nemzetközi erőfeszítéseit, és javasolja, hogy a kormányok fontos szerepet játszanak a technológia szabályozásában.

Noha kormányaik nagyon különböznek, az AI biztonsága szempontjából, a kínai és az Egyesült Államokban az emberek ugyanazok a dolgok miatt aggódnak: a modell hallucinációi, a diszkrimináció, az egzisztenciális kockázatok, a kiberbiztonsági sebezhetőség stb. A két országban, beleértve az olyan területeken, mint például az evolúciós megfigyelés (hogyan tudják az emberek figyelni az AI modelleket az AI más modelljeivel) és az interoperábilis biztonsági teszt szabványok kidolgozását.

Leave a Reply

Your email address will not be published. Required fields are marked *