色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

阿里巴巴選擇什么作為AI算法研究環(huán)境

悟空智能科技 ? 來源:cg ? 2019-02-05 16:18 ? 次閱讀

我是來自阿里巴巴認知計算實驗室的龍海濤,今天主要跟大家聊一下“《星際爭霸》與人工智能”的話題。首先我會介紹一下為什么我們會選擇《星際爭霸》這個游戲來做人工智能前沿性的研究,然后是我們在這方面初步的嘗試和成果,最后我會跟大家探討一下,未來我們在《星際爭霸》這個游戲里面還可以繼續(xù)去研究的一些課題。

為什么選擇《星際爭霸》作為人工智能算法研究的環(huán)境

首先可能大家有疑問,為什么選擇《星際爭霸》這個游戲來做我們AI研究的一個平臺。我們這個認知計算實驗室目前是掛靠在搜索事業(yè)部下面,我們團隊的成員基本都是做搜索、廣告、推薦、算法這樣的背景,之前我們主要做的是CTR預(yù)估的優(yōu)化,還有CVR轉(zhuǎn)化率的一些優(yōu)化,從去年“雙11”之后,我們想在認知智能方面做一些前沿性的探索,我們一致認為游戲是一個研究AI算法的絕佳平臺,首先它是非常干凈的平臺,可以源源不斷的去產(chǎn)生數(shù)據(jù),而且迭代非常快,就是說它的智能是可以觀測到的。另外,它離真實的場景和應(yīng)用是比較近的,并且《星際爭霸》十多年來就是一個非常好的受大家歡迎的游戲,積累了非常非常多的數(shù)據(jù),這樣我們可以從之前的經(jīng)驗去學(xué)習(xí),這也是我們考慮的一個方面。最重要的,它對AI來講存在著非常大的挑戰(zhàn),非常復(fù)雜,主要有以下六點:

第一點,它是一個不完全信息下的環(huán)境

比起像圍棋或者象棋這種大家都可能看得見的、完全信息下的博弈,《星際爭霸》是有戰(zhàn)爭迷霧的,所以必須去探路、偵查、了解對手的信息,從而在不確定的情況下去做智能的決策,這個是相對其他游戲來講非常不同或者挑戰(zhàn)更大的一個方面。

第二點,它有非常巨大的搜索空間

圍棋的搜索空間大概在10^170,《星際爭霸》在128×128的地圖上并且人口上限是400個unit的情況下,它的搜索空間大概在10^1685,比圍棋高10個數(shù)量級,這還是在沒有算上其他狀態(tài)(比如說血量等等)的情況下。所以現(xiàn)有的任意一個單一的算法是根本不可能解決《星際爭霸》里面所有的問題的。

第三點,它是一個即時對抗類的游戲

下圍棋可以有一分鐘或者兩分鐘的思考時間,但是在《星際爭霸》里,如果說正常游戲大概是1秒鐘24幀,那么你必須在42毫秒之內(nèi)做出迅速的反應(yīng),而且這個反應(yīng)不是一個action,而是一系列的action,每個unit都會采取行動,這對我們算法的性能、效率、工程上的考慮都是非常大的挑戰(zhàn)。

第四點,它需要智能體有一個長期的規(guī)劃

不是一個下意識的動作,是需要有記憶,需要考慮這場戰(zhàn)爭應(yīng)該采取什么樣的策略,中盤應(yīng)該怎么考慮,發(fā)展到后期又應(yīng)該采取什么樣的策略,而且這個策略的計劃是根據(jù)偵查到的所有的信息動態(tài)去調(diào)整,這對人工智能的挑戰(zhàn)是非常非常大的。

第五點,時間、空間上的推理

在《星際爭霸》里面要玩好的話,必須基于時序上、空間上去做推理,比如說地理位置的優(yōu)勢,坦克如果架在哪里可能會比較好,如果開分機在哪個位置去開會比較有利,甚至于軍營造在什么地方,這些對于AI來說都需要進行一個空間上的推理。

第六點,多個智能體協(xié)作

《星際爭霸》最高有400個unit,所以其實是需要多個智能體協(xié)作的,需要多個兵種去配合,這也是對AI來講一個很大的挑戰(zhàn)。

《星際爭霸》里面AI的研究或者競賽不是最近才出現(xiàn)的,其實在2010年的時候已經(jīng)有大量的研究人員在研究《星際爭霸》里面的AI,主要是以ALBERTA大學(xué)為主的研究力量,包括一些老師和學(xué)生,而且有三個固定的競賽和一些循環(huán)賽,大家在上面PK。這一類AI的話是Classic AI,也就是沒有學(xué)習(xí)能力、沒有模型、也不需要訓(xùn)練,而是基于預(yù)編程的規(guī)則,所以不是非常靈活,這種算法下的AI其實離真正超過人類或者打敗人類目標還是非常非常遠的,它們可以打敗內(nèi)置的AI,但是還遠遠比不上人類的專業(yè)選手,甚至連普通選手基本上也打不過。

另外一類是Modern AI,也就是以智能體自主學(xué)習(xí)為主的算法,從去年開始這個領(lǐng)域火起來了,一方面就是,阿里巴巴還有倫敦大學(xué)學(xué)院,最近我們在合作的基于《星際爭霸1》里面做一些新的AI的嘗試。

另外就是Google Deep Mind,去年11月份他們和暴雪合作,會基于《星際爭霸2》去開放一個API,讓大家基于《星際爭霸2》上開發(fā)自己的AI算法,另外像Facebook他們也有一些團隊做這方面的研究。

深度強化學(xué)習(xí)

強化學(xué)習(xí)是非常接近人類學(xué)習(xí)的一個學(xué)習(xí)機制,通過這個Agent跟環(huán)境的交互,在交互當中學(xué)習(xí)。Agent會觀察周圍的環(huán)境,然后環(huán)境會給它一些反饋,Agent根據(jù)狀態(tài)和反饋會做出一些動作,這些動作會或多或少的影響這個環(huán)境,環(huán)境會根據(jù)這個動作反饋一些Reward,Reward可能是獎勵的也可能是懲罰的,Agent根據(jù)這樣的試錯,不斷的去調(diào)整。Agent背后有兩個概念非常重要,一個是不停的優(yōu)化策略,什么樣的狀況下采用什么樣的Action是合理的,另外一個是用價值函數(shù)評估當前的狀態(tài)它的價值是怎么樣的。

強化學(xué)習(xí)跟深度學(xué)習(xí)結(jié)合,就叫深度強化學(xué)習(xí)。因為深度學(xué)習(xí)或者神經(jīng)網(wǎng)絡(luò)是非常適合去做這種表示學(xué)習(xí)的,可以表示成一個復(fù)雜的函數(shù)。policy或者value用神經(jīng)網(wǎng)絡(luò)去逼近的話,在工程上或者效率上是非常好的提升。以AlphaGo的例子來講,在訓(xùn)練的時候分成三個階段,第一個階段,從人類的棋譜里面學(xué)習(xí)人類的先驗的知識,通過監(jiān)督學(xué)習(xí)學(xué)習(xí)一個還好的、勝率比較高的policy network,第二個階段,基于監(jiān)督學(xué)習(xí)學(xué)習(xí)出來的policy network,然后自我對弈,通過policy gradient再去優(yōu)化policy network,這就比之前學(xué)出來的policy network要更好。第三階段,再用學(xué)出來的強化學(xué)習(xí)版的policy network自我對弈,得到一個最佳的。

多智能體協(xié)作

其實目前為止所有的AI的智能體比較成功的一些應(yīng)用基本都是這種單個的Agent,其實對于人類來講,協(xié)作智能是智能體的一個非常大的方面,我們的祖先智人為什么可以統(tǒng)治地球,其中一個很大的原因就是,他們學(xué)會了大規(guī)模的協(xié)作,而且是非常靈活的協(xié)作。可以想象一下,未來全部都是這種AI的智能體,它們能不能自我學(xué)習(xí)到人類水平協(xié)作的一個智能呢?

我們用了一個詞Artificial Collective Intelligence,這對現(xiàn)實和未來都有非常大的意義。比如手機淘寶,現(xiàn)在絕大部分流量背后都是一個算法推薦出來的,不管廣告還是搜索其背后都是AI的智能體在做,目前這些智能體都是各出各的優(yōu)化,或者推出自己的商品

其實我們在考慮的是,比如手機淘寶首頁里邊有愛逛街、猜你喜歡這種位置,那么他們能不能夠協(xié)同地去推出一些這樣的商品,從而可以讓用戶的體驗最好,讓平臺的價值最大化。其實以后可能都是算法經(jīng)濟、AI經(jīng)濟,都是這種AI的Agent,比如滿大街可能都是自動駕駛的無人車,他們之間是不是也需要一些協(xié)作,讓交通出行效率能夠達到最大化。

最近我們在《星際爭霸》里的微觀戰(zhàn)斗場景下,提出來一個多智能體雙向協(xié)作網(wǎng)絡(luò),關(guān)于這個網(wǎng)絡(luò)的詳細內(nèi)容大家感興趣可以下載我們的paper看一下,這個工作是我們跟UCL一起合作完成的,用來探索或者解決多智能體協(xié)作的問題。

這是我們提出來的BiCNet(Multiagent Bidirectionally-Coordinated Net)的網(wǎng)絡(luò)結(jié)構(gòu),它其實也是比較經(jīng)典的結(jié)構(gòu),分成兩部分,左邊這部分是一個policy的網(wǎng)絡(luò),就是說從下往上會把《星際爭霸》的環(huán)境進行一些抽象,包括地圖的信息、敵方單位的血量、攻擊力,還有我方unit的信息,抽象出來形成一個共享的State,經(jīng)過一個雙向的RNN這樣的網(wǎng)絡(luò),進行充分的雙向的溝通,再往上每個Agent去得出自己的Action,比如我到某一個地方去攻擊誰。左邊這個policy network就是對于當前的狀態(tài)應(yīng)該采取什么行動,右邊就是一個value的network,根據(jù)前面policy得出來的Action,還有抽象出來的State進行評估,Q值大概是多少,做出一個預(yù)判。當采取這些行動以后,這個環(huán)境就會給出相應(yīng)的反饋,一些Reward來說明這步打的好還是不好,然后會通過一個Reword從右邊這個網(wǎng)絡(luò)下來,去反向傳播更新里面的參數(shù)

這個網(wǎng)絡(luò)有幾點比較好的設(shè)計:

第一,它的scalability比較好,《星際爭霸》里面打仗的時候隨時可能會有傷亡,這個Agent死掉以后這個網(wǎng)絡(luò)不是還可以正常的工作,包括源源不斷涌現(xiàn)的新的Agent進來,是不是也是可以工作。我們看到雙向網(wǎng)絡(luò)參數(shù)是共享的,所以是不會有影響的。

第二,我們在中間用了這樣一個雙向網(wǎng)絡(luò)以后,其實是在一個效率和性能之間做了比較好的平衡,如果用全連接網(wǎng)絡(luò)的話,計算量會過大。但是我們用一個雙向網(wǎng)絡(luò),前面告訴你大概要做什么樣的Action,回來再告訴前面的人他們采取了什么樣的Action,一結(jié)合,最后算出來應(yīng)該追加的策略是什么樣子,從實際來看效果也是非常好的。

其實我們認知計算實驗室在設(shè)計一些算法或者模型的時候會參考神經(jīng)科學(xué)里邊目前的一些研究成果,我們認為研究認知心理學(xué)、大腦、類腦的研究或者神經(jīng)科學(xué),對于做人工智能應(yīng)該有兩個好處。

第一個好處就是,神經(jīng)科學(xué)具有啟發(fā)性,就是當你在一些具體的問題或者場景里面去思考的時候,會遇到一些問題,這些問題可能是從來沒有人解過的,如果神經(jīng)科學(xué)、交叉科學(xué)里有類似的這種結(jié)構(gòu)或者算法,這些可能會很好的解決你的問題,帶來算法上的一些啟發(fā)。

反過來另外一點,神經(jīng)科學(xué)也可以幫你做驗證,你設(shè)計一個算法以后,如果神經(jīng)科學(xué)里面有類似的結(jié)構(gòu),那么很大概率這個算法是可以工作的。

其實我們的Actor-Critic網(wǎng)絡(luò)在人腦里面也是有相應(yīng)的對應(yīng),左邊就是Actor-Critic這個網(wǎng)絡(luò),右邊是我們的大腦,大腦里邊紋狀體就是負責Actor、Critic兩部分,這個紋狀體腹部是負責Critic這部分,背部是負責Actor這部分,Reward下來以后我們大腦會計算,這與預(yù)期的Reward有什么差距,這個差距就會以多巴胺的形式影響到Actor,下一次你就要按照這個去調(diào)節(jié),讓下一次Action做的更好一點。

其實多巴胺體現(xiàn)在我們的算法里面就是TD error,也就是我們算的Reward的誤差,這其實是一個很好的對應(yīng)。

實驗平臺和實際效果

前面是網(wǎng)絡(luò)架構(gòu)的設(shè)計,為了實現(xiàn)這樣一個算法模型,我們搭了一個實驗平臺,這個實驗平臺就是基于Facebook的TorchCraft,它是把《星際爭霸1》和Torch封裝在一起,但是我們比較習(xí)慣于TensorFlowPython,所以在上面做了一個封裝,再把這套架構(gòu)放在這個OpenAI標準接口里邊,大家有興趣可以試一下。

這個架構(gòu)主要分成兩部分,對應(yīng)剛才說的強化學(xué)習(xí):

左邊是Environment,其實就是《星際爭霸》這個游戲,包括引擎,還有里面的DLL,DLL基于BWEnv,這是一個官方認可的DLL。基于這個BWEnv DLL把內(nèi)部的狀態(tài)、指令封裝起來,其實這就是一個Server;

右邊就是Agent,是一個Client,這樣你可以連上很多的Agent玩這個游戲。中間是傳遞的信息,Environment會把它每一幀的數(shù)據(jù)吐給Agent,Agent會把每一幀的數(shù)據(jù)抽象成狀態(tài),然后再把這個State送到model里面去學(xué)習(xí)或者做預(yù)測,反過來會預(yù)測出來一些Action,這些Action會封裝成指令,再發(fā)回給《星際爭霸》的Environment,比如說開槍或者逃跑,這個是我們搭的這樣一個《星際爭霸》的實驗平臺。

下面是我們這個實驗平臺做到的一些效果,總結(jié)起來有五種可觀測的智能。

第一種,可以配合走位。

這個例子就是三個槍兵打一個Super的小狗,這個小狗是我們編輯過的,血量非常大,一下子打不死。三個槍兵打一個小狗,a/b這兩個圖,在訓(xùn)練的早期其實是沒有學(xué)會太多的配合意識,所以他們走位的時候經(jīng)常會發(fā)生碰撞,經(jīng)過可能幾萬輪的訓(xùn)練以后,他們慢慢學(xué)會了配合隊友的走位,這樣大家撞不到一起。

第二個場景,邊打邊撤

這個配合就是邊打邊撤,Hit and Run這樣的技能,這個例子就是三個槍兵打一個狂徒,利用遠程攻擊的優(yōu)勢來消滅敵人。

第三種,掩護攻擊

剛才三個槍兵打一個狂徒的時候是同時撤退,但是在這個場景下有些槍兵可能會去吸引這個小狗或者去阻擋一下,讓另外兩個槍兵抓住這個時間空隙來消滅這個小狗。非常有意思的一點就是,這種協(xié)作不是在任何情況下都會出現(xiàn)的,如果你的環(huán)境不是那么的有挑戰(zhàn)性,可能它就是簡單的Hit and Run就足夠了,如果我們的環(huán)境更嚴苛一點,比如這個小狗血量調(diào)高,攻擊力從3調(diào)到4,或者血量從210調(diào)到270,發(fā)現(xiàn)它又學(xué)會了另一種更高級的掩護攻擊的協(xié)作,這就非常有意思了。

第四種,分組的集火攻擊

這個例子是15個槍兵打16個槍兵,大家想想應(yīng)該怎么取勝?策略可能3個槍兵或者4個槍兵自動組成一組,這3個槍兵先干掉一個、再干掉一個,就是把火力集中,但又不是15個槍兵打1個,而把火力分散一點,最后可能我們這方還剩6個槍兵,對方可能全部消滅掉了,這個都是通過很多輪次的學(xué)習(xí)之后他們自動去學(xué)到的這樣一個配合。

第五種,不光是槍兵之間學(xué)會配合,還可以多兵種配合,異構(gòu)的Agent的配合。

這個例子就是,兩個運輸機,每個運輸機帶一個坦克去打一頭大象,正常來講,兩個坦克打一個大象肯定是打不過的,加上運輸機的配合以后,大象攻擊某一個坦克的時候,運輸機會及時的把這個坦克收起來,讓大象撲空,同時另外一個運輸機趕緊把它的坦克放下去,去攻擊大象,這樣一來一回可能大象一點便宜占不到就被消滅了,這個是基于我們之前的做出BiCNet一個協(xié)作的展現(xiàn)。

關(guān)于未來的一些思考

但是《星際爭霸》里其實不光是微觀戰(zhàn)斗,其實更難的是宏觀的策略方面,怎么樣“宏觀+微觀”打一整個游戲,這樣其實我們也有一些思考,可能不是特別成熟,但是我們可以一起探討一下。

每一個層級設(shè)定一個Goal

要玩一個full-game,如果是簡單的單層次的強化學(xué)習(xí),可能解決不了問題,因為action space實在太大了,一個比較自然的做法就是做層級式的方式,可能上層是策略規(guī)劃,下面一層就是它的戰(zhàn)斗、經(jīng)濟發(fā)展、探路、地圖的分析等等,這樣的話一層一層的,就是高層給下層設(shè)置一個goal,下層再給下面一層設(shè)計一個goal,其實這跟人的問題分解是比較類似的。

模仿學(xué)習(xí)(Imitation Learning)

我們覺得值得去研究和探討的是模仿學(xué)習(xí),Imitation Learning,剛剛講的AlphaGo的例子也是Imitation Learning,第一步通過監(jiān)督學(xué)習(xí)學(xué)習(xí)比較好的策略,再把監(jiān)督學(xué)習(xí)學(xué)好的策略通過自我的對弈去提升,在《星際爭霸》里面更需要這種模仿學(xué)習(xí),比如說我們兩個槍兵打一個小狗的時候,我們認為一個好的策略是一個槍兵吸引小狗在那兒繞圈,然后另外一個槍兵就站在中心附近開槍,把這個小狗消滅,兩個槍兵一滴血可以不死。但是這種策略是比較難學(xué)習(xí)的,所以我們先給它人為的讓這個槍兵在里面畫圈,畫上幾步之后槍兵自己學(xué)會畫圈了,帶著小狗,然后另外一個槍兵在后面追著屁股打,這種探索就非常的有效。

持續(xù)學(xué)習(xí)(Continual Learning)

Continual Learning,如果要邁向通用智能,這是繞不過去的課題。

Continual Learning像人一樣,我們學(xué)會了走路,下一次我們學(xué)會了說話,我們在學(xué)說話的時候可能就不會把走路這件事情這個本領(lǐng)忘掉,但是在《星際爭霸》一些場景的時候,神經(jīng)網(wǎng)絡(luò)學(xué)到A的時候再去學(xué)B,這個時候可能會把A的事情忘掉。

舉個例子,一開始我們訓(xùn)練一個槍兵打一個小狗,這個小狗是電腦里邊自帶的AI,比較弱,這個槍兵學(xué)會了邊打邊撤,肯定能把小狗打死。我們再反過來訓(xùn)練一個小狗,這個小狗去打電腦槍兵,這個小狗學(xué)會最佳策略就是說一直追著咬,永遠不要猶豫,猶豫就會被消滅掉,所以它是一條惡狗,一直追著槍兵咬。然后我們把這槍兵和小狗同時訓(xùn)練,讓他們同時對弈,這樣發(fā)現(xiàn)一個平衡態(tài),就是槍兵一直逃,狗一直追,《星際爭霸》設(shè)計比較好的就是非常平衡。然后這個槍兵就學(xué)會了一直跑,我們再把這個槍兵放回到原來的環(huán)境,就是再打一個電腦帶的小狗,發(fā)現(xiàn)它也會一直跑,它不會邊打邊撤。

你發(fā)現(xiàn)它學(xué)習(xí)的時候,學(xué)會了A再學(xué)會B,A忘了,這個其實是對通用人工智能是非常大的挑戰(zhàn),最近DeepMind也發(fā)了一個相關(guān)工作的paper,這也是一個promising的方向,大家有興趣可以去看一下,他們的算法叫EWC。

引入Memory機制

最后一點,前面有說到幾大挑戰(zhàn),其中有一大挑戰(zhàn)就是長期的規(guī)劃,長期規(guī)劃里邊我們認為一個比較好的做法就是,給這種強化學(xué)習(xí)里面去引入Memory的機制,這也是目前的一個比較火的方向,像Memory Networks、DNC,要解決的問題就是,我們在學(xué)習(xí)的過程當中應(yīng)該記住什么東西,從而使得我們可以達到一個很好的最大的Reward。

所以今天跟大家交流的主要就是說,其實在《星際爭霸》里面是蘊含了非常非常豐富的研究通用人工智能或者研究認知智能的場景,這個里面可以有很多非常有意思的課題。我只是列舉了四個方向,其實還有很多很多方向可以去研究。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1796

    文章

    47643

    瀏覽量

    240082
  • 阿里巴巴
    +關(guān)注

    關(guān)注

    7

    文章

    1619

    瀏覽量

    47486
  • AI算法
    +關(guān)注

    關(guān)注

    0

    文章

    252

    瀏覽量

    12332

原文標題:阿里巴巴為什么選擇星際爭霸作為AI算法研究環(huán)境?

文章出處:【微信號:WUKOOAI,微信公眾號:悟空智能科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    阿里巴巴出售高鑫零售股權(quán),聚焦核心業(yè)務(wù)

    近日,阿里巴巴集團正式對外發(fā)布公告,宣布其子公司及New Retail與德弘資本達成了一項重要協(xié)議。根據(jù)該協(xié)議,阿里巴巴將出售其所持有的高鑫零售全部股權(quán),這些股權(quán)合計占高鑫零售已發(fā)行股份總數(shù)的約
    的頭像 發(fā)表于 01-02 10:54 ?149次閱讀

    阿里巴巴將在美國推出AI電商工具PIC COPILOT

    人工智能領(lǐng)域的一次重要嘗試,旨在利用先進的AI技術(shù)為美國電商市場提供更加智能化、便捷化的服務(wù)。該工具將深度融合阿里巴巴在大數(shù)據(jù)、云計算以及電子商務(wù)領(lǐng)域的深厚積累,通過智能算法和數(shù)據(jù)分析,幫助商家更加精準地把握市場需求,提升運營效
    的頭像 發(fā)表于 12-06 10:52 ?460次閱讀

    阿里巴巴國際站首推全流程AI產(chǎn)品

    近日,阿里巴巴國際站正式推出了其首個全流程AI產(chǎn)品——AI生意助手2.0。這一創(chuàng)新產(chǎn)品的問世,標志著阿里巴巴在助力中小企業(yè)外貿(mào)經(jīng)營方面邁出了重要一步。
    的頭像 發(fā)表于 10-30 16:12 ?294次閱讀

    阿里巴巴云計算入股蘇州語靈人工智能科技公司

    近日,國內(nèi)云計算巨頭阿里巴巴云計算有限公司(簡稱“阿里云”)在人工智能領(lǐng)域的布局再下一城,宣布入股蘇州語靈人工智能科技有限公司(簡稱“蘇州語靈”)。這一戰(zhàn)略投資動作,不僅彰顯了阿里云對AI
    的頭像 發(fā)表于 08-30 18:03 ?1903次閱讀

    阿里巴巴完成雙重主要上市

    8月28日阿里巴巴在香港聯(lián)交所主板主要上市,成為在港交所、紐交所雙重主要上市的公司。如今,阿里巴巴完成雙重主要上市。 此外,有投資機構(gòu)認為阿里巴巴最快有望于9月份就納入港股通。 截至8月28日收盤,
    的頭像 發(fā)表于 08-29 16:06 ?409次閱讀

    阿里巴巴季報出爐 阿里云二季度營收增長6%

    調(diào)整EBITA利潤達到450.35億。阿里巴巴的季度經(jīng)營業(yè)績超出市場預(yù)期。AI則是一個大亮點;AI正推動阿里云重回增長。阿里云營收增長6%至
    的頭像 發(fā)表于 08-16 16:45 ?541次閱讀

    阿里巴巴AI賦能海外擴張新篇章

    中國電商巨頭阿里巴巴集團正積極重啟并加速其海外擴張戰(zhàn)略,以應(yīng)對國內(nèi)電商市場競爭加劇的挑戰(zhàn)。此次擴張的一大亮點在于,阿里巴巴將人工智能(AI)技術(shù)深度融入其國際業(yè)務(wù)布局中,開啟了海外發(fā)展的新篇章。
    的頭像 發(fā)表于 07-12 17:56 ?1057次閱讀

    阿里巴巴投資逐際動力,深化智能機器人布局

    近日,阿里巴巴集團對深圳逐際動力科技有限公司(簡稱:逐際動力)進行戰(zhàn)略投資,此舉再次體現(xiàn)了阿里巴巴在智能機器人領(lǐng)域的堅定布局。
    的頭像 發(fā)表于 05-22 11:52 ?860次閱讀

    阿里巴巴集團2024財年穩(wěn)健增長

    阿里巴巴集團近日公布了其2024財年第四季度及全年業(yè)績報告,數(shù)據(jù)亮眼。在經(jīng)歷一年的主動變革后,阿里巴巴重回健康增長軌道。
    的頭像 發(fā)表于 05-16 11:23 ?724次閱讀

    阿里巴巴杭州全球總部正式啟用

    近日,阿里巴巴在杭州的未來科技城正式揭開了其全球總部新園區(qū)的面紗。這座園區(qū)不僅是阿里巴巴目前規(guī)模最大的綜合性辦公空間,更是其綠色、科技、可持續(xù)發(fā)展理念的生動體現(xiàn)。
    的頭像 發(fā)表于 05-13 11:15 ?574次閱讀

    虹軟PhotoStudio AI正式入駐阿里巴巴集團旗下的千牛商家工作臺

    5月8日,虹軟PhotoStudio? AI (簡稱PSAI)正式入駐阿里巴巴集團旗下的千牛商家工作臺,為廣大淘寶賣家、天貓商家提供更直接、便捷、高效的圖像生成與處理解決方案。
    的頭像 發(fā)表于 05-09 09:43 ?850次閱讀

    阿里巴巴推出全新AI圖生視頻模型EMO

    近日,阿里巴巴集團智能計算研究院宣布推出了一款革命性的AI圖片-音頻-視頻模型技術(shù)——EMO。據(jù)官方介紹,EMO是一種先進的音頻驅(qū)動肖像視頻生成框架,能夠?qū)㈧o態(tài)照片轉(zhuǎn)化為生動逼真的動態(tài)視頻,并且能夠隨著任意音頻文件“說話”或“唱
    的頭像 發(fā)表于 03-05 11:00 ?1426次閱讀

    阿里巴巴重返中國頂級電商軌道

    阿里巴巴集團董事會主席蔡崇信近日宣布,經(jīng)過一系列架構(gòu)重組和管理層變動后,阿里巴巴已成功重返中國頂級電商軌道。蔡崇信在講話中強調(diào),公司正在逐步調(diào)整戰(zhàn)略,重新定位其在電商領(lǐng)域的領(lǐng)導(dǎo)地位。
    的頭像 發(fā)表于 02-27 14:29 ?962次閱讀

    阿里巴巴漲超3% 財報或超預(yù)期

    阿里巴巴漲超3% 今日港股開盤后阿里巴巴漲超3%,恒生科技表現(xiàn)也很亮眼。快手、比亞迪電子、聯(lián)想集團等多股上漲。 阿里巴巴將于2月7日發(fā)布2024財年第三季度財報,業(yè)界分析會超預(yù)期。
    的頭像 發(fā)表于 02-06 16:05 ?1515次閱讀

    阿里巴巴推出自主多模態(tài)AI代理MobileAgent

    阿里巴巴最近推出了一款名為MobileAgent的自主多模態(tài)AI代理,這款產(chǎn)品模擬人類操作手機,并采用純視覺解決方案,無需任何系統(tǒng)代碼。
    的頭像 發(fā)表于 02-04 10:34 ?1127次閱讀
    主站蜘蛛池模板: 免费特黄一区二区三区视频一 | 午夜伦理电影在线观免费 | 村妇偷人内射高潮迭起 | 杨幂视频在线观看1分30秒 | 国产浮力草草影院CCYY | 亚洲精品123区 | 中文无码在线观 | 亚洲中文热码在线视频 | 久久免费看少妇高潮A片JA | 海角社区在线视频播放观看 | 亚洲综合国产在不卡在线 | 乌克兰成人性色生活片 | 伊人久久中文字幕久久cm | 国产精品人成在线播放新网站 | 1区2区3区4区产品不卡码网站 | 国产喷水1区2区3区咪咪爱AV | 忘忧草在线影院WWW日本二 | 欧美精品成人a多人在线观看 | 乱色欧美激惰 | 少爷不要别揉了高H | FREESEXVIDEO 性老少配 | 国产亚洲高清视频 | 亚洲H成年动漫在线观看不卡 | 国内精品不卡一区二区三区 | 美女被强奷到抽搐的动态图 | 男女久久久国产一区二区三区 | vivoe另类| 极品美女穴 | 国产精品成人在线播放 | 99无码熟妇丰满人妻啪啪 | 亚洲欧美日韩中字视频三区 | 亚洲欧美一级久久精品 | 国产亚洲精品AV麻豆狂野 | tobu中国日本高清 | 国产高潮国产高潮久久久久久 | 国产精品人成在线播放新网站 | 国产又粗又黄又爽的大片 | 日韩av无码在线直播 | 国产99视频在线观看 | 国自产精品手机在线视频 | 在线播放免费人成毛片视频 |