AI教母李飛飛首次創(chuàng)業(yè):成立了“空間智能”公司,完成了種子輪
AI教母李飛飛,創(chuàng)業(yè)了!
最近,斯坦福大學(xué)教授李飛飛正在建立一個(gè)家庭AI企業(yè),種子輪融資已經(jīng)完成。
“企業(yè)方向定為”空間智能”——目的是讓AI能夠像人類一樣對(duì)視覺信息進(jìn)行高級(jí)推理。消息人士表示,這將是這項(xiàng)技術(shù)的飛躍。
投資者包括硅谷風(fēng)險(xiǎn)投資a16z和Radicalal Ventures。
作為AI領(lǐng)域最有影響力的女性和中國(guó)人,李飛飛長(zhǎng)期以來一直在學(xué)術(shù)界和工業(yè)界做出巨大貢獻(xiàn)。她在斯坦福獲得了終身教職,曾擔(dān)任谷歌云AI首席科學(xué)家,推動(dòng)谷歌。 建立AI中國(guó)中心,并長(zhǎng)期協(xié)調(diào)谷歌云AI中國(guó)。、谷歌大腦和中國(guó)當(dāng)?shù)氐膱F(tuán)隊(duì)工作。
但是自己創(chuàng)業(yè),這是第一次。。
現(xiàn)在,李飛飛和相關(guān)投資者還沒有回應(yīng)這個(gè)新消息。
但是李飛飛的領(lǐng)英頁(yè)面上已經(jīng)有了新的簡(jiǎn)歷。
“title是”新手”,介紹只寫了“something new",確定是全職,從2024年1月開始,現(xiàn)在已有5個(gè)月了。
“讓AI實(shí)現(xiàn)高級(jí)推理”計(jì)劃
總結(jié)多方信息,目前比較陰影隨行的線索是參與加拿大風(fēng)險(xiǎn)投資的Radicalal Ventures。
李飛飛去年以科學(xué)合作伙伴的身份加入了這個(gè)基金。
從李飛飛最近的公開活動(dòng)開始,可以看到更多的線索。
上個(gè)月,在溫哥華舉行的TED大會(huì)上,李飛飛發(fā)表了主題演講,其內(nèi)容與空間智能有關(guān)。
在演講中,李飛飛對(duì)“空間智能”的描述是從對(duì)象之間的關(guān)系中獲得預(yù)測(cè)和洞察的能力。
AI對(duì)空間智能理解的進(jìn)步,正在催化機(jī)器人學(xué)習(xí),讓我們更接近AI能夠與世界互動(dòng)的目標(biāo)。
為說明“空間智能”,她展示了一張貓伸出爪子把玻璃推到桌邊的照片。
她承認(rèn),此時(shí)此刻,人腦可以評(píng)估玻璃的幾何形狀,它在3D世界中的位置,它與桌子、貓和其他東西的關(guān)系,并預(yù)測(cè)下一步會(huì)發(fā)生什么,并采取行動(dòng)阻止它。
自然界創(chuàng)造了這種由空間智能驅(qū)動(dòng)的視覺和行為的良性循環(huán)。
與此同時(shí),她承認(rèn)自己的團(tuán)隊(duì)也在實(shí)驗(yàn)室里試圖教會(huì)計(jì)算機(jī)如何在3D世界中行動(dòng)。
舉例來說,通過大語(yǔ)言模型,讓一個(gè)機(jī)器人的手臂做出任務(wù),打開一扇門,做一個(gè)三明治,并對(duì)人類的口頭指令做出反應(yīng)。
這里提到的工作應(yīng)該與去年發(fā)布的VoxPoser具體智能成果有關(guān)。
這項(xiàng)工程可以讓人類給機(jī)器人下達(dá)指令,比如“打開上面的抽屜,小心花瓶!”
接著是大語(yǔ)言模型 視覺語(yǔ)言模型可以從3D空間中分析目標(biāo)和需要避免的問題,幫助機(jī)器人進(jìn)行行動(dòng)計(jì)劃。
而在現(xiàn)實(shí)世界中,機(jī)器人可以直接執(zhí)行這項(xiàng)任務(wù),而無需“訓(xùn)練”。
此外,近日,李飛飛還參與了計(jì)算機(jī)視覺、機(jī)器人、智能體等一系列學(xué)術(shù)成果的發(fā)表。
例如一些便攜式動(dòng)作數(shù)據(jù)采集系統(tǒng)。
還有一些與Agent有關(guān)的東西。
比如上個(gè)月發(fā)布的一項(xiàng)涉及1000多種人類日?;顒?dòng)的智能Benchmark,李飛飛就參加了。
就3D空間而言,李飛飛團(tuán)隊(duì)也在今年年初發(fā)布了一個(gè)隔空3D建模模型,可以通過遮擋物來塑造人物。
另外,她還與15名來自微軟、斯坦福、UCLA等機(jī)構(gòu)的研究人員聯(lián)合發(fā)布了一份關(guān)于Agent的文件。 AI的立場(chǎng)文件。
Agent在文檔中是清楚的 AI的基本概念,提出了Agent AI基本模型,即通用Agent系統(tǒng),采用多模式預(yù)訓(xùn)練模型。
該文件指出,這些模型可以處理來自機(jī)器人、游戲和其他方面的互動(dòng)多模態(tài)數(shù)據(jù)。
另外,從今年年初到2025年底,李飛飛的斯坦福首頁(yè)顯示,她將處于“部分休假”狀態(tài)。
這個(gè)開始時(shí)間,正好和李飛飛領(lǐng)英頁(yè)面上的“newbie"簡(jiǎn)歷的起始時(shí)間重疊。
李飛飛,AI教母
現(xiàn)在,李飛飛已成為AI領(lǐng)域最具影響力的女性和中國(guó)人之一。
對(duì)應(yīng)AI教父的稱號(hào),大家都稱她為AI教母。
她的傳奇經(jīng)歷一直被人津津樂道?!?/p>
33歲成為斯坦福計(jì)算機(jī)系終身教授,44歲成為美國(guó)國(guó)家工程院教授。斯坦?,F(xiàn)任人工智能研究所。(HAI)院長(zhǎng)。
作為計(jì)算機(jī)視覺領(lǐng)域極其重要的領(lǐng)導(dǎo)者,ImageNet成為推動(dòng)計(jì)算機(jī)視覺識(shí)別領(lǐng)域前進(jìn)的標(biāo)桿成果。
它的門下有很多高徒,比如OpenAI。、Andrej在特斯拉任職。 Karpathy、現(xiàn)在英偉達(dá)的Jim Fan等,也是AI領(lǐng)域頗具影響力的人物。
此后,李飛飛暫時(shí)進(jìn)入工業(yè)界,擔(dān)任谷歌副總裁谷歌云AI首席科學(xué)家。谷歌AI中國(guó)中心正式成立,這是谷歌在亞洲開設(shè)的第一家AI研究所。并帶領(lǐng)谷歌云推出了包括AutoML在內(nèi)的一系列有影響力的產(chǎn)品、Contact Center AI、Dialogflow Enterprise等。
在最新的大模型趨勢(shì)中,李飛飛團(tuán)隊(duì)專注于具體智能,將大模型連接到機(jī)器人上,將復(fù)雜的指令轉(zhuǎn)化為具體的行動(dòng)計(jì)劃,無需額外的數(shù)據(jù)和訓(xùn)練,開拓新一輪浪潮中的重要方向。
一直以來,李飛飛都是AI領(lǐng)域的方向標(biāo)。
最近,李飛飛的個(gè)人記憶“我看到的世界”正式發(fā)布。在這本書里,李飛飛告訴自己如何從北京到成都再到美國(guó),如何在AI變革中逐漸找到自己的使命,并分享了自己對(duì)AI發(fā)展的看法。
于是,一位更立體的李飛飛被勾勒出來。
她說自己不是開源派,也不是毀滅派,她希望人類能夠與AI和諧相處。
谷歌云的經(jīng)歷讓她認(rèn)識(shí)到,推動(dòng)AI技術(shù)發(fā)展的需要承擔(dān)著相應(yīng)的責(zé)任。
如果你追求時(shí)尚算法,她還說,這絕對(duì)不是最好的科學(xué)研究。
說到底,她曾經(jīng)做過一個(gè)冷門項(xiàng)目——不聽同行導(dǎo)師的建議,用了幾年的時(shí)間來標(biāo)注1400萬張用于ImageNet訓(xùn)練的照片。
……
李飛飛直言,自己很害羞,不敢講自己的故事。
僅僅四十多歲就寫回憶錄?我不是愛因斯坦。
但是在寫完自己的前40年之后,李飛飛為自己打開了人生的新篇章。
正如她所說,文明就像一艘大船,我們?cè)诤诎抵泻叫小?/p>
科學(xué)家李飛飛,現(xiàn)在有了新的故事。
參考鏈接:[1]https://www.reuters.com/technology/stanford-ai-leader-fei-fei-li-building-spatial-intelligence-startup-2024-05-03/[2]https://www.ft.com/content/d5f91c27-3be8-454a-bea5-bb8ff2a85488[3]https://blog.ted.com/mind-expanders-notes-on-session-2-of-ted2024/
本文來自微信微信官方賬號(hào)“量子位”(ID:QbitAI),作者:關(guān)注前沿技術(shù),授權(quán)發(fā)布36氪。
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請(qǐng)?jiān)谖闹凶⒚鱽碓醇白髡呙帧?/p>
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請(qǐng)及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com