亚洲欧美日韩熟女|做爱高潮视频网址|国产一区二区三级片|国产Av中文字幕www.性色av|亚洲婷婷永久免费|国产高清中文字幕|欧美变态网站久re视频精品|人妻AV鲁丝第一页|天堂AV一区二区在线观看|综合 91在线精品

AIGC之后,讓我們實(shí)現(xiàn)鏡頭自由

商界觀察
2023-08-23


 

大家最近好嗎?

 

我最近有一些心得,也特地來問候問候。

 

離上次匯報(bào)牛津讀書脫層皮的經(jīng)歷竟然又有一年多了,我果然是你萌所說的年更作者。

 

我大部分時(shí)間都在倫敦東城區(qū)貓著,工作和學(xué)習(xí),一邊適應(yīng)新地方、新行業(yè)、新文化,同時(shí)一邊思考三十而立的生活。

 

簡單而言,對這個(gè)問題實(shí)話說我還沒啥答案。

 

哪里都有好,哪里都有不好,一萬句省略后,就說句,我還真挺想家的。

 

主要是我的中國胃作怪也?

 

吃其他的都覺得缺點(diǎn)啥。不過最近我感覺好多同胞來倫敦,中國超市開的更多了,超市里的鄉(xiāng)音也很多。

 

工作時(shí),最近也很容易碰到中國人,特別是AI和技術(shù)相關(guān)的這塊。每次一對接發(fā)現(xiàn)對方可以講普通話,就覺得好開心。

 


 

之前文章里提過,我目前在的公司是做 AI 內(nèi)容生成的,也就是 AIGC (AI Generated Content)。

 

過去一年 AIGC 這塊發(fā)生的巨大變化更不用我來敘述,我只是想表達(dá),之前有關(guān)科技浪潮的文章里提過的一個(gè)關(guān)于技術(shù)奇點(diǎn)(Singularity)來臨的觀點(diǎn):

 

未來學(xué)家雷蒙德·庫茨魏爾(Ray Kurzweil)把這種人類科技進(jìn)步的加速發(fā)展稱作加速回報(bào)定律(Law of Accelerating Returns)。

 

他認(rèn)為整個(gè) 20 世紀(jì) 100 年的進(jìn)步,按照 2000 年的速度只要 20 年就能達(dá)成 —— 2000 年的發(fā)展速度是 20 世紀(jì)平均發(fā)展速度的 5 倍。2014 年開始,只要花 7 年(2021年),就能達(dá)到又一個(gè) 20 世紀(jì)一百年的進(jìn)步。

 

他提過,那 2030 年的世界可能就能把我們嚇一大跳,2050 年的世界會(huì)變得面目全非。

 

還記得我之前提過的這個(gè)曲線嗎?那個(gè)轉(zhuǎn)折點(diǎn)就是奇點(diǎn)所在。

 

我真的覺得,我們目前站在這個(gè)點(diǎn)上。

 

像互聯(lián)網(wǎng)先驅(qū) Tim OReilly 說的那樣,技術(shù)變革都是這樣按照“逐漸地,然后突然地”趨勢的浪潮發(fā)展的。

 

關(guān)鍵是自己要做點(diǎn)什么,可以有意義地參與。

 

 

不過,千萬別覺得我在倫敦找工作的時(shí)候,腦子里有帶著這些宏大牛B的理論,事實(shí)上完全沒有。

 

我只是給自己定了幾點(diǎn)原則:

 

1. 盡量找好的人一起工作。創(chuàng)始人和創(chuàng)始團(tuán)隊(duì)的素質(zhì)和人品,決定了團(tuán)隊(duì)能力能不能更好發(fā)揮,大家是否能同甘共苦。

 

特別是共苦這點(diǎn)。最好的小伙伴和導(dǎo)師都是創(chuàng)業(yè)時(shí)候,或者因?yàn)閯?chuàng)業(yè)相關(guān)的原因認(rèn)識的。

 

我們互相見過最艱難時(shí)刻最差的一面,竟然還是朋友,真不容易。

 

2. 盡量和內(nèi)容變革相關(guān)。從傳統(tǒng)媒體 Media 到 PGC(Professional Generated Content), 再到 UGC (User Generated Content), 讀我公眾號時(shí)間長的同學(xué)可能記得,我就是對內(nèi)容感興趣。

 

一直在試圖搞明白,互聯(lián)網(wǎng)傳播方式的巨大變革,對內(nèi)容生成帶來的社會(huì)影響(可以看公眾號內(nèi)目錄:糖總總的媒體課)。我在牛津做的研究生課題也是Z世代的視頻內(nèi)容生成。

 

多一句嘴,我強(qiáng)調(diào)變革,是因?yàn)楣鈴膬?nèi)容生產(chǎn)本身可能會(huì)容易一葉障目。因?yàn)橹钡?AIGC 之前,內(nèi)容生產(chǎn)的成本都非常高(文章后面有專門講),如果簡單去比如做一個(gè)新媒體的小編,十有八九時(shí)間會(huì)被大量的成產(chǎn)過程占據(jù),而不夠時(shí)間去研究新的圖景。

 

我比較關(guān)注變化向的東西。做事要抓關(guān)鍵,做四兩撥千斤的事情。

 

我想起來笑來老師其實(shí)之前經(jīng)常講,不要被特定媒體的形態(tài)綁住。不要陷在更高效地手工給村莊取水,要思考怎么先自動(dòng)化搭建水渠。即使,剛開始的時(shí)候,手工的方法見效更快。你要穩(wěn)得住。

 

這也一直是我為什么近幾年不執(zhí)著于更新內(nèi)容的原因,因?yàn)樘季α?,還有很多東西需要學(xué)。

 

當(dāng)然,這也給自己年更這個(gè)狀態(tài),找個(gè)冠冕堂皇借口,不要介意。

 

3. 盡量和內(nèi)容生成的新技術(shù)相關(guān)。我入職我現(xiàn)在公司的時(shí)候,牛津的互聯(lián)網(wǎng)中心是學(xué)校里討論 AI 對社會(huì)影響最前沿的地方了,但當(dāng)時(shí)討論 AI,也大多數(shù)是在 AI 的道德層面和數(shù)據(jù)保護(hù)層面。

 

AI 在當(dāng)時(shí)還沒有變成內(nèi)容生成的杠桿。

 

在牛津的時(shí)候我參與了一個(gè) Entrepreneural Program,當(dāng)時(shí)有很多 start-up 在這個(gè)創(chuàng)業(yè)中心孵化。

 

我選了一個(gè)離內(nèi)容生成最近的,也就是現(xiàn)在的公司。剛開始我們是在做 3D 生成的 Nerf 技術(shù),幫助大家產(chǎn)生鏡像一般的虛擬現(xiàn)實(shí)內(nèi)容。

 

隨著 AIGC 相關(guān)研究的井噴,我們結(jié)合 AI 生成視頻和 3D,在內(nèi)部的 Creative Lab 孵化了一系列技術(shù)。

 

我當(dāng)時(shí)并沒有想到 AIGC 會(huì)變成一個(gè)專有名詞,然后突然 AI 生成內(nèi)容的奇點(diǎn)來臨:按照內(nèi)容的視覺化難度層級來看,大家看到文字和圖片的 AIGC 內(nèi)容只是前奏 - 視頻、游戲、3D 都會(huì)繼續(xù)按照奇點(diǎn)的速度發(fā)展。

 

我記得年初,有一天在家里高興地鼓掌:一直研究的 Media-PGC-UGC-AIGC 這條脈絡(luò)竟然連起來了。

 

 

講述 AIGC 的意義之前,我們先來說說鏡頭這個(gè)概念,因?yàn)闃O大可以幫助理解。

 

媒體出身的我,某種意義上我一直是不喜歡鏡頭的。

 

這不僅僅是,我自己覺得自己不上相的原因。

 

Camera 是人類的一個(gè)偉大發(fā)明。從小孔成像實(shí)驗(yàn)到現(xiàn)代電影的發(fā)展,鏡頭背后也疊加了幾個(gè)世紀(jì)的技術(shù)buff。

 

我所謂的不喜歡,是從社會(huì)學(xué)的意義上來說的。鏡頭是記錄和反映現(xiàn)實(shí)的一種強(qiáng)有力媒介。

 

觀察現(xiàn)實(shí)的視角,就是鏡頭在塑造的。

 

大眾媒介的變化,核心就是鏡頭塑造權(quán)利和能力的去中心化,特別是智能手機(jī)出現(xiàn)之后。

 

其實(shí)大家都是在圍著鏡頭轉(zhuǎn):

 

新聞?dòng)苗R頭傳遞正在發(fā)生的事實(shí)(理論理想情況下);

 

廣告用鏡頭創(chuàng)造吸引人的視覺;電影和電影用鏡頭語言傳達(dá)故事的情感和節(jié)奏;

 

短視頻和智能手機(jī)把前面一眾都極簡化;

 

直播本身不新鮮,新聞行業(yè)對于反常事件的會(huì)用鏡頭在線的方式體現(xiàn)。只是如今在電商和娛樂行業(yè),因?yàn)樯虡I(yè)模式的連通,鏡頭前生活變成了一個(gè) 7 X 24 小時(shí)不間斷的現(xiàn)象(不一定是好現(xiàn)象)。

 

媒體和注意力本身是有二八法則的,所以無論技術(shù)如何變化,一定會(huì)有 20% (甚至更少的比例)能夠得到 80% (甚至更多)的注意力。

 

但是這個(gè)媒介造就的大眾注意力聚焦點(diǎn),很難讓人不關(guān)注,更難做到公平公正。

 

關(guān)鍵是,誰在塑造,誰在看?

 

更關(guān)鍵的是,因?yàn)殓R頭的能耐,因?yàn)橹悄苁謾C(jī)的普及性——越來越多的人為了鏡頭而活。

 

一部分是在鏡頭前表演自己的人生,另一部分是觀看鏡頭上別人的人生。

 

“黑鏡”實(shí)現(xiàn)了一般的感覺。

 

每次出門吃飯的時(shí)候,看到鄰桌有漂亮姑娘以拍照和拍視頻作為在餐館的主要任務(wù),我都想問問技術(shù)和互聯(lián)網(wǎng)先驅(qū)們,這樣的社會(huì)影響你們怎么看。

 

這點(diǎn)在北京和倫敦,沒有啥區(qū)別。

 

 

其實(shí)我公眾號的老讀者都知道,我是很贊成掌握媒介素養(yǎng)(media literacy),讓媒體能力成為自己的杠桿的。

 

我也一直在鼓勵(lì)傳統(tǒng)媒體的老朋友們勇敢邁出科技的這一步。

 

像前沿科技投資者Naval 說的那樣,新興媒體和技術(shù)能力是重要的創(chuàng)業(yè)杠桿,和做傳統(tǒng)商業(yè)不同,人的負(fù)擔(dān)更?。╬ermissionless)更容易scale up 。

 

但是真正的媒介素養(yǎng),不只是能力的達(dá)成,而是某種程度上的自由運(yùn)用。

 

一定要注意,是我們要拿捏媒體和技術(shù),不是反過來。

 

我們應(yīng)該用鏡頭記錄值得記錄的生活,而不是一切。

 

不要為了鏡頭而活。這樣不自由。

 

不過你要問了,為什么說 AIGC 到一半,過來噴鏡頭???

 

其實(shí)這是我想到的,AI 生成內(nèi)容對我而言的第一個(gè)意義—— AIGC成為創(chuàng)作杠桿,幫我們實(shí)現(xiàn)鏡頭自由。

 

AI 生成內(nèi)容,從這個(gè)角度可以理解成,很多內(nèi)容不再需要鏡頭來反映,可讓 AI 經(jīng)過一定的訓(xùn)練,來想象某個(gè)人,某個(gè)事物和某個(gè)場景等等的樣子——不再需要現(xiàn)實(shí)取景。

 

人類很快就可以減少不必要的因?yàn)殓R頭花費(fèi)的,無謂的時(shí)間。

 

舉個(gè)例子。

 

我這篇文章的題圖,其實(shí)就是我們 Creative Lab 內(nèi)部的 AI 工具生成的(還不成熟,只是原型實(shí)驗(yàn))。

 

作者供圖

 

仔細(xì)看其實(shí)左邊有點(diǎn)點(diǎn)像我—— 這是我和前端同事的虛擬合影,然后加上了我們小時(shí)候的樣子。輸入的內(nèi)容只有我和他的自拍照,和一些風(fēng)格咒語(text prompts)。輸出內(nèi)容等待了 10s 。

 

我并沒有打開鏡頭來實(shí)現(xiàn)這張合影。

 

我的同事人在東歐,并不在倫敦。我倆開視頻會(huì)議做個(gè)合影截圖也沒啥特別的意義。更何況,我們不可能在小時(shí)候認(rèn)識,我倆也都沒有高超的P圖技術(shù)。

 

這對大眾媒介而言,是革命性的 ——最重要的介質(zhì)被挑戰(zhàn),這意味著幾個(gè)世紀(jì)以來,人類圍繞鏡頭這樣的介質(zhì),所塑造的所有內(nèi)容生產(chǎn)流程和分工被打破。

 

我上面提到的圍著鏡頭轉(zhuǎn)的行業(yè),都會(huì)經(jīng)歷大變革。因?yàn)槠纥c(diǎn)已經(jīng)來臨。

 

 

其實(shí)現(xiàn)在已經(jīng)有很多關(guān)于 AI 所生成的內(nèi)容真實(shí)性和道德性的討論。我想說,這個(gè)問題太大,這篇文章的落腳點(diǎn)也不在宏觀層面,而是個(gè)體自身。

 

AIGC 來臨之前,內(nèi)容真實(shí)性和道德性的問題本身就存在。媒介和內(nèi)容永遠(yuǎn)是人性的照妖鏡而已。

 

如何可以讓 AIGC 成為更好的創(chuàng)作杠桿?

 

這里如果我們直接把這個(gè)問題喂給 GPT4,會(huì)很快能得到一個(gè)概貌:

 

樣式遷移:人工智能可以在不同的圖像和視頻之間遷移風(fēng)格,例如將一個(gè)普通照片轉(zhuǎn)化為梵高或畢加索的畫風(fēng)。

 

 

場景生成:使用AIGC,可以生成虛擬的背景或場景,以模擬實(shí)際拍攝環(huán)境。這對于制作需要特定環(huán)境但預(yù)算有限的影片尤其有用。

 

 

角色插入:可以將AI生成的或?qū)嶋H拍攝的角色插入到另一個(gè)視頻場景中,使其看起來像是在原地被拍攝的。

 

 

視頻增強(qiáng):通過AIGC,可以改進(jìn)視頻的質(zhì)量,例如從低分辨率提升到高分辨率,或改善在差的光照條件下拍攝的視頻。

 

 

面部和表情生成:AIGC可以生成各種面部和表情,這在廣告和娛樂行業(yè)中有廣泛的應(yīng)用。

 

 

動(dòng)畫和3D模型生成:通過AIGC,可以快速生成3D模型或動(dòng)畫,大大縮短了傳統(tǒng)的創(chuàng)作時(shí)間。

 

 

我選了一些跟我想說的主題相關(guān)的答案,基本是圍繞鏡頭相關(guān)的內(nèi)容制作來的:拍攝前的人物和場景準(zhǔn)備,拍攝中的表演和拍攝之后的后期,以及視覺和創(chuàng)意效果增強(qiáng)等等。

 

你看,GPT4 其實(shí)已經(jīng)減少了我這篇文章的創(chuàng)作成本 —— 減少我查找和描述基本事實(shí)的時(shí)間,我則可以聚焦在我的核心觀點(diǎn)。

 

鏡頭相關(guān)創(chuàng)作成本的大大降低,這代表著 AIGC 可以幫助我們填補(bǔ)很多將想法具象化的視覺。

 

這其實(shí)不僅僅和專業(yè)的影視從業(yè)者有關(guān) —— 我的判斷是,很多寫文章的作者,很可能變成視頻創(chuàng)作者。

 

這點(diǎn)其實(shí)讓我非常欣慰,因?yàn)檫@樣讓有想法的作者可以更好地講故事。

 

Robert Mckee, 電影制作和敘事技巧經(jīng)典制作“故事”的作者,有一個(gè)核心觀點(diǎn)就是,故事的核心不在表面(extrinsic)敘事,而是內(nèi)在(intrinsic)價(jià)值。

 

好看的電影,畫面可以很粗糙,但是可以很扎心。一個(gè)內(nèi)在價(jià)值好的內(nèi)容,起到的就是四兩撥千斤的效果 —— 通過抓住 20% 的最重要的關(guān)鍵,實(shí)現(xiàn)80%的效果。

 

很多時(shí)候華而不實(shí)的電影制作是,80% 的制作花在了表面功夫。而很多很好的作者,卡在了鏡頭和拍攝這一環(huán)。

 

試想一個(gè)有想法的作者,再也不用擔(dān)心出鏡、演員、拍攝和后期的大部分成本。目前 AI 還只能實(shí)現(xiàn)通過文字輸入,產(chǎn)生電影預(yù)告片一樣的視覺。但是這是 0 到 1 的質(zhì)變。

 

試想一個(gè)好看的生活方式網(wǎng)紅,可以拍攝少量的經(jīng)典照片,讓 AI 讓圖片實(shí)現(xiàn)動(dòng)感,短視頻輕松可以完成。再也不用大部分時(shí)間用來擺拍生活場景,而是可以讓數(shù)字分身去拼接相對重復(fù)的生活取景和拍攝。

 

深諳鏡頭這行的人,在鏡頭面前,對于如何安排時(shí)間,可能把握還多一些。最可能走偏的是以為開了鏡頭就能夠擁有塑造注意力的能力,結(jié)果讓時(shí)間面前,靜靜地流失 —— 成本特別高。

 

新媒體賬戶上多的幾個(gè)數(shù)據(jù),一生卻被鏡頭拿捏,人間不值得。

 

期待看到鏡頭自由的時(shí)代,創(chuàng)作圖景會(huì)出現(xiàn)怎樣的改變。

 

期待鏡頭在大家生活中的占據(jù)比例,特別是不必要的部分,可以逐漸淡化。

 

希望全世界的漂亮姑娘們在餐館里,都能不用擺拍,可以好好吃飯。

 

本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請?jiān)谖闹凶⒚鱽碓醇白髡呙帧?/p>

免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com