跳到主要內容

發表文章

目前顯示的是 6月, 2024的文章

GPU會被取代嗎?介紹耐能智慧NPU

https://youtu.be/zktpp7wwLLo?si=a8ZP_V6Q0gtJWfE3

AI最大的風險ˉˉ王文華

https://udn.com/news/story/7340/8029905 這是一個非常值得深思的問題,筆者果然是文化人,非常獨特的見解,與眾不同。 衍生出不同的國籍、文化背景素養等因素,人類是有多元與豐富的性格,自己在年輕與年老時的想法也是不同的,所以造成獨特唯一的個人魅力,這是造物主的作品,奇美可畏! 人造的還是人造的,因為人的智慧有限吧!

學習黃仁勳「不超過6行」高效溝通術!哈佛實證:哪種信更容易一眼抓住重點

https://www.bnext.com.tw/article/79388/-communicate-more-effectively-in-the-real-world 簡報時的投影片也是一樣的道理,簡報是一場個人秀,重點在於你的表達,投影的內容只是輔助,而非簡報的重點,不然大家回家看書就好。TED 的簡報技術可以去參考,應該會獲得很多幫助!

Ragic 最強大的 No Code 企業電子化工具公司裡的業務、行政人員、專案經理等其實是最懂得如何幫公司做電子化的人

本人剛開始試用,感覺相當不錯,可以從免費的開始使用,功能已經相當不錯。 如果你是個人或小公司應該可以滿足,而且群組設定的功能相當多元彈性,非常值得推薦。 並且還有APP可以下載,兩種平台都有支援。 https://www.ragic.com/intl/zh-TW/home

拆解黃仁勳受人喜愛的真原因,知名口譯老師解讀:他用了3個技巧

https://www.businessweekly.com.tw/focus/blog/3015794 黃仁勳6月2日在台大體育館的演講,為10年來最大、眾CEO雲集台灣的COMPUTEX拉開序幕。綜觀整場演講,可以歸納黃仁勳精準掌握了「適度幽默、選字精準、重視關係」3大商務英文的精髓,更融合了「理性與感性」,成功讓所有人都樂在其中。 3.重視關係 言談、選詞與演講編排中,在在可以看出,生於台灣的他,對於這裡的人和關係,真的特別用心。 在這次演講在開頭和結尾中最重要的版面,他都讓焦點大大打在台灣上,不僅是土地,更是強調台灣是他的Treasured partners(珍貴的夥伴)。 大螢幕上還直接呈現數十家合作廠商與大專院校,這對於「上榜」的單位是多大的喜悅! Taiwan is the home of our treasured partners. This is in fact where everything NVIDIA does begins. Our partners and ourselves take it to the world. Taiwan and our partnership has created the world's AI infrastructure. (台灣是我們珍視的夥伴們的基地。這裡就是輝達所做一切的起點。我們和夥伴(把成果)帶向世界。台灣和我們的夥伴一同打造了世界的人工智慧基礎建設。) 這開頭,已經讓人感受到他對台灣和夥伴關係的重視,啟動台灣觀眾的熱血。 中間2個小時上天下地的精彩內容之後,竟然又出現AI生成的「Jensen AI」講著中文,感性向台灣道謝(又是一個理性與感性的結合啊)!說台灣幫助他們實現了願景,無數夥伴支持著他們(Countless partners lifted us higher),「每一個晶片,每一台電腦,都描寫著你們辛勤工作和追求完美的故事」(Every chip, every computer you craft and build, tells the story of your hard work and pursuit of perfection.)⋯⋯有沒有發現,突然超級感性?包括我,應該有不少人猝不及防,直接想到這土地上眾多前輩們努力工作的身影。 再來,「台灣是無名的英雄,卻是

別怕AI拿走你的工作 你該知道的生存之道

https://www.ctee.com.tw/news/20240602700004-431001 代表生成式AI就是在拆解、解構任務,它並非在每個環節都能節省時間,或許有些任務會省下一些,有些任務則會多費些力,就像比起要老師自己寫一篇作文,改一篇學生的作文可能更耗時間,但總花費時間是減少的。而這也不影響人與AI協作時,整體生產力的提升,根據統計,工作產出的品質還提升了19.8%。所以AI已經被證明是又快又好,加上使用成本還會持續降低,最後成了終極的又快又好又便宜的生產力工具。

什麼是RAG?RAG技術突破LLM限制,結合「資訊檢索」和「文字生成」動態獲取知識大幅提升

https://www.techbang.com/posts/115773-what-is-rag 為為解決這個問題,谷歌大腦實驗室提出了RAG(Retrieval Augmented Generation,檢索增強生成)技術。RAG是一種全新的LLM訓練模式,透過將「資訊檢索」與「文字生成」結合,讓LLM能夠動態取用並理解新的知識,提升其在特定場景下的問答及文字生成品質。 RAG的工作原理是先利用檢索模型從龐大知識庫(如網路、維基百科等)中找出與問題相關的文字資訊片段,再將這些資訊片段連同原始問題一起輸入語言生成模型,讓模型理解這些補充知識後,生成準確且連貫的答案文字。 RAG技術的另一大優點,在於它讓LLM生成的文字可追溯知識來源。傳統LLM雖然擁有驚人的生成能力,但很難知道模型到底是基於什麼樣的知識做出回應。而RAG則採用了向量資料庫技術,讓我們能清楚看到模型生成的答案是源於知識庫中的哪些特定文字資訊。 以上是簡單的摘要,本人認為RAG的發展是很正確的方向,這與人類獲取知識的方式很相近,透過檢索,閱讀與修正,始能成為該領域的專家!