跳到主要內容

發表文章

目前顯示的是 12月, 2023的文章

LLM提示詞

其實我對 prompt engineering 有些負面的看法,而且當我使用 #bard 或 #chatgpt 時,從來不會使用多餘的提示詞,提示詞的用法跟人類世界裡,討好人的那種語調很相似,但如果從LLM的工程系統裡來說,提示詞讓模型可以快速分類,聚焦找到精準的字詞機率 提示詞的需要,來自於推論引擎的不完美,模型無法精確理解,輸入字詞的精準含義,所以才需要人去特別提示它,讓他很快地切換知識的分支,而不是用猜測的方式去找到答案 所以...我看了這個影片,也跟對LLM同好分享 https://www.youtube.com/playlist?list=PLly8vI0gpqtpTB7mt_qi57qOKQRo4XWAQ

#又見一般人

一般人很有趣的想法,他們會常說,我只想把事做好,不想管其他上層的勾心鬥角😀😀😀 首先上層不一定勾心鬥角,這全是補腦 其次,如果沒辦法讓團隊(除了上層單位、還有配合廠商跟合作客戶)裡,所有利害關係人的利益取得共識,那麼事情根本不可能「做好」,有時甚至連「做對」都堪憂 也因為有這種你們搞定後再來找我的想法,所以,你只能像現在這樣存在著,但人又很矛盾 想要擁有出類拔萃的待遇,卻做著一般人的行事思維,是人常見的矛盾

認錯很難膩

是的,這很難 國中時我跟同學打賭,家裡有台機器(隨身聽)它的按鈕只有紙的厚度,那個年代,人們沒見過觸控形式的按鈕,於是那同學,到處跟人說,我在吹牛說謊,然後,他故意在課堂上問老師,以便證明他是對的,按鈕有可能薄如一張紙嗎?老師當場反射式地回答,如果有,我頭剁下來給你坐,然後,課堂上,哄堂大笑,有更多的同學取笑我😀 第二天,我把那台日本買來的機器(愛華隨身聽)帶來學校,上課時拿來給老師看,我明明擁有這樣的機器沒說謊,我只想證明這件事,但老師當場惱羞成怒,並且更理直氣壯地說,你這個按鈕不是薄如一張紙,而是兩張紙,不算…😀😀 所以,跟人溝通千萬不要一直以,你是錯的當作起頭,否則最後你會發現,錯的是你自己,你不應該擁有一台薄如紙的按鈕,不是因為你說謊,而是你挑起了別人的矛盾,他會死命維護他錯誤的想法,而且拿命來抵抗,所以,策略上要這麼做,你沒錯,但我們要一起解決問題 --- 你會發現,我前面說的那個真實的故事,裡面所有的人,也包括我自己,都只想爭奪事務的詮釋權(我是對的 你是錯的…不覺得有趣嗎

微程式經營團隊

神奇的事

今天打開元大股票軟體,神奇的事發生了,不是今天股市大漲大跌,而是戶頭裡多了一檔7721的股票😀 雖然要努力的還很多很多,但從那時我跟爸媽說,你不要看我這樣,還在破工作室,連冷氣都買不起,欠債欠到連房租都繳不出來,我未來會統合全台灣的軟體市場,並且上市櫃,他們笑了,你連自己都養不起在那邊吹牛…但我一一實踐了,這一路走來,篳路藍縷,整整花了三十年 未來的路還長,要努力跟感謝的人很多,尤其是跟我一起努力的團隊夥伴,加油 #微程式資訊 ,我與有榮焉

LLM 大型語言模型 #gemini

原來 google gemini 也已提供免費api,可供golang 能去存取使用 multimodal #LLM --- The first picture is of a tortoise, which is a reptile characterized by its hard shell. The second picture is of a sea turtle, which is a reptile. characterized by its flippers and streamlined shell. Tortoises are terrestrial animals, while sea turtles are marine animals. Tortoises have a domed shell, while sea turtles have a flattened shell. Tortoises have thick, scaly skin, while sea turtles have smooth, leathery skin. Tortoises have short legs with claws, while sea turtles have long flippers. Tortoises have a slow metabolism and can live for over 100 years, while sea turtles have a faster metabolism and typically live for around 50 years." 連結: https://eli.thegreenplace.net/2023/using-gemini-models-from-go/

放棄最簡單

在整理簡報時,有個商品很特別,它是當時另個部門主推的產品,那時我們期待它可以掛上很有機會成功的系統上,而且看起來一切都很有前景,我加大馬力支持這個很棒的構想,也成功推上線 但上線後,第三方合作單位因為策略問題,一直無法解決,造成推廣上的議題,當時的主管把這當成是燙手山芋,因為軟硬體已經上線,公司面臨實質的損失,這還不是最慘的狀況 沒多久他離開了,我看東窗要事發了,積極想辦法解決,當時一直在想,該如何扭轉劣勢,畢竟客戶整批退貨,對我跟部門都很傷,也是對我的處置不信任,對本來的策略威信大打折扣 最後在新上任的夥伴努力下,我們成功從舊客戶那邊取得諒解並下架,小賠,並找到新客戶應用,最後不止沒有損失,還從哪裡小賺回來,這期間,很多人私下跟我說,就放棄認錯吧😀但最後結局是它有了很好的去處,然後,我們現在反而遇到新的議題😀😀 遇到任何事,面對它/處理它,就是去解決而已,認錯沒問題,但我要板回來,事實上當初的構想沒錯,只是大環境下,有很多我們無法掌握的情況…做生意本來就需要冒險,如果連我們自己都不敢涉險,誰敢上戰場打仗呢 看著它發展的近況,雖然也不亮眼,就幾百萬而已,但卻算是我今年影響最深刻且漂亮的一場小戰役

高等程式語言與型態系統

以  台灣大學  之公告為準。 報名編號/准考證號 報名者姓名 錄取與否 DADAA02010A0001 薛共和 正取 DADAA02010A0002 林珍綺 正取 DADAA02010A0003 蔡依珊 正取 DADAA02010A0004 蔡明亨 正取 DADAA02010A0006 柯國偉 正取 DADAA02010A0007 林業勝 正取 DADAA02010A0008 黃耀賢 正取 DADAA02010A0009 許家碩 正取 DADAA02010A0010 曾君華 正取 DADAA02010A0012 吳柏翰 正取 DADAA02010A0013 王永彰 備取 DADAA02010A0014 翁梓烜 正取 DADAA02010A0015 陳政宏 正取 DADAA02010A0016 鍾正一 正取 DADAA02010A0017 葉睿元 正取 DADAA02010A0018 郗昀彥 正取 DADAA02010A0020 唐正憲 正取 DADAA02010A0021 林政緯 正取 DADAA02010A0022 林昱甫 備取 DADAA02010A0023 王偉信 正取 DADAA02010A0024 黃于育 正取 DADAA02010A0025 陳穎治 正取 DADAA02010A0026 李聰 正取 DADAA02010A0027 謝長愷 備取 DADAA02010A0028 王啟典 正取 DADAA02010A0029 粘敬佳 正取 D

微程式-新12月22日興櫃戰略新板買賣

  中央社 2023年12月14日 週四 下午8:08 日期:2023年12月14日 主旨:公告微程式資訊 股份有限公司 普通股股票開始為興櫃戰略新板股票之櫃檯 買賣日期。 公告事項: 一、上開公司係登錄興櫃戰略新板交易,其市場參與者之買方限合格投資人,且 自櫃檯買賣日起首五個交易日股價無漲跌幅限制。 二、櫃檯買賣股票種類、數量及每股面額:無實體發行普通股45,057,845股,每 股面額新臺幣10元。 三、櫃檯買賣股票開始買賣日期:112年12月22日。 四、櫃檯買賣股票類別:數位雲端。 五、輔導推薦證券商暨流動量提供者:富邦綜合證券股份有限公司、中國信託綜 合證券股份有限公司及玉山綜合證券股份有限公司。 六、股務代理機構:富邦綜合股份有限公司股務代理部 (地址:臺北市中正區許昌街17號11樓;電話:02-2361-1300)。 七、股票櫃檯買賣代號及簡稱: (一)代號:7721。 (二)簡稱:微程式-新。 八、公司英文名稱及簡稱: (一)英文名稱:MICROPROGRAM INFORMATION CO., LTD。 (二)簡稱:MICROPROGRAM。 九、公司營利事業統一編號:89798198。

字的順序很重要嗎?

#你是哪一種? 研表究明,漢字的序順並不定一能影閱響讀,比如當你完看這句話後,才發這現裡的字全是都亂的 --- 有些人說上面那一段話,他馬上會發現順序的亂七八糟的,有些人是看完,讀第二次時才發現,而這跟 attention layer 這一段,有關字的順序的理論有點不同,我的觀點: 習慣字字去讀才理解意義的人,會是前者,而習慣先有概念才去理解文字的人,會是後者 而我是後者 #LLM #大型語言模型 #人工智慧 

變形金剛

  #變形金剛 近期的 #LLM 模型是因為前幾年 #RNN 模型不容易被平行化,他的序列必須LOOP 好幾次才能得到結果,以至於計算的維度大爆炸,而變形金剛( #Transformer )裡的注意力機制網路層( #self_attention ) 主要是改善這個問題,有點像是把 RNN 轉用CNN 實踐 ,然而 #CNN 很容易忘記前面的資訊,於是他要使用好幾層,而CNN 的好處是比較容易做平行運算,能夠獨立平行運算的計算,就容易放進單獨的 #GPU 單元去做運算 把循序的程序拆解,讓可以平行的平行,不能的想辦法合併,這個概念不止在生成式ai 如此,在專案管理,製程改善…其實都是同樣的道理