Jay Liang的动态

查看Jay Liang的档案,图片

Lead of Product Development & Architect

前些日子重讀 Transformer 原始論文 Attention is All You Need 時,花了好段時間才理解 Q, K, V vectors 的含義,以及這樣的數學模型是如何學習到語意背後的關聯性。不過理解之後,便開始能自己思考與推敲語言模型可能的發展方向,再去尋找相關的研究。這省下了我大量主動跟隨論文發展的時間,也更有信心在語言模型飛速迭代的時代,能夠掌握基本原則,而不是被淹沒在各種 prompt engineering 跟 RAG 的技術手段中不知所措。 這也讓我開始思考,雖然之前已經讀過一部分機器學習基本原理,如果能在現在語言模型應用大量冒出的背景下,重新去溫習基礎課程,除了能幫助我釐清作者如何從過往的類神經網路推演出 Transformer 的架構以外,也會更有能力去查看或更改小模型的實作細節,讓我更深入理解語言模型的行為。 作為 Andrew Ng Machine Learning Specialization 的第一堂課,這是不起眼的一小步,但是必須有這第一步,才有後面的各種可能性。 https://lnkd.in/g_6DF7_K

Completion Certificate for Supervised Machine Learning: Regression and Classification

Completion Certificate for Supervised Machine Learning: Regression and Classification

coursera.org

要查看或添加评论,请登录