Learn_ml
This message is used to verify that this feed (feedId:65295664327091200) belongs to me (userId:52188411015365632). Join me in enjoying the next generation information browser https://follow.is . github arXiv 语义学者 Papers With Code openalex hugging face UCI Machine Learning Repository ACM 数字图书馆 吴恩达 deeplaerning ai 学术维基 stack over flow 播客 latent space AI 工程师时事通...
【译】Read Write Own
by A16z 互联网可能是二十世纪最重要的发明。它改变了世界,就像之前的技术革命——印刷机、蒸汽机、电力——一样。 与许多其他发明不同,互联网并没有立...
评估人工智能系统的挑战【译】
Anthropic 开发了 cluade2,2023年10月获得谷歌数亿美元投资。 介绍 大多数围绕人工智能(AI)社会影响的讨论通常都会涉及讨论 AI 系统的某些质量,...
漫谈科学研究方法【转】
自然辩证法通讯第十四卷总77期 v14 №77 1992第1期JOURNALOFDIALECTICSOFNATURE1,1992 ·科学哲学· [美]司马...
技术乐观主义宣言【译】
“你正处在一个疯狂的时代 —— 比往常更加疯狂,因为尽管科学技术取得了巨大的进步,人们却依然对自己的身份和所做的事情一头雾水。” Walker Percy “我们的物种...
【译】Large Transformer Model 推理优化 | Lil'Log
[January 10, 2023] · 31 min · Lilian Weng 2023-01-24 更新:增加了关于蒸馏 的小节 如今,大型 Transformer 模型已经成为主流,为各种任务创造了 SoTA (最先进的技术) 结果。它们功能强大但训练和使用...
【译】如何在多 GPU 上训练真正的大型模型? | Lil'Log
2022-03-13 更新: 添加 expert choice routing 2022-06-10 更新: Greg 和我撰写了这篇文章的缩短和升级版本,发表在 OpenAI Blog 上:“训练大型神经网络的技术” 近年来,我们...
How to Use Latex in Markdown
用检索式"Powered by Hugo & PaperMod" npm/mathjax@3找到当前博客使用Mathjax部署的方案 文中提到,在markdown中使...
【译】Transformer家庭2.0版
January 27, 2023 · 45 min · Lilian Weng 自从我三年前关于 “Transformer家族” 的最后一篇文章以来,已经有许多新的 Transformer 架构改进被提出。在这里,我对2020年的...
【译】提示工程
March 15, 2023 · 21 min · Lilian Weng Prompt Engineering,也称为 In-Context Prompting ,指的是如何与LLM沟通以引导其行为以获得所需结果,而不更新模型权重的方法。这是一门经...
【译】基于大型语言模型的智能体系统
June 23, 2023・31 min・Lilian Weng 使用大型语言模型(LLM)作为其核心控制器构建代理是一个很酷的概念。例如 AutoGPT 、GPT-Engineer...
如何查找期刊历任编辑
信息源 维基百科 webarchive 期刊主页 about editor 期刊首尾editorial 期刊抬头 交叉验证 官方信息 领英 维基百科 搜索引擎 twitter 本文涉及期刊 应用心理学杂志 密码学报 nature medicine IEEE...
批量获取图书文献
获取图书参考文献 我们从zlibrary、纸质书、jiumosearch等途径找到图书,从中获取参考文献后,转换为电子版。有些图书的中文版不带...
2021总结
无论是否有收获,办了什么蠢事,都要留下些什么。秉承这样的态度,在 2021 年的最后一周,我开始反思并总结。 关键词 今年的方向感很差,近乎迷了路。梳理下...
博客指南
一分耕耘一份收获,愿你也能在这个越来越内卷的社会,收获心流与自由。 正在考虑添加进博客的功能 这个友情链接朋友圈很棒,很想实现:https://...