Skip to content

Commit

Permalink
✨ feat: update 2024-04-14 section
Browse files Browse the repository at this point in the history
  • Loading branch information
Jiacheng787 committed Apr 14, 2024
1 parent 619be8f commit 0e82f57
Showing 1 changed file with 11 additions and 11 deletions.
22 changes: 11 additions & 11 deletions blogs/2024/2024-04-14/index.md
Original file line number Diff line number Diff line change
Expand Up @@ -11,27 +11,27 @@ tags: []

## 🌟 AI 相关

[干货 | 如何系统性地评价RAG系统](https://mp.weixin.qq.com/s/kw8IZE7yy2QO66iPmQVhqA)
[干货 | 如何系统性地评价RAG系统](https://mp.weixin.qq.com/s/kw8IZE7yy2QO66iPmQVhqA)。这篇文章是对《LLM-auto-eval-best-practices-RAG》的翻译和解读,重点讨论了如何系统性地评价检索增强生成(RAG)系统。文章探讨了使用大型语言模型(LLM)作为RAG系统自动化评估工具的最佳实践,包括评分的一致性、通过少量示例来提高评估准确性、选择合适的评分尺度以简化解释过程、以及评估指标的通用性。作者通过一系列实验,提出应使用低精度评分,如0至3分或1至5分,定制RAG基准,并建议特定用例评估,以准确衡量模型性能。

[PromptKD: 基于Prompt的视觉语言模型蒸馏](https://mp.weixin.qq.com/s/Eub9QELtA91bdYNkzaZfIQ)
[PromptKD: 基于Prompt的视觉语言模型蒸馏](https://mp.weixin.qq.com/s/Eub9QELtA91bdYNkzaZfIQ)。本文介绍了一个使用无监督Prompt蒸馏(PromptKD)方法,针对视觉-语言模型(VLMs),在prompt learning的11个基准数据集上达到了最佳状态(SOTA)。PromptKD通过引入一个更大的CLIP模型作为教师模型,通过三个主要步骤以提高模型效能:重用教师模型产生的文本特征用于学生模型的训练和推理,确保高质量文本特征的同时显著减少计算量;对齐学生和教师的logits,让大模型为小模型提供更准确的监督信号;使用大量无标签的域数据让学生模型学习更广泛的领域知识。实验结果表明,PromptKD在多个基准测试中均展示出卓越的性能,显示出这种方法在提高VLMs的表现上的有效性。

[大模型应用开发之业务架构和技术架构从AI Embedded 到 Copilot,再到Agent](https://mp.weixin.qq.com/s/su_NCl9WQtPGP3pcDgnQ8A)
[大模型应用开发之业务架构和技术架构(从AI Embedded 到 Copilot,再到Agent)》](https://mp.weixin.qq.com/s/su_NCl9WQtPGP3pcDgnQ8A)。本文分析了大型语言模型(LLM)在应用开发中的业务架构和技术架构,讲述了从AI Embedded模式、AI Copilot模式到AI Agent模式的演变。AI Embedded指在某些传统应用环节中集成LLM,而AI Copilot代表广泛应用LLM进行串联集成的模式。AI Agent模式则更进一步,用户只需提出需求,AI则自动完成任务。文章还讨论了单Agent模式和多智能体系统(Multi-Agent)的定义,展示了这些体系的应用如何分解复杂任务、通过对话促进个体间的信息交流和协作。提出了基于大模型的Agent需要能够进行对话,接收和响应消息。最后,文章介绍了单Agent和Multi-Agent的应用开发框架,如LangChain和Autogen,并讨论了选择技术方案的思路。

[TensorRT-LLM初探(二)简析了结构,用的更明白](https://mp.weixin.qq.com/s/So1Swe4E99xi_SEyxFadsw)
[TensorRT-LLM初探(二)简析了结构,用的更明白](https://mp.weixin.qq.com/s/So1Swe4E99xi_SEyxFadsw)。文章深入探讨了TensorRT-LLM(一个深度学习优化推理库)的结构及其使用方法。介绍了TensorRT-LLM是基于FasterTransformer和TensorRT进行构建,用于优化大模型推理性能。文章概述了trt-llm的两个分支:Release branch和Dev branch。重点强调了trt-llm的多卡支持,包括Tensor Parallelism和Pipeline Parallelism。进一步探讨了In-flight Batching与动态KV Cache以及量化技术,比如INT8 weight-only、SmoothQuant、GPTQ和AWQ,用于提高效能。最后总结LTR-LLM在kernel性能及调度方面的优势及部分闭源代码限制。

[LLM微调技术指南Prompt-Tuning,P-Tuning,Prefix-Tuning、Lora, IA3](https://mp.weixin.qq.com/s/KaSM29hUEkme8TjxlbCDag)
[LLM微调技术指南:Prompt-Tuning,P-Tuning,Prefix-Tuning、Lora, IA3](https://mp.weixin.qq.com/s/KaSM29hUEkme8TjxlbCDag)。本文细致审视了大型语言模型(LLM)的多种参数效率微调(PEFT)技术,包括Prompt-Tuning、P-Tuning、Prefix-Tuning、LoRA和IA3。介绍了微调的概念及其在LLM中的重要性,尤其是当模型规模与复杂度日益增长时。文章还详细探讨了迁移学习和各种PEFT策略的工作机制,强调这些技术如何帮助提高LLM在特定任务上的性能,同时降低了训练成本。通过具体实例和详尽分析,文章展示了如何有效地微调模型,以适应迅速变化的数据和业务需求,并充分利用机器学习应用程序的潜力。

[纯C语言手搓GPT-2,前OpenAI、特斯拉高管新项目火了](https://mp.weixin.qq.com/s/YMuq9Jo9Nibl1QFbLNxazg)
[纯C语言手搓GPT-2,前OpenAI、特斯拉高管新项目火了](https://mp.weixin.qq.com/s/YMuq9Jo9Nibl1QFbLNxazg)。本文介绍了Andrej Karpathy发布的项目“llm.c”,这是一个使用不到1000行纯C语言代码即可实现在CPU/fp32环境下训练GPT-2模型的项目。它旨在简化大模型训练流程,去除对大型机器学习库的依赖。文中提到项目目前已完成几层核心代码的CUDA移植,以提高效率。而未来工作的方向包括实现更多新型架构支持、SIMD指令优化和更直接的CUDA实现。实验结果显示,尽管该方法仅用极少代码,依然能够与PyTorch实现相媲美,社区反响热烈。

[一键更改LoRA初始化LoRA吃了披萨,效果起飞](https://mp.weixin.qq.com/s/EQgaHqNyNT2gvp5q4ro1xQ)
[一键更改LoRA初始化!LoRA吃了披萨,效果起飞?》](https://mp.weixin.qq.com/s/EQgaHqNyNT2gvp5q4ro1xQ)。文章提出了一种新型参数效率的微调方法PiSSA,该方法利用预训练模型权重的本质低秩性质,通过奇异值分解来构建适配器,实现少量参数的高效调整,而冻结大部分参数以保持模型原有能力,显著降低了训练成本。PiSSA与已知的LoRA方法在架构上一致,差别在于初始化技术,使PiSSA在多项模型训练任务中优于LoRA。本文还探讨了快速奇异值分解技术,以减少PiSSA初始化的计算成本。

[RAG中,无关信息的影响有多大](https://mp.weixin.qq.com/s/FTsvYFY63cQIm7XWbNMgjA)
[RAG中,无关信息的影响有多大?》](https://mp.weixin.qq.com/s/FTsvYFY63cQIm7XWbNMgjA)。论文《How Easily do Irrelevant Inputs Skew the Responses of Large Language Models?》探讨了大型语言模型(LLMs)在处理相关但无关信息时的鲁棒性问题。研究构建了多种质量的无关信息,分析了LLMs在答案生成时的易受干扰性,并测试了不同模型对无关信息的处理能力。发现模型容易受到语义相关无关信息的误导,无关信息数量增加会减弱模型的判别能力,并指出问题格式显著影响模型鲁棒性。研究揭示了现有应对策略的局限,提供了提高LLMs处理无关信息鲁棒性的指导。

[Agent四大范式 | CRITIC吴恩达力推Agent设计范式](https://mp.weixin.qq.com/s/RhjmsehDXOj5KRY2gQ4wzw)
[Agent四大范式 | CRITIC:吴恩达力推Agent设计范式](https://mp.weixin.qq.com/s/RhjmsehDXOj5KRY2gQ4wzw)。文章概述了CRITIC框架,它的目的是通过与外部工具交互,提高大型语言模型(LLMs)的效能和准确性。CRITIC作为一种交互式验证机制,可使模型像人类一样利用搜索引擎等工具进行自我修正,并提升模型的自我完善能力。研究结果表明,CRITIC能显著提高LLMs在问答、程序合成和内容安全性方面的性能,而且强调了持续外部反馈对于模型自我完善的重要性。文章还探讨了CRITIC的实用性和潜在局限性,强调了将这一范式应用于更广泛场景的可能性。

[Qwen1.5开源32B模型-将开源进行到底](https://mp.weixin.qq.com/s/WOiyQYSs5XZzSsn6hdb_Ww)
[Qwen1.5开源32B模型-将开源进行到底](https://mp.weixin.qq.com/s/WOiyQYSs5XZzSsn6hdb_Ww)。刘聪NLP介绍阿里巴巴开源的Qwen1.5机器学习模型,突出了其32B参数规模和支持长达32k长度的特点。该模型弥补了以往工作中30B规模模型的空缺,并且作为中间大小的模型,它在易用性和计算成本上相对于更大模型更为实用,同时在多任务评测指标上仍显示出色的性能。Qwen1.5-32B支持多语言,并在精确度和多样性方面具有竞争力,有助于推动机器学习领域的开源进程。

[剑桥团队开源赋能多模态大模型RAG应用,首个预训练通用多模态后期交互知识检索器](https://mp.weixin.qq.com/s/F4wwoATw4HAXxGArbbLKdA)
[剑桥团队开源:赋能多模态大模型RAG应用,首个预训练通用多模态后期交互知识检索器](https://mp.weixin.qq.com/s/F4wwoATw4HAXxGArbbLKdA)。剑桥大学人工智能实验室开发并完整开源了PreFLMR模型,这是一个预训练的通用多模态知识检索器,旨在为多模态RAG(Retrieval-Augmented Generation)应用提供支持。PreFLMR基于NeurIPS 2023发表的FLMR(Fine-grained Late-interaction Multi-modal Retriever)框架改进,通过大规模多模态数据预训练,优化了知识检索性能。它支持多种检索任务,如文文、图文和知识检索,能从大规模知识库中高效提取相关信息,显著提升多模态大模型在专业知识问答任务上的表现。此外,项目还贡献了M2KR数据集,供通用知识检索器训练和评估使用。

## ⭐️ Go & 云原生 & Rust 相关

Expand Down

0 comments on commit 0e82f57

Please sign in to comment.