Java知识分享网 - 轻松学习从此开始!    

Java知识分享网

        
AI编程,程序员挑战年入30~100万高级指南 - 职业规划
SpringBoot+SpringSecurity+Vue权限系统高级实战课程        

IDEA永久激活

Java微信小程序电商实战课程(SpringBoot+VUe)

     

AI人工智能学习大礼包

     

PyCharm永久激活

66套java实战课程无套路领取

     

Cursor+Claude AI编程 1天快速上手视频教程

     
当前位置: 主页 > Java文档 > 人工智能AI >

大模型LLMS面试宝典 DOC 下载


时间:2025-05-30 10:05来源:http://www.java1234.com 作者:转载  侵权举报
大模型LLMS面试宝典
失效链接处理
大模型LLMS面试宝典  DOC 下载

 
 
相关截图:
 


主要内容:
 

Byte-Pair Encoding(BPE)篇

 

1 Byte-Pair Encoding(BPE)   如何构建词典?

1 准备足够的训练语料;以及期望的词表大小;

2 将单词拆分为字符粒度(字粒度), 并在末尾添加后缀“”, 统计单词频率

3 合并方式:统计每一个连续/相邻字节对的出现频率, 将最高频的连续字节对合并为新字词;

4 重复第 3 步, 直到词表达到设定的词表大小;或下一个最高频字节对出现频率为 1。 注: GPT2 、BART 和 LLaMA 就采用了BPE。

 

 

 

Word Piece   

 

Word Piece   与 BPE    异同点是什么?

本质上还是BPE  的思想。与BPE 最大区别在于:如何选择两个子词进行合并  BPE 是选择频次最大 的相邻子词合并;

Word Piece 算法选择能够提升语言模型概率最大的相邻子词进行合并, 来加入词表;  注: BERT 采用了 Word Piece。

 

 

SentencePiece   

 

简单介绍一下 SentencePiece    思路?

把空格也当作一种特殊字符来处理,再用BPE 或者来构造词汇表。 注:ChatGLM 、BLOOM 、 PaLM 采用了SentencePiece。



 


------分隔线----------------------------


锋哥推荐