MARC状态:已编 文献类型:中文图书 浏览次数:15
- 题名/责任者:
- 深入理解Transformer自然语言处理:使用Python、PyTorch、TensorFlow、BERT、RoBERTa为NLP构建深度神经网络架构/(法)丹尼斯·罗思曼(Denis Rothman)著 马勇[等]译
- 出版发行项:
- 北京:北京理工大学出版社,2023
- ISBN及定价:
- 978-7-5763-2893-6/CNY99.00
- 载体形态项:
- 14,267页;24cm
- 并列正题名:
- Transformers for natural language processing:build innovative deep neural network architectures for NLP with Python, PyTorch, TensorFlow, BERT, RoBERTa, and more
- 个人责任者:
- (法) 罗思曼 (Rothman, Denis) 著
- 个人次要责任者:
- 马勇 译
- 学科主题:
- 自然语言处理
- 中图法分类号:
- TP391
- 提要文摘附注:
- 本书采用边学边应用的方法,研究了Transformer在机器翻译、语音转文本、文本转语音、语言建模、问答等众多NLP领域中的深度学习技术。
全部MARC细节信息>>
索书号 | 条码号 | 年卷期 | 馆藏地 | 书刊状态 | 还书位置 |
TP391/L98-1 | 01338527 | ![]() |
可借 | 语言、自然科学阅览室 | |
TP391/L98-1 | 01338528 | ![]() |
可借 | 语言、自然科学阅览室 |
显示全部馆藏信息