机读格式显示(MARC)
- 000 01339nam0 2200265 450
- 010 __ |a 978-7-5763-2893-6 |d CNY99.00
- 100 __ |a 20231201d2023 em y0chiy50 ea
- 200 1_ |a 深入理解Transformer自然语言处理 |A Shen Ru Li Jie TransformerZi Ran Yu Yan Chu Li |e 使用Python、PyTorch、TensorFlow、BERT、RoBERTa为NLP构建深度神经网络架构 |f (法)丹尼斯·罗思曼(Denis Rothman)著 |g 马勇[等]译 |z eng
- 210 __ |a 北京 |c 北京理工大学出版社 |d 2023
- 215 __ |a 14,267页 |d 24cm
- 330 __ |a 本书采用边学边应用的方法,研究了Transformer在机器翻译、语音转文本、文本转语音、语言建模、问答等众多NLP领域中的深度学习技术。
- 510 1_ |a Transformers for natural language processing |e build innovative deep neural network architectures for NLP with Python, PyTorch, TensorFlow, BERT, RoBERTa, and more |z eng
- 517 1_ |a 使用Python、PyTorch、TensorFlow、BERT、RoBERTa为NLP构建深度神经网络架构 |A Shi Yong Python、Pytorch、Tensorflow、Bert、Roberta Wei Nlp Gou Jian Shen Du Shen Jing Wang Luo Jia Gou
- 606 0_ |a 自然语言处理 |A Zi Ran Yu Yan Chu Li
- 701 _1 |c (法) |a 罗思曼 |A Luo Si Man |c (Rothman, Denis) |4 著
- 702 _0 |a 马勇 |A Ma Yong |4 译
- 801 _0 |a CN |b DQNU |c 20250320
- 905 __ |a DQNU |d TP391/L98-1 |s 2