内容简介
本书以图文并茂的方式系统性介绍了人工智能芯片的相关知识。主要内容如下:第1章探讨了人工智能芯片的概念、发展历史与分类。第2~5章分别描述了逻辑设计基础、HDL电路描述技巧、状态机设计与实现,以及数字设计方法与工程技巧。第6章详细讲述了不同类型传输协议的设计及具体实现方法。第7章深入探讨了存储结构的设计与实现。第8章则说明了特定的神经网络如何实现。第9章通过逻辑系统实际设计案例,帮助读者在实践中提升设计能力。
本书通俗易懂,适合芯片行业从业者和广大芯片技术爱好者阅读,也可供高等院校电子信息类专业的本科生、研究生阅读参考。
目录
前言
第1章绪论
11人工智能芯片的概念
12人工智能芯片的发展
13人工智能芯片的分类
131从计算架构分类
132从计算方式分类
133从开发工具分类
14人工智能芯片的发展趋势
141PE层次芯片实现的发展趋势
142PEA层次芯片实现的发展趋势
143芯片系统层次实现的发展趋势
第2章逻辑设计基础
21逻辑设计概况
22HDL语言基础
221硬件描述语言概述
222HDL语言要素和设计流程
23PLD器件基础
231可编程逻辑器件技术发展历程
232FPGA和CPLD简介
233Xilinx FPGA简介
234FPGA选型应考虑的问题
24Vivado/Quartus环境基础
241Vivado功能介绍
242Vivado用户界面介绍和菜单操作
243Vivado开发流程
244Quartus功能介绍
245Quartus用户界面介绍和菜单操作
246Quartus开发流程
第3章HDL电路描述技巧
31组合逻辑电路设计
311组合电路中的always语句
312组合电路中的条件语句
313组合电路中的循环语句
314组合电路中的编码原则
315组合电路中的常数与参数
32时序电路设计
321时序电路中的触发器与锁存器
322时序电路中的寄存器
323时序电路中的计数器
33设计实例
331多路选择器
332比较器
333译码器
334编码器
第4章状态机设计与实现
41Mealy状态机
411Mealy状态机的特点
412Mealy状态机的表示方法
42Moore状态机
421Moore状态机的特点
422Moore状态机的表示方法
43代码实现示例
第5章数字设计方法与工程技巧
51数字电路设计方法与技巧
511RTL设计
512Verilog HDL设计
52组合逻辑设计
521Verilog RTL描述
522算术电路
53时序逻辑设计
531锁存器
532触发器
533同步计数器
第6章传输协议的设计与实现
61UART串口通信协议及控制器设计
611UART协议介绍
612UART协议实例
62PS/2协议及实例设计
621PS/2协议介绍
622PS/2协议实例
63SPI同步串行协议及控制器设计
631SPI协议介绍
632SPI协议实例
64I2C协议及控制器设计
641I2C协议介绍
642I2C协议实例
65VGA显示接口及控制器设计
651VGA接口介绍
652VGA接口应用实例
66CAN总线传输协议及控制器设计
661CAN总线协议介绍
662CAN总线协议实例
67AMBA总线传输协议及控制器设计
671AMBA总线协议原理与信号解析
672AMBA总线控制器设计与实现
第7章存储结构的设计与实现
71存储器类型与特性
711静态RAM(SRAM)和动态RAM(DRAM)
712非易失性存储器
713磁盘
714误差纠错
72基本高速缓存存储器(Cache)
721获取策略
722写策略
723Direct-Mapped缓存
73高级高速缓存存储器
第8章神经网络的设计与实现
81网络算子的功能划分方法
82计算区域的使能与重置方法
83跨时钟域处理的技巧
831单比特脉冲信号慢时钟域到快时钟域
832单比特脉冲信号快时钟域到慢时钟域
833多比特单周期信号
834时钟门控优化中的CDC分析
84变参递归神经网络的实现
841系统顶层结构图
842系数矩阵输入模块
843隐藏层矩阵输入模块
844LMS模块及前端输入
845积分模块
846网络模块
847系统顶层模块
85实例求解
86神经网络芯片在机器人控制上的应用
第9章逻辑系统设计案例
91数字逻辑设计案例
911数字钟设计实验原理
912实验设计流程
913基于集成逻辑分析仪的测试
92单周期处理器设计实例
921单周期处理器设计指令集
922设计流程
93FIR滤波器
931基于HLS的FIR滤波器实现流程
932工程测试
94DIP处理设计案例
941项目概述
942硬件介绍
943模块介绍
95VGA接口控制器
951CRT显示器原理
952VGA控制器设计
953VGA接口设计实例
96数字图像采集
961OV7725芯片介绍
962SCCB协议
963配置寄存器
964图像采集
参考文献
前言/序言
人工智能芯片(AI on Chip)又称神经网络芯片,或片上神经网络。人工智能(AI),有时被称为机器智能,自1956年首次提出以来,已在过去的几十年中极大地改变了科学、工业、国防和医学的格局。在强大的计算能力和云存储的支持下,人工智能的研究已经从计算机科学的理论研究转向了跨越科学、工业和医学等多个领域的现实应用,如今,基于深度学习的数据驱动分析和信息学策略,已经能帮助研究人员利用可用的材料数据库做出快速预测,取代了以往耗时的理论计算或昂贵且劳动密集型的实验。在天文学中,深度学习已经迅速成为一种流行的方法,用于分析强引力透镜图像以识别暗物质,并研究宇宙的大尺度结构以绘制其巨大的未发现内容。在语音和音频识别方面,深度学习已经成功地应用于商业产品,如苹果的Siri、谷歌的Assistant和亚马逊的Alexa。
现阶段,神经网络的计算建立在密集的线性代数运算的基础上,因此非常适合于专用的硬件加速器。从存储的角度来看,神经网络中所有的权值参数和激活参数都可以用张量的形式来表示和存储,包括一维向量、二维矩阵、三维张量,甚至更高维的结构。在计算层面,神经网络的计算也都可以被统一抽象,并在硬件平台上分解成一维向量运算和二维矩阵运算,其核心操作也都是向量之间、矩阵之间和向量矩阵之间的加法和乘法(或者乘累加)。这种简单统一的存储和计算模式非常适合于设计专用的硬件加速器。通过为神经网络设计领域专用架构(Domain-Specific Architecture),能够更好地发挥硬件的执行效率并降低硬件的运行功耗。然而,追求高性能会导致灵活性不足,高效性和灵活性一直是处理器设计的权衡因素。当前,人工智能领域发展迅速,新的模型或算法不断出现,新的网络结构和计算操作不断被提出。同时芯片设计和生产周期较长,人工智能领域专用架构的设计如果不能超前思考,预留出灵活性的空间,可能面临无法支持新模型的问题,从而限制了领域专用架构的应用空间。因此在设计领域专用架构时,在提供高性能的同时要兼顾一定的灵活性。
本书的编写内容和编写思路由编者集体讨论确定,是集体智慧的结晶。全书由张智军、丁勇、何昊天和罗亚梅共同编写完成。特别感谢林志豪、郑子浩、李俊廷和葛任等人在本书编写和校正过程中提供的帮助。
期待本书能为人工智能芯片的发展略尽绵薄之力,也欢迎读者提出宝贵建议,共同推动这一领域的进步。




















