V
主页
京东 11.11 红包
量化感知训练(1):不断尝试,反复失败
发布人
无限痛苦啊
打开封面
下载高清视频
观看高清视频
视频下载器
量化感知训练(2):被误导
量化感知训练(3(:自定义卷积层
文心一言:自定义量化卷积层
搞了一上午,终于把神经网络跑通
训练卷积神经网络
FPGA识别MNIST(1):先用pytorch训练一个简单的网络
结果对不对还不知道,反正成功把pytorch训练得到的权重导入verilog了,并成功通过simulation得到了结果!
分频的简单思路
雷达技术发展与应用
pytorch证明CNN-MNIST完全可以采用relu,不知道为什么非得用tanh,这不是给自己找不痛快
弄了一上午,也没搞明白代理梯度的pytorch自定义层怎么写
pytorch的卷积层在matlab中的复现!误差在万分位上,无法忽视的,是pytorch的固有缺陷
尝试第一个卷积层的verilog实现,但是写着写着发现荒唐
看来AI写verilog还是错误很多,远不如写python的正确率高,这也是没办法的事情
要什么for循环,要有整体思维
对分割灰度图进行独热编码
准确率97.12%,matlab手撺MNIST数据集识别前向传播代码全流程
询问GPT关于AXI
草履虫都能学会!十天学完CNN、RNN、GAN、GNN、DQN、Transformer、LSTM等十大深度学习神经网络!学不会你来打我!人工智能/pytorch
先把除法的理念搞懂(但是失败了)
吹爆!Pytorch入门到精通!不愧是2024公认最通俗易懂的【PyTorch】教程,同济大佬12小时带你从入门到进阶,看完就跑通!-pytorch/机器学习
可视化rate编码后的mnist数据集的图片
SNN:latency coding可视化2
HFSS介绍
pytorch的全连接层本质是torch.matmul(input_data, fc.weight.t()) + fc.bias,与线性代数公式的区别在于,整体
高 级 智 人
FPGA识别MNIST(2):只用numpy复现网络,因为定点化后数据太大,pytorch不支持这么大的数据
终于发现了卷积层的问题在哪,并发现另一个问题
好家伙,只调库根本意识不到从最底层写这东西有多麻烦
时序逻辑前5题
前向推断测试SNN的精确度
FPGA识别MNIST(13):尝试将brom数据送入MAC得到结果,但是发现BROM中数据过于稀疏,simulation阶段难以观察,需要再编一个案例
ILA抓到了正确的结果
问
verilog全连接层、tanh、softmax初步验证成功,单个测试用例误差可控
GPT写出来的智障贪吃蛇
GPIO控制PS端LED闪缩
原来上采样只是补零而不是拓宽为矩形波
FPGA
上课