Alaskaboo's Blog
  • 首页
  • 归档
  • 分类
  • 标签
  • 关于
  • 友链
对文献阅读的重新认识

对文献阅读的重新认识

今天向本科的一位师兄(已经博士毕业且高校任职)请教问题,他连续问题让我对cv产生了重新的认识,不仅仅是文献的阅读。 下面这是对文献的一般的看法,但是这也仅仅只是为了读懂一篇文献所能做的。 文献调研重点聚焦 2025目标检测论文,优先看 CCF-A 顶会(如 CVPR、ICCV、ECCV、NeurIPS、ICLR、AAAI),重点关注论文的 创新点、贡献表达、实验设计 和 发表时间/会议口
2026-03-12
论文
#论文
RT-DETR and RT-DETRv2

RT-DETR and RT-DETRv2

📌 最近一直在忙于我的第一篇关于晶体检测的计算机论文,刚刚投递出去(不知道能不能中,其实心里也很忐忑)。目前再准备开始第二篇论文,准备用DETR相关的模型进行优化,这是对于RT-DETR的一些见解。论文的下载地址为:arxiv.org/pdf/2304.08069 一、模型剖析 RT-DETR由一个骨干网络、一个高效的混合编码器以及一个带有辅助预测头的Transformer解
2026-01-06
论文
#机器学习 #深度学习 #论文
晶体筛选

晶体筛选

思路: 1、先进行晶体的测试,挑选出合适的晶体样式,在进行针对性筛选,然后进行模型训练 2、制作软件前后端部署树莓派联动显微镜驱动进行,前端可进行颜色的调节更换模型。例如硫属性化合物是黄色透明,尽量挑选黄色透明化晶体等等。预计产出是专利、论文、软著。 3、后期进行机械化机械臂挑选进行、AI、AR等等联动识别。
2026-01-05
论文
#深度学习 #论文 #计算机视觉 #项目
DETR论文

DETR论文

现代检测器必须要通过一大组提议、锚框或窗口中心实现回归和分类问题,他们的性能显著受到后处理步骤,为了简化这些流程,我们提出了一种直接端到端的集合预测方法,即2020年5月发表的DETR(End-to-End Detection with Transformers)。论文我将从结构剖析、创新点分析、论文收获以及根据pytorch进行代码复现。 一、模型剖析DETR模型训练的流程简述为以下四步: 用
2025-12-29
论文
#机器学习 #深度学习 #论文
ResNet论文+复现

ResNet论文+复现

ResNet(Residual Network)由何恺明等人于2015年提出(论文《Deep Residual Learning for Image Recognition》),是深度学习领域里程碑式的论文。其核心思想是残差连接,解决了训练极深神经网络时遇到的退化问题。 这是ResNet论文的地址:Deep Residual Learning for Image Recognition 一、论文核
2025-07-25
论文
#机器学习 #深度学习 #论文
YOLOv9论文

YOLOv9论文

YOLOv9 是 YOLO 系列目标检测模型的最新版本之一,由 YOLOv7的原班团队Chien-Yao Wang等人2024年2月提出,其设计旨在进一步提升检测性能与推理效率。 一、论文地位阅读论文时我通常先查看摘要和结论,以快速把握其核心内容与研究方向。 1.1 核心技术创新:突破深度网络的信息瓶颈 可编程梯度信息(PGI) 为解决轻量级模型中从 I(X, X) 准确提取 I(Y, X) 的难
2025-07-17
论文
#深度学习 #论文 #计算机视觉
Transformer论文

Transformer论文

Transformer 原始论文 《Attention is All You Need》,由 Vaswani 等人于 2017 年 6 月发布,是近年来最具革命性的深度学习论文之一,它不仅在自然语言处理领域带来了根本性变革,也为图像处理、音频处理、分子建模、强化学习等领域开辟了新的研究方向。 一、论文地位因为首先看论文的摘要和结果(结论)能让读者把握整篇论文的大致方向,因此我在读论文的时候基本也是
2025-07-16
论文
#机器学习 #深度学习 #论文

关于batch_normlization问题

一、问题“ValueError: Expected more than 1 value per channel when training, got input size torch.Size([1, 1024])”今天记录一下关于添加batch_normlization的小问题: ValueError: Expected more than 1 value per channel when t
2025-07-07
机器学习
#机器学习 #BUG
大模型应用开发

大模型应用开发

一、相关概念1 历史背景 传统AI:机器学习、深度学习、强化学习 2017年提出的Transformer架构,奠定了大模型领域主流算法架构的基石 大模型时代:神经网络、自注意力机制、Transformer 两者之间的区别: 模型结构和算法 灵活性和可扩展性 数据规模和多样性 任务范围和性能方面 计算资源和成本 2 什么是AI大模型 大语言模型(英文:Large Language Mode
2025-06-28
深度学习
#深度学习

仿斗鱼项目

一、项目技术点语言:java jdk17 数据库:MySQL 容器:Docker SpringCloudAlibaba基础框架:Netty()、SpringBoot(生态好)、Dubbo(良好的高并发)、MyBatis-Plus(CRUD精简)、ShardingJdbc、 缓存:Redis+Caffeine(本地缓存组件) 网关:Gateway 消息队列:RocketMQ 注册配置中心:Nacos
2025-06-27
java
#项目
12

搜索

Alaskaboo 以玖
总访问量 次 总访客数 人
渝ICP备2025063032号-2 | police-icon 渝公网安备50023102500775号