目标检测数据集标注工具、标注原则与数据集采集原则
1 数据集标注工具 1.1 labelme github:https://github.com/labelmeai/labelme Labelme 是一个图像标注工具,允许用户对图像进行像素级别的标注,包括绘制矩形框来识别和定位图像中的对象,以及对图像进行多边形分割。Labelme 支持导出多种数据…
- 目标检测
- 2024-04-29
宝塔面板 – 部署开源网站统计工具umami小白教程
1 umami Umami 是一个简单易用、自托管的开源网站访问统计分析工具。Umami 不使用 Cookie,不跟踪用户,且所有收集的数据都会匿名化处理,符合 GDPR,资源占用很低,虽然功能简单,但分析的数据内容很丰富,基本的来源国家,来源域名,使用的浏览器、系统、设备,访问的网页这些都有,还支…
- 宝塔面板
- 2024-04-15
Python – 基于loguru封装实际项目可用的日志输出类
1 什么是loguru github:https://github.com/Delgan/loguru Loguru是一个轻量级的Python日志记录库,旨在提供一种简单、高效的方式来记录应用程序或脚本的运行情况。它通过简化配置和使用过程,使得开发者能够快速地将日志功能集成到项目中。Loguru支持…
- Python
- 2024-03-29
从模型训练的train loss和test loss分析模型训练存在的问题
在模型训练时,我们可以观察到两个明显的指标就是train loss和test loss,我们可以通过两者差异分析模型所遇到的问题,一般存在以下的情况: train loss 不断下降,test loss 不断下降,说明网络仍在学习; train loss 不断下降,test loss 趋于不变,说明…
- 深度学习
- 2024-03-26
Transformer原理
转载自Transformer原理,如侵联删 Transformer由论文Attention is All You Need提出,本文大部分内容来源于Transformer模型详解(图解最完整版),对于不理解的地方,我会加上个人注解。 1 Attention简介 1.1 Attention注意力机制 …
- Transformer
- 2024-03-20
完全图解RNN、RNN变体、Seq2Seq、Attention机制
本文转载自:完全图解RNN、RNN变体、Seq2Seq、Attention机制,如侵联删 本文主要是利用图片的形式,详细地介绍了经典的RNN、RNN几个重要变体,以及Seq2Seq模型、Attention机制。希望这篇文章能够提供一个全新的视角,帮助初学者更好地入门。 1 从单层网络谈起 在学习RN…
- RNN
- 2024-03-14
Webstorm – 安装Codeium插件以及需要注意的坑
1 Webstorm安装Codeium Webstorm版本:2022.2.5 1.1 进入插件市场安装Codeium 点击File -> Settings -> Plugins,输入Codeium,点击Install安装 等待安装完成之后需要重启Webstorm。 1.2 遇到的坑 安装Codei…
- Webstorm
- 2024-03-13
理解Transformer
本文来自于知乎:为什么我还是无法理解Transformer的高赞回答 要理解和熟悉一个新的技术/新模型,比较好的方式是通过以下框架结构来熟悉: 为什么:一个新模型的诞生,一般是解决了现有的模型不能解决的一些问题。因此需了解该技术提出的背景和创新点。 是什么 :熟悉这个模型的内容和架构、训练过程等。 …
- Transformer
- 2024-03-12
Transformer的结构
以下内容摘自:https://transformers.run/back/transformer/,里面”原始结构“部分的内容对我自己理解Transformer结构有很大的帮助。 1 Transformer的结构 1.1 注意力层 Transformer 模型的标志就是采用了注意力层 (Attent…
- Transformer
- 2024-03-11
Seq2Seq模型和Attention机制
转载自:Seq2Seq模型和Attention机制,如侵联删 pdf: NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE 1 RNN的多种结构 首先从RNN的结构说起,根据输出和输入序列不同数量RNN可以有多种…
- Transformer
- 2024-03-08
Attention和Self-Attention的区别
1 Attention和Self-Attention的区别 Attention:以Encoder-Decoder框架为例,输入Source和输出Target内容是不一样的,比如对于英-中机器翻译来说,Source是英文句子,Target是对应的翻译出的中文句子,Attention发生在Target的…
- Transformer
- 2024-03-08
资源分享 – 游戏人工智能, Game AI Pro: Collected Wisdom of Game AI Professionals 中文版PDF下载
1 游戏人工智能, Game AI Pro: Collected Wisdom of Game AI Professionals 中文版PDF下载 1.1 书籍简介 游戏中的人工智能(AI)开发是游戏研发中最具挑战性的任务之一,而本书汇集了与游戏人工智能开发有关的知识,借助这些知识,程序员能够开发出…
- 计算几何与计算机图形学资源
- 2024-03-05
评论
56