深度学习-学习笔记记录
- 其他
- 2025-07-21 19:19:23

1、点云语义分割方法分类 分为5类:点、二维投影、体素、融合、集成 2、融合与集成的区别 融合: 概念:主要是将不同来源、类型的模型,例如深度学习、传统机器学习等,的结果或特征进行结合,以得到一个更好的模型或结果。 目标与应用场景:常用于多视角、多模态的任务中,如视觉与文本的多模态任务,旨在从不同模型中获取更丰富和多样的信息。 融合方法与策略:常用的方法包括加权平均、Stacking、特征级融合等。 模型的多样性来源:多样性来自不同类型的模型,如CNN、RNN、SVM等。 对模型的依赖度:依赖于多种模型的性能和特点。 常见技术与工具:Stacking、特征融合等。 集成: 概念:是通过构建并结合多个模型来解决单一预测问题,常见的技术包括Bagging、Boosting等。 目标与应用场景:主要用于提高模型的稳定性和准确性,如随机森林中的多个决策树的集成。 融合方法与策略:通常涉及特定的策略如投票、加权平均等,以及特定的集成技术如Bagging、Boosting。 模型的多样性来源:多样性主要来自模型的不同实例,例如不同的决策树、不同的参数设置等。 对模型的依赖度:主要依赖于同种模型的不同实例。 常见技术与工具:随机森林、Adaboost、Gradient Boosting等。 3、load_state_dict函数 load_state_dict是torch.nn.Module的函数,使用 state_dict 反序列化模型参数字典。用来加载模型参数。将 state_dict 中的 parameters 和 buffers 复制到此 module 及其子节点中。 4、原子函数Atomic Functions 原子函数对驻留在全局内存或共享内存中的一个32位或64位单词执行读-修改-写原子操作。例如,atomicAdd()在全局或共享内存中的某个地址读取一个单词,向其中添加一个数字,然后将结果写回相同的地址。原子函数只能在设备函数中使用。
本节中描述的原子函数具有 cuda::memory_order_relax 的顺序,并且仅在特定作用域内是原子的:
带有 _system 后缀(例如:__atomicAdd_system)的原子api在作用域cuda::thread_scope_system 中是原子的。没有后缀的原子 api(例如:__atomicAdd)在作用域 cuda::thread_scope_device 上是原子的。带有 _block 后缀的原子 api(例如:__atomicAdd_block)在作用域 cuda::thread_scope_block 中是原子的。感觉上面这段翻译大概是说不同函数的作用域不一样,比如不同设备间的线程想要对同一块地址做加法,那就必须得使用 __atomicAdd_system();比如不同 block 之间的线程需要对同一块地址做加法,那就调 __atomicAdd() 函数;比如只是同一 block 内的线程想要对同一块地址做加法,只用调 __atomicAdd_block() 函数。后面提及的 device-wide 原子、system-wide原子、block-wide 原子的意思应该就是说的这个作用域; 参考: zhuanlan.zhihu /p/578195193?utm_id=0 5、cuda计算能力 参考: zhuanlan.zhihu /p/556904192
深度学习-学习笔记记录由讯客互联其他栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“深度学习-学习笔记记录”