前端技术
HTML
CSS
Javascript
前端框架和UI库
VUE
ReactJS
AngularJS
JQuery
NodeJS
JSON
Element-UI
Bootstrap
Material UI
服务端和客户端
Java
Python
PHP
Golang
Scala
Kotlin
Groovy
Ruby
Lua
.net
c#
c++
后端WEB和工程框架
SpringBoot
SpringCloud
Struts2
MyBatis
Hibernate
Tornado
Beego
Go-Spring
Go Gin
Go Iris
Dubbo
HessianRPC
Maven
Gradle
数据库
MySQL
Oracle
Mongo
中间件与web容器
Redis
MemCache
Etcd
Cassandra
Kafka
RabbitMQ
RocketMQ
ActiveMQ
Nacos
Consul
Tomcat
Nginx
Netty
大数据技术
Hive
Impala
ClickHouse
DorisDB
Greenplum
PostgreSQL
HBase
Kylin
Hadoop
Apache Pig
ZooKeeper
SeaTunnel
Sqoop
Datax
Flink
Spark
Mahout
数据搜索与日志
ElasticSearch
Apache Lucene
Apache Solr
Kibana
Logstash
数据可视化与OLAP
Apache Atlas
Superset
Saiku
Tesseract
系统与容器
Linux
Shell
Docker
Kubernetes
[云端训练OpenMV神经网络模型]的搜索结果
这里是文章列表。热门标签的颜色随机变换,标签颜色没有特殊含义。
点击某个标签可搜索标签相关的文章。
点击某个标签可搜索标签相关的文章。
转载文章
...前言 一、数字识别的模型训练 1.下载训练集 2.对数据进行调整 2.1 将ubyte格式转为jpg格式 2.2 将图片按照标签分类到具体文件夹 2.3 数据存在的缺陷 2.4 优化建议(核心) 二、模型训练 三、项目实现 1. 代码实现 2. 采用器件 2. 注意事项 总结 前言 第一次接触OpenMV也是第一次将理论用于实践,是老师让我实现的一个小测验,这几天完成后决定写下完整的过程。本文主要是当缝合怪,借鉴和参考了其他人的代码再根据我个人设备进行了一定的调整,此外还包括了我自身实践过程中的一些小意外。 !!!一定要根据个人器件型号和个人设备来参考 一、数字识别的模型训练 1.下载训练集 研究期间,我发现大部分人以及官网教程采用的都是自己拍摄照片再进行网络训练,存在的缺陷就是数据集较小不全面、操作繁琐。个人认为如果是对标准的数字进行识别,自己手动拍取照片进行识别足够了。但想要应用于更广泛的情况,应该寻找更大的数据集,所以我找到了国外手写数字的数据集MNIST。建议四个文件都下载 数据链接:MINIST数据集 2.对数据进行调整 2.1 将ubyte格式转为jpg格式 代码参考链接:python将ubyte格式的MNIST数据集转成jpg图片格式并保存 import numpy as npimport cv2import osimport structdef trans(image, label, save):image位置,label位置和转换后的数据保存位置if 'train' in os.path.basename(image):prefix = 'train'else:prefix = 'test'labelIndex = 0imageIndex = 0i = 0lbdata = open(label, 'rb').read()magic, nums = struct.unpack_from(">II", lbdata, labelIndex)labelIndex += struct.calcsize('>II')imgdata = open(image, "rb").read()magic, nums, numRows, numColumns = struct.unpack_from('>IIII', imgdata, imageIndex)imageIndex += struct.calcsize('>IIII')for i in range(nums):label = struct.unpack_from('>B', lbdata, labelIndex)[0]labelIndex += struct.calcsize('>B')im = struct.unpack_from('>784B', imgdata, imageIndex)imageIndex += struct.calcsize('>784B')im = np.array(im, dtype='uint8')img = im.reshape(28, 28)save_name = os.path.join(save, '{}_{}_{}.jpg'.format(prefix, i, label))cv2.imwrite(save_name, img)if __name__ == '__main__':需要更改的文件路径!!!!!!此处是原始数据集位置train_images = 'C:/Users/ASUS/Desktop/train-images.idx3.ubyte'train_labels = 'C:/Users/ASUS/Desktop/train-labels.idx1.ubyte'test_images ='C:/Users/ASUS/Desktop/t10k-images.idx3.ubyte'test_labels = 'C:/Users/ASUS/Desktop/t10k-labels.idx1.ubyte'此处是我们将转化后的数据集保存的位置save_train ='C:/Users/ASUS/Desktop/MNIST/train_images/'save_test ='C:/Users/ASUS/Desktop/MNIST/test_images/'if not os.path.exists(save_train):os.makedirs(save_train)if not os.path.exists(save_test):os.makedirs(save_test)trans(test_images, test_labels, save_test)trans(train_images, train_labels, save_train) 2.2 将图片按照标签分类到具体文件夹 文章参考链接:python实现根据文件名自动分类转移至不同的文件夹 注意:为了适合这个数据集和我的win11系统对代码进行了一点调整,由于数据很多如果只需要部分数据一定要将那些数据单独放在一个文件夹。 导入库import osimport shutil 当前文件夹所在的路径,使用时需要进行修改current_path = 'C:/Users/ASUS/Desktop/MNIST/test'print('当前文件夹为:' + current_path) 读取该路径下的文件filename_list = os.listdir(current_path) 建立文件夹并且进行转移 假设原图片名称 test_001_2.jpgfor filename in filename_list:name1, name2, name3 = filename.split('_') name1 = test name2 = 001 name3 = 2.jpgname4, name5 = name3.split('.') name4 = 2 name5 = jpgif name5 == 'jpg' or name5 == 'png':try:os.mkdir(current_path+'/'+name4)print('成功建立文件夹:'+name4)except:passtry:shutil.move(current_path+'/'+filename, current_path+'/'+name4[:])print(filename+'转移成功!')except Exception as e:print('文件 %s 转移失败' % filename)print('转移错误原因:' + e)print('整理完毕!') 2.3 数据存在的缺陷 数据集内的图片数量很多,由于后面介绍的云端训练的限制,只能采用部分数据(本人采用的是1000张,大家可以自行增减数目)。 数据集为国外的数据集,很多数字写的跟我们不一样。如果想要更好的适用于我们国内的场景,可以对数据集进行手动的筛选。下面是他们写的数字2: 可以看出跟我们的不一样,不过数据集中仍然存在跟常规书写的一样的,我们需要进行人为的筛选。 2.4 优化建议(核心) 分析发现,部分数字精度不高的原因主要是国外手写很随意,我们可以通过调整网络参数(如下)、人为筛选数据(如上)、增大数据集等方式进行优化。 二、模型训练 主要参考文章:通过云端自动生成openmv的神经网络模型,进行目标检测 !!!唯一不同的点是我图像参数设置的是灰度而不是上述文章的RGB。 下面是我模型训练时的参数设置(仅供参考): 通过混淆矩阵可以看出,主要的错误在于数字2、6、8。我们可以通过查看识别错误的数字来分析可能的原因。 三、项目实现 !!!我们需要先将上述步骤中导出文件中的所有内容复制粘贴带OpenMV中自带的U盘中。然后将其中的.py文件名称改为main 1. 代码实现 本人修改后的完整代码展示如下,使用的是OpenMV IDE(官网下载): 数字识别后控制直流电机转速from pyb import Pin, Timerimport sensor, image, time, os, tf, math, random, lcd, uos, gc 根据识别的数字输出不同占比的PWM波def run(number):if inverse == True:ain1.low()ain2.high()else:ain1.high()ain2.low()ch1.pulse_width_percent(abs(number10)) 具体参数调整自行搜索sensor.reset() 初始化感光元件sensor.set_pixformat(sensor.GRAYSCALE) set_pixformat : 设置像素模式(GRAYSCALSE : 灰色; RGB565 : 彩色)sensor.set_framesize(sensor.QQVGA2) set_framesize : 设置处理图像的大小sensor.set_windowing((128, 160)) set_windowing : 设置提取区域大小sensor.skip_frames(time = 2000) skip_frames :跳过2000ms再读取图像lcd.init() 初始化lcd屏幕。inverse = False True : 电机反转 False : 电机正转ain1 = Pin('P1', Pin.OUT_PP) 引脚P1作为输出ain2 = Pin('P4', Pin.OUT_PP) 引脚P4作为输出ain1.low() P1初始化低电平ain2.low() P4初始化低电平tim = Timer(2, freq = 1000) 采用定时器2,频率为1000Hzch1 = tim.channel(4, Timer.PWM, pin = Pin('P5'), pulse_width_percent = 100) 输出通道1 配置PWM模式下的定时器(高电平有效) 端口为P5 初始占空比为100%clock = time.clock() 设置一个时钟用于追踪FPS 加载模型try:net = tf.load("trained.tflite", load_to_fb=uos.stat('trained.tflite')[6] > (gc.mem_free() - (641024)))except Exception as e:print(e)raise Exception('Failed to load "trained.tflite", did you copy the .tflite and labels.txt file onto the mass-storage device? (' + str(e) + ')') 加载标签try:labels = [line.rstrip('\n') for line in open("labels.txt")]except Exception as e:raise Exception('Failed to load "labels.txt", did you copy the .tflite and labels.txt file onto the mass-storage device? (' + str(e) + ')') 不断的进行运行while(True):clock.tick() 更新时钟img = sensor.snapshot().binary([(0,64)]) 抓取一张图像以灰度图显示lcd.display(img) 拍照并显示图像for obj in net.classify(img, min_scale=1.0, scale_mul=0.8, x_overlap=0.5, y_overlap=0.5): 初始化最大值和标签max_num = -1max_index = -1print("\nPredictions at [x=%d,y=%d,w=%d,h=%d]" % obj.rect())img.draw_rectangle(obj.rect()) 预测值和标签写成一个列表predictions_list = list(zip(labels, obj.output())) 输出各个标签的预测值,找到最大值进行输出for i in range(len(predictions_list)):print('%s 的概率为: %f' % (predictions_list[i][0], predictions_list[i][1]))if predictions_list[i][1] > max_num:max_num = predictions_list[i][1]max_index = int(predictions_list[i][0])run(max_index)print('该数字预测为:%d' % max_index)print('FPS为:', clock.fps())print('PWM波占空比为: %d%%' % (max_index10)) 2. 采用器件 使用的器件为OpenMV4 H7 Plus和L298N以及常用的直流电机。关键是找到器件的引脚图,再进行简单的连线即可。 参考文章:【L298N驱动模块学习笔记】–openmv驱动 参考文章:【openmv】原理图 引脚图 2. 注意事项 上述代码中我用到了lcd屏幕,主要是为了方便离机操作。使用过程中,OpenMV的lcd初始化时会重置端口,所有我们在输出PWM波的时候一定不要发生引脚冲突。我们可以在OpenMV官网查看lcd用到的端口: 可以看到上述用到的是P0、P2、P3、P6、P7和P8。所有我们输出PWM波时要避开这些端口。下面是OpenMV的PWM资源: 总结 本人第一次自己做东西也是第一次使用python,所以代码和项目写的都很粗糙,只是简单的识别数字控制直流电机。我也是四处借鉴修改后写下的大小,这篇文章主要是为了给那些像我一样的小白们提供一点帮助,减少大家查找资料的时间。模型的缺陷以及改进方法上述中已经说明,如果我有写错或者大家有更好的方法欢迎大家告诉我,大家一起进步! 本篇文章为转载内容。原文链接:https://blog.csdn.net/weixin_57100435/article/details/130740351。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2024-01-10 08:44:41
282
转载
转载文章
...具之一,其在复杂统计模型构建、高维数据可视化等方面的优势尤为突出。 同时,R社区也持续推出功能强大的扩展包以满足不断变化的需求。例如,ggtext包的出现让R语言图形的文本排版更加灵活,支持Markdown语法及CSS样式,用户可以轻松实现标题的自动换行、斜体、粗体等效果,显著提升了可视化图像的呈现质量。 此外,随着大数据和人工智能的发展,R语言结合TensorFlow、Keras等深度学习框架的能力日益增强。诸如kerasR、reticulate等包使得R用户能够在熟悉的环境中搭建和训练神经网络模型,将机器学习和统计分析紧密结合,拓宽了R语言在实际问题解决中的应用场景。 总而言之,R语言凭借其强大的统计功能和丰富的可视化库,在科研和工业界保持着旺盛的生命力。对于热衷于利用R语言进行数据科学探索的用户而言,紧跟社区发展动态,掌握最新的包和工具,不仅有助于提升工作效率,也能在数据分析与可视化表达上取得更为出色的效果。
2023-12-27 23:03:39
107
转载
Mahout
...在推荐系统中解决数据模型构建失败问题的应用之后,我们发现保障推荐系统的稳健性和准确性至关重要。事实上,近年来随着大数据和人工智能技术的飞速发展,推荐系统领域的研究与实践也在不断取得突破。 近日,《计算机学报》发布的一篇关于“深度学习在推荐系统中的最新进展”论文指出,通过融合深度学习技术,推荐系统的性能得到了显著提升。例如,深度神经网络(DNN)能够自动提取高阶特征表示用户和商品,有效解决了传统方法在处理复杂、非线性关系时的局限性。此外,诸如LightGCN等图卷积神经网络模型,在处理社交网络或协同过滤场景下的推荐任务时表现出色,进一步提升了模型对稀疏数据的适应能力及预测精度。 同时,对于推荐系统的实时监控与故障恢复,业界也开始关注并引入了更先进的流式计算框架,如Apache Flink和Kafka等,它们能够在海量数据流中实现实时分析与异常检测,从而确保推荐系统的稳定运行。 综上所述,尽管Mahout为推荐系统的构建提供了有力支持,但在实际应用中还需结合最新的算法和技术进行持续优化,以应对日益复杂的业务场景与不断提升的用户体验需求。对推荐系统的研究者和开发者而言,紧跟领域内前沿动态,深挖技术创新潜能,将有助于推动推荐系统的功能完善与效果提升。
2023-01-30 16:29:18
121
风轻云淡-t
Python
...ata"的项目,利用神经网络模型学习和预测用户的操作模式,使得自动化测试更加精准且适应性更强。 同时,业界也在探讨如何将Selenium与自然语言处理(NLP)结合,以实现通过文本指令控制浏览器,进一步降低自动化测试的门槛。这不仅可以简化测试脚本的编写,还能使非技术背景的团队成员也能参与到测试流程中来。 此外,随着DevOps的普及,Selenium正在与容器化、云服务和微服务架构紧密结合,实现跨环境、跨平台的无缝自动化测试。这不仅提升了测试效率,也使得测试结果在不同环境中的一致性得到了保障。 总之,Python与Selenium的结合正在朝着更智能、更灵活的方向发展,预示着自动化测试将迎来一场深刻的变革,为软件质量保证提供更为高效和可靠的解决方案。开发者和测试工程师们应关注这些新兴趋势,以便及时掌握并应用到自己的工作中。
2024-05-01 16:24:58
245
编程狂人
Python
...积极探索信息熵在优化模型性能上的作用。2021年的一项研究中,科学家们运用交叉熵作为损失函数改进神经网络模型的分类准确率,特别是在图像识别和自然语言处理任务上,这一策略有效降低了模型过拟合风险并提高了泛化能力。 此外,信息熵还在金融风控、网络流量分析等领域发挥着重要作用。例如,金融机构利用交易数据的信息熵来评估市场风险与不确定性,帮助投资者做出更精准的投资决策。而在网络安全方面,信息熵被用来检测异常网络行为,通过量化网络流量的随机性,可有效发现潜在的攻击行为。 总之,从理论到实践,信息熵无处不在,它不仅是一个强大的数学工具,更是推动各领域技术进步的关键要素。随着算法和计算能力的不断提升,信息熵的应用将更加广泛且深入,值得广大科研工作者和工程师持续关注和研究。
2023-08-02 10:52:00
222
数据库专家
转载文章
...合GCC-PHAT与神经网络模型,以优化声源定位问题中的噪声抑制和多路径干扰校正。 另一篇报道指出,某科技公司开发了一款基于GCC-PHAT算法的新型无线麦克风波束成形系统,能够在嘈杂会议场景下有效分离和增强目标发言人的语音信号,从而提升远程通讯和会议系统的用户体验。 不仅如此,学术界也在不断探讨和完善GCC-PHAT算法,如针对算法在低信噪比条件下的稳健性改进策略,以及与其他高级信号处理技术(如稀疏表示、盲源分离等)的有效融合,这些都将为GCC-PHAT在未来更广泛的工程应用中提供更为坚实的基础和广阔的空间。 总之,GCC-PHAT作为一项重要的信号处理技术,其理论研究和实际应用正处于快速发展的阶段,持续跟踪该领域的最新研究成果和技术动态,对于提高各类声学系统的性能及其实用价值具有重要意义。
2023-05-02 19:41:15
335
转载
Tesseract
...,推出了更精准高效的云端OCR服务,如阿里云的“通用印刷体识别”服务、百度大脑的OCR技术和腾讯云的智能文档识别方案等。这些服务不仅支持多语言、多场景下的文字识别,还针对特定场景如证件照、票据、表格等进行了优化,有效解决了遮挡文字、扭曲变形等问题。 此外,对于进一步提升OCR技术在复杂情况下的表现,研究者们正积极尝试结合深度学习框架如TensorFlow、PyTorch等训练自定义的OCR模型。例如,使用卷积神经网络(CNN)进行图像预处理以增强特征提取能力,或者利用循环神经网络(RNN)对识别出的文字序列进行上下文理解与纠错。 总的来说,虽然Tesseract在提取遮挡文字信息方面具有实用价值,但随着技术发展,我们有更多先进且针对性强的解决方案可以选择。在实际应用中,用户可根据具体需求和场景选择最适合的OCR工具或服务,并关注最新研究成果和技术动态,以便更好地解决实际问题并尊重知识产权。
2024-01-15 16:42:33
84
彩虹之上-t
Mahout
...项目中已经引入了部分神经网络模型实现,并不断优化其在Spark等分布式环境中的性能表现。 此外,对于确保数据预处理阶段输入参数的有效性这一关键问题,不仅限于Mahout框架内部的异常处理,更需要结合DevOps理念与工具链进行全流程的质量控制。通过集成自动化测试、持续集成/持续部署(CI/CD)流程以及监控报警机制,可以在代码上线前尽早发现并修复类似非法参数等问题,从而提高整个系统的稳定性和可靠性。 深入理解Mahout库的工作原理及应用场景的同时,广大开发者也应积极跟进相关领域的新研究和技术趋势,以便更好地应对实际业务挑战,提升大规模机器学习项目的成功率和效果。
2023-10-16 18:27:51
115
山涧溪流
Python
...on便捷地构建复杂的神经网络模型,推动人工智能技术的发展与落地应用。 此外,Python生态系统的完善也是其备受欢迎的原因之一。例如,FastAPI作为一款基于Python的现代Web框架,因其高性能、易用性和对异步编程的良好支持,在今年Stack Overflow开发者调查中被评为“最受开发者喜爱”的Web框架之一。 同时,Python社区活跃,各类教程、开源项目和在线课程丰富多样,为初学者提供了良好的入门资源,也为资深开发者提供了持续进阶的平台。例如,由Guido van Rossum等大牛主推的《流畅的Python》一书,深入解读Python特性和最佳实践,帮助开发者更好地理解和运用Python进行高效开发。 综上所述,无论是在最新技术趋势下的人工智能领域,还是在成熟稳定的Web后端开发,Python都展现出了强大的生命力和发展潜力,值得广大开发者关注与投入。通过持续学习和实战,开发者能够借助Python解决更多实际问题,实现从理论到实战的跨越。
2023-09-07 13:41:24
323
晚秋落叶_
转载文章
...含丰富的中文语音识别模型和TTS技术,为中国市场提供了强大的本地化解决方案。 其次,在深度学习技术推动下,语音识别准确率不断提升。阿里云团队最近发布了一项研究成果,通过先进的端到端神经网络模型,实现了在复杂环境下的高精度普通话识别,尤其针对噪声抑制和口音适应性有显著提升,为智能设备、智能家居等场景提供了有力的技术支撑。 同时,随着开源社区的发展,Mozilla旗下的Deepspeech项目也在不断迭代,该项目基于RNN-T架构,致力于打造开源、免费且准确度高的语音识别引擎,让更多开发者能够参与到语音技术的研究和创新中来。 总之,随着人工智能及机器学习技术的不断发展,Python语音识别技术的应用将更加广泛,无论是日常生活中的智能助手,还是工业级的自动化设备,都将受益于这项技术的进步。对于开发者而言,紧跟最新技术动态并结合实际应用场景进行技术创新,将是掌握这一领域未来发展的关键所在。
2023-01-27 19:34:15
277
转载
转载文章
... 计算,容器,存储,网络与CDN,安全、中间件、数据库、大数据计算、人工智能与机器学习、媒体服务、企业服务与云通信、物联网、开发工具、迁移与运维管理和专有云等方面,阿里云都做的很不错。 2.2 证件照生成背景 传统做法:通常是人工进行P图,不仅费时费力,而且效果也很难保障,容易有瑕疵。 机器学习做法:通常利用边缘检测算法进行人物轮廓提取。 深度学习做法:通常使用分割算法进行人物分割。例如U-Net网络。 2.3 图像分割算法 《BiHand: Recovering Hand Mesh with Multi-stage Bisected Hourglass Networks》里的SeedNet网络是很经典的网络,它把分割任务转变成多个任务。作者的思想是:尽可能的通过多任务学习收拢语义,这样或许会分割的更好或姿态估计的更好。其实这个模型就是多阶段学习网络的一部分,作者想通过中间监督来提高网络的性能。 我提取bihand网络中的SeedNet与训练权重,进行分割结果展示如下 我是用的模型不是全程的,是第一阶段的。为了可视化出最好的效果,我把第一阶段也就是SeedNet网络的输出分别采用不同的方式可视化。 从左边数第一张图为原图,第二张图为sigmoid后利用plt.imshow(colored_mask, cmap=‘jet’)进行彩色映射。第三张图为网络输出的张量经过sigmoid后,二色分割图,阀闸值0.5。第四张为网络的直接输出,利用直接产生的张量图进行颜色映射。第五张为使用sigmoid处理张量后进行的颜色映射。第六张为使用sigmoid处理张量后进行0,1分割掩码映射。使用原模型和网络需要添加很多代码。下面为修改后的的代码: 下面为修改后的net_seedd代码: Copyright (c) Lixin YANG. All Rights Reserved.r"""Networks for heatmap estimation from RGB images using Hourglass Network"Stacked Hourglass Networks for Human Pose Estimation", Alejandro Newell, Kaiyu Yang, Jia Deng, ECCV 2016"""import numpy as npimport torchimport torch.nn as nnimport torch.nn.functional as Ffrom skimage import io,transform,utilfrom termcolor import colored, cprintfrom bihand.models.bases.bottleneck import BottleneckBlockfrom bihand.models.bases.hourglass import HourglassBisectedimport bihand.utils.func as funcimport matplotlib.pyplot as pltfrom bihand.utils import miscimport matplotlib.cm as cmdef color_mask(output_ok): 颜色映射cmap = plt.cm.get_cmap('jet') 将张量转换为numpy数组mask_array = output_ok.detach().numpy() 创建彩色图像cmap = cm.get_cmap('jet')colored_mask = cmap(mask_array)return colored_mask 可视化 plt.imshow(colored_mask, cmap='jet') plt.axis('off') plt.show()def two_color(mask_tensor): 将张量转换为numpy数组mask_array = mask_tensor.detach().numpy() 将0到1之间的值转换为二值化掩码threshold = 0.5 阈值,大于阈值的为白色,小于等于阈值的为黑色binary_mask = np.where(mask_array > threshold, 1, 0)return binary_mask 可视化 plt.imshow(binary_mask, cmap='gray') plt.axis('off') plt.show()class SeedNet(nn.Module):def __init__(self,nstacks=2,nblocks=1,njoints=21,block=BottleneckBlock,):super(SeedNet, self).__init__()self.njoints = njointsself.nstacks = nstacksself.in_planes = 64self.conv1 = nn.Conv2d(3, self.in_planes, kernel_size=7, stride=2, padding=3, bias=True)self.bn1 = nn.BatchNorm2d(self.in_planes)self.relu = nn.ReLU(inplace=True)self.maxpool = nn.MaxPool2d(2, stride=2)self.layer1 = self._make_residual(block, nblocks, self.in_planes, 2self.in_planes) current self.in_planes is 64 2 = 128self.layer2 = self._make_residual(block, nblocks, self.in_planes, 2self.in_planes) current self.in_planes is 128 2 = 256self.layer3 = self._make_residual(block, nblocks, self.in_planes, self.in_planes)ch = self.in_planes 256hg2b, res1, res2, fc1, _fc1, fc2, _fc2= [],[],[],[],[],[],[]hm, _hm, mask, _mask = [], [], [], []for i in range(nstacks): 2hg2b.append(HourglassBisected(block, nblocks, ch, depth=4))res1.append(self._make_residual(block, nblocks, ch, ch))res2.append(self._make_residual(block, nblocks, ch, ch))fc1.append(self._make_fc(ch, ch))fc2.append(self._make_fc(ch, ch))hm.append(nn.Conv2d(ch, njoints, kernel_size=1, bias=True))mask.append(nn.Conv2d(ch, 1, kernel_size=1, bias=True))if i < nstacks-1:_fc1.append(nn.Conv2d(ch, ch, kernel_size=1, bias=False))_fc2.append(nn.Conv2d(ch, ch, kernel_size=1, bias=False))_hm.append(nn.Conv2d(njoints, ch, kernel_size=1, bias=False))_mask.append(nn.Conv2d(1, ch, kernel_size=1, bias=False))self.hg2b = nn.ModuleList(hg2b) hgs: hourglass stackself.res1 = nn.ModuleList(res1)self.fc1 = nn.ModuleList(fc1)self._fc1 = nn.ModuleList(_fc1)self.res2 = nn.ModuleList(res2)self.fc2 = nn.ModuleList(fc2)self._fc2 = nn.ModuleList(_fc2)self.hm = nn.ModuleList(hm)self._hm = nn.ModuleList(_hm)self.mask = nn.ModuleList(mask)self._mask = nn.ModuleList(_mask)def _make_fc(self, in_planes, out_planes):bn = nn.BatchNorm2d(in_planes)conv = nn.Conv2d(in_planes, out_planes, kernel_size=1, bias=False)return nn.Sequential(conv, bn, self.relu)def _make_residual(self, block, nblocks, in_planes, out_planes):layers = []layers.append( block( in_planes, out_planes) )self.in_planes = out_planesfor i in range(1, nblocks):layers.append(block( self.in_planes, out_planes))return nn.Sequential(layers)def forward(self, x):l_hm, l_mask, l_enc = [], [], []x = self.conv1(x) x: (N,64,128,128)x = self.bn1(x)x = self.relu(x)x = self.layer1(x)x = self.maxpool(x) x: (N,128,64,64)x = self.layer2(x)x = self.layer3(x)for i in range(self.nstacks): 2y_1, y_2, _ = self.hg2b[i](x)y_1 = self.res1[i](y_1)y_1 = self.fc1[i](y_1)est_hm = self.hm[i](y_1)l_hm.append(est_hm)y_2 = self.res2[i](y_2)y_2 = self.fc2[i](y_2)est_mask = self.mask[i](y_2)l_mask.append(est_mask)if i < self.nstacks-1:_fc1 = self._fc1[i](y_1)_hm = self._hm[i](est_hm)_fc2 = self._fc2[i](y_2)_mask = self._mask[i](est_mask)x = x + _fc1 + _fc2 + _hm + _maskl_enc.append(x)else:l_enc.append(x + y_1 + y_2)assert len(l_hm) == self.nstacksreturn l_hm, l_mask, l_encif __name__ == '__main__':a = torch.randn(10, 3, 256, 256) SeedNetmodel = SeedNet() output1,output2,output3 = SeedNetmodel(a) print(output1,output2,output3)total_params = sum(p.numel() for p in SeedNetmodel.parameters())/1000000print("Total parameters: ", total_params)pretrained_weights_path = 'E:/bihand/released_checkpoints/ckp_seednet_all.pth.tar'img_rgb_path=r"E:\FreiHAND\training\rgb\00000153.jpg"img=io.imread(img_rgb_path)resized_img = transform.resize(img, (256, 256), anti_aliasing=True)img256=util.img_as_ubyte(resized_img)plt.imshow(resized_img)plt.axis('off') 关闭坐标轴plt.show()''' implicit HWC -> CHW, 255 -> 1 '''img1 = func.to_tensor(img256).float() 转换为张量并且进行标准化处理''' 0-mean, 1 std, [0,1] -> [-0.5, 0.5] '''img2 = func.normalize(img1, [0.5, 0.5, 0.5], [1, 1, 1])img3 = torch.unsqueeze(img2, 0)ok=img3print(img.shape)SeedNetmodel = SeedNet()misc.load_checkpoint(SeedNetmodel, pretrained_weights_path)加载权重output1, output2, output3 = SeedNetmodel(img3)mask_tensor = torch.rand(1, 64, 64)output=output2[1] 1,1,64,64output_1=output[0] 1,64,64output_ok=torch.sigmoid(output_1[0])output_real=output_1[0].detach().numpy()直接产生的张量图color_mask=color_mask(output_ok) 显示彩色分割图two_color=two_color(output_ok)显示黑白分割图see=output_ok.detach().numpy() 使用Matplotlib库显示分割掩码 plt.imshow(see, cmap='gray') plt.axis('off') plt.show() print(output1, output2, output3)images = [resized_img, color_mask, two_color,output_real,see,see]rows = 1cols = 4 创建子图并展示图像fig, axes = plt.subplots(1, 6, figsize=(30, 5)) 遍历图像列表,并在每个子图中显示图像for i, image in enumerate(images):ax = axes[i] if cols > 1 else axes 如果只有一列,则直接使用axesif i ==5:ax.imshow(image, cmap='gray')else:ax.imshow(image)ax.imshowax.axis('off') 调整子图之间的间距plt.subplots_adjust(wspace=0.1, hspace=0.1) 展示图像plt.show() 上述的代码文件是在bihand/models/net_seed.py中,全部代码链接在https://github.com/lixiny/bihand。 把bihand/models/net_seed.p中的代码修改为我提供的代码即可使用作者训练好的模型和进行各种可视化。(预训练模型根据作者代码提示下载) 3.调用阿里云API进行证件照生成实例 3.1 准备工作 1.找到接口 进入下面链接即可快速访问 link 2.购买试用包 3.查看APPcode 4.下载代码 5.参数说明 3.2 实验代码 !/usr/bin/python encoding: utf-8"""===========================证件照制作接口==========================="""import requestsimport jsonimport base64import hashlibclass Idphoto:def __init__(self, appcode, timeout=7):self.appcode = appcodeself.timeout = timeoutself.make_idphoto_url = 'https://idp2.market.alicloudapi.com/idphoto/make'self.headers = {'Authorization': 'APPCODE ' + appcode,}def get_md5_data(self, body):"""md5加密:param body_json::return:"""md5lib = hashlib.md5()md5lib.update(body.encode("utf-8"))body_md5 = md5lib.digest()body_md5 = base64.b64encode(body_md5)return body_md5def get_photo_base64(self, file_path):with open(file_path, 'rb') as fp:photo_base64 = base64.b64encode(fp.read())photo_base64 = photo_base64.decode('utf8')return photo_base64def aiseg_request(self, url, data, headers):resp = requests.post(url=url, data=data, headers=headers, timeout=self.timeout)res = {"status_code": resp.status_code}try:res["data"] = json.loads(resp.text)return resexcept Exception as e:print(e)def make_idphoto(self, file_path, bk, spec="2"):"""证件照制作接口:param file_path::param bk::param spec::return:"""photo_base64 = self.get_photo_base64(file_path)body_json = {"photo": photo_base64,"bk": bk,"with_photo_key": 1,"spec": spec,"type": "jpg"}body = json.dumps(body_json)body_md5 = self.get_md5_data(body=body)self.headers.update({'Content-MD5': body_md5})data = self.aiseg_request(url=self.make_idphoto_url, data=body, headers=self.headers)return dataif __name__ == "__main__":file_path = "图片地址"idphoto = Idphoto(appcode="你的appcode")d = idphoto.make_idphoto(file_path, "red", "2")print(d) 3.3 实验结果与分析 原图片 背景为红色生成的证件照 背景为蓝色生成的证件照 另外尝试了使用柴犬照片做实验,也生成了证件照 原图 背景为红色生成的证件照 参考(可供参考的链接和引用文献) 1.参考:BiHand: Recovering Hand Mesh with Multi-stage Bisected Hourglass Networks(BMVC2020) 论文链接:https://arxiv.org/pdf/2008.05079.pdf 本篇文章为转载内容。原文链接:https://blog.csdn.net/m0_37758063/article/details/131128967。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-07-11 23:36:51
131
转载
Maven
...维过程。 GPT-3模型 , GPT-3(Generative Pre-training Transformer 3)是由OpenAI开发的一款先进的预训练语言模型,通过大规模无监督学习和深度神经网络架构,能够在各种任务中生成高质量的文本内容。尽管GPT-3在某些场景下可以生成看似具有情感色彩和创造性的文本片段,但其仍受限于算法本身的机制,无法真正实现人类般深层次的情感理解和创新思考。
2023-12-17 20:55:11
58
山涧溪流_t
转载文章
...中,LSTM和GRU神经网络的优化与应用持续深化。例如,2023年的一项研究改进了传统的LSTM结构,通过引入新的门控机制有效提升了处理长序列数据的能力,在自然语言生成、时间序列预测等任务上取得了显著成果。 与此同时,卷积神经网络(CNN)也正经历着一场革命。随着Transformer架构的兴起,视觉Transformer(ViT)和ConvNeXt等新型模型逐渐崭露头角,它们在图像识别、目标检测等计算机视觉任务中展现出了超越传统CNN的性能。尤其在跨模态学习领域,结合视觉和文本信息的预训练模型如DALL·E 2和CLIP,正在重新定义我们对深度学习模型的理解和应用边界。 此外,seq2seq模型的演进并未止步。近年来,基于Transformer的BERT、GPT系列模型在机器翻译、对话系统等领域大放异彩,为序列转换任务提供了更为强大的工具。而Google最新发布的PaLM模型,凭借其4000亿参数量刷新了多项NLP基准测试记录,进一步证明了大规模预训练模型在深度学习领域的巨大潜力。 综上所述,深度学习领域的研究与实践正以前所未有的速度发展,不断拓宽应用场景并提升技术效能。对于读者而言,紧跟前沿动态,深入了解各类深度学习模型的工作原理及其实战应用,无疑将有助于把握未来AI发展的脉搏,更好地将其应用于实际工作与科研创新之中。
2023-02-24 22:03:17
91
转载
Python
...其在机器学习线性回归模型中的应用后,我们可以进一步探索这一算法在更广阔领域的实时应用和发展趋势。 近期,《Nature》杂志的一篇研究论文揭示了梯度下降法在深度神经网络训练中的关键作用。科研人员通过优化学习率策略,显著提升了训练效率和模型准确性,从而在图像识别、自然语言处理等复杂任务上取得突破。这一研究成果不仅印证了梯度下降法在现代机器学习架构中的核心地位,也为未来AI技术的发展提供了新的优化思路。 此外,结合实际工业界动态,Google Brain团队近期发布了一项名为“Adafactor”的自适应优化器,其在大规模训练任务上表现出了超越传统Adam(基于梯度的优化方法)的优势。Adafactor在保留了自适应学习率调整特性的同时,减少了内存消耗并提高了训练速度,这无疑是对梯度下降算法的一种有力补充和完善。 同时,在理论层面,一些学者正致力于研究非凸优化问题下的梯度下降变种算法,如随机梯度下降、批量梯度下降以及牛顿法等的混合策略,以求解决更为复杂的优化难题。例如,清华大学的一项最新研究提出了一种改进型的预条件梯度下降算法,在大规模稀疏数据场景下取得了显著性能提升。 综上所述,梯度下降算法作为机器学习基石的重要性不言而喻,而其在现实世界的应用与理论前沿的持续创新,则为我们打开了深入探究这一经典算法无限潜力的大门。读者可以关注相关领域的最新研究进展,深入了解如何通过优化梯度下降算法来应对不断涌现的新挑战。
2023-09-27 14:38:40
303
电脑达人
Python
...程序,结合先进的卷积神经网络(CNN)模型对复杂环境下的车辆检测进行了优化。通过预训练模型和自定义级联分类器,不仅提升了车辆检测精度,而且在低光照、恶劣天气条件下的表现亦有显著改善。 进一步阅读,读者可以关注国内外各大研究机构和科技公司在这一领域的最新研究成果和技术动态,了解Python编程语言在智能交通、自动驾驶等前沿领域中的具体实践与挑战。同时,学习并掌握Python在图像处理和机器学习算法上的应用,将有助于紧跟时代步伐,参与到未来智慧交通系统的建设与发展之中。
2023-12-14 13:35:31
42
键盘勇士
Tesseract
...,研发出新的深度学习模型与优化算法。例如,2022年的一项研究成果展示了结合超分辨率技术和新型卷积神经网络架构,能够在保持较高识别速度的同时,有效提升对模糊图像的字符识别能力。 同时,也有团队将注意力机制与对抗生成网络相结合,用于增强模糊图像的细节信息,以此改善OCR引擎对模糊图像的识别效果。这项工作不仅提升了Tesseract在实际应用中的性能,也对整个OCR技术的发展产生了积极影响。 此外,对于图像预处理技术的最新进展,如基于人工智能的智能去噪算法、动态调整图像对比度及亮度的方法也在不断提升OCR工具在处理模糊图像时的鲁棒性。这些实时的研究成果和技术突破,为改进包括Tesseract在内的各类OCR工具提供了有力支持,并有望在未来引领OCR技术向更高精度和更强适应性的方向发展。
2023-05-12 09:28:36
115
时光倒流-t
Spark
...及基于深度学习的序列模型),实现了用户购买行为预测的显著提升,有效驱动了业务增长。 同时,学术界也对Spark MLlib展开了深入研究。2023年的一篇《Nature》子刊论文中,科研团队利用MLlib构建大规模环境监测模型,结合卫星遥感数据进行森林火灾风险预测,展示了开源工具在解决复杂现实问题中的强大潜力。 此外,值得注意的是,Apache Spark社区仍在积极更新和完善MLlib的功能。最近版本的更新中,新增了对更多现代机器学习算法的支持,比如神经网络集成方法和自动特征工程模块,这些改进进一步降低了机器学习应用门槛,使更多开发者能够借助Spark MLlib应对日益增长的大数据分析挑战。 总之,无论是工业界的实践案例还是学术研究的新突破,都印证了Apache Spark MLlib在当今数据科学领域的重要地位与价值。而随着技术迭代和新功能的不断加入,未来Spark MLlib将在推动人工智能和大数据分析的发展道路上扮演更加关键的角色。
2023-11-06 21:02:25
149
追梦人-t
转载文章
在网络安全日益重要的今天,钓鱼网页识别研究显得尤为重要。近期,一篇关于利用随机森林算法对钓鱼网页特征进行分类的研究引起了广泛关注。研究人员通过提取包括图片数量、表单元素、脚本文件等在内的多个特征,并借助特征重要性筛选方法优化模型性能,显著提升了钓鱼网页识别的准确率。 实际上,全球范围内针对网络欺诈和钓鱼攻击的防御策略正在不断升级。例如,今年早些时候,Google发布了一项更新,其Chrome浏览器引入了更先进的机器学习技术来实时检测潜在的钓鱼网站,该系统同样基于网页的多种属性特征进行分析,与上述研究思路不谋而合。 此外,学术界对于钓鱼网页特征工程的探讨也在深入。一项来自ACM Transactions on Information and System Security的最新研究进一步探讨了深度学习在钓鱼网页检测中的应用,通过卷积神经网络自动学习网页结构和内容模式,实现了更高的检测精度。 同时,结合国际标准化组织(ISO)和国际电信联盟(ITU)的相关网络安全标准及最佳实践,钓鱼网页防范不仅需要技术手段的提升,也需加强用户教育,提高公众对钓鱼攻击的认知和防范能力。 综上所述,无论是从特征选择优化还是新型AI技术的应用,钓鱼网页识别领域正处在快速发展阶段。未来,随着更多前沿技术和深度学习算法的融合运用,我们有理由相信,钓鱼网页识别的精准度将进一步提高,为构筑更加安全的网络环境提供有力保障。
2023-12-29 19:05:16
150
转载
Tesseract
...法,其灵感来源于人脑神经网络的工作原理,通过构建多层非线性模型对复杂数据进行高效学习与表示。在处理多语言混合文本的OCR场景中,深度学习可用于改进语言边界检测、提高文本识别准确率以及训练更强大的多语言混合识别模型。 高级配置选项(如--oem和--psm) , 在Tesseract OCR引擎中,--oem和--psm是两个重要的高级配置参数。--oem(OCR Engine Modes)定义了使用的OCR引擎模式,比如只使用内部的Tesseract引擎或者结合其他第三方引擎进行识别;而--psm(Page Segmentation Modes)则指定了页面分割模式,用于确定如何分析和识别图像中的文本布局,例如单行文本、多列文本、表格文本等不同结构。合理设置这些参数有助于优化Tesseract在处理多语言混合文本时的性能表现。
2023-03-07 23:14:16
136
人生如戏
转载文章
...于分布式图计算的社交网络影响力研究及实践》:结合当下社交媒体的大数据背景,这篇深度解读文章探讨了如何运用Spark GraphX等工具进行社交网络影响力的量化分析与预测。作者通过对真实案例的剖析,展示了图计算技术如何揭示用户行为模式、发现关键节点以及优化信息传播策略。 3. 《融合GNN与GraphX的新型图神经网络架构探索》:近年来,图神经网络(GNN)成为深度学习在图数据处理中的热门方向。一篇最新的科研论文提出了一种将GraphX与GNN相结合的创新架构,利用GraphX高效处理大规模图数据的优势,为GNN提供训练前的数据预处理和模型训练后的评估支持。读者可以通过研读这篇论文,了解图计算与深度学习前沿交叉领域的最新成果。 4. 《工业界应用实例:使用Spark GraphX构建企业级知识图谱》:本文介绍了某知名企业在构建企业内部知识图谱时,如何采用Spark GraphX作为核心技术框架,解决复杂的企业数据关系挖掘与可视化问题。通过实际案例,让读者深入了解Spark GraphX在现实业务场景中的落地应用价值。 以上延伸阅读内容既涵盖了Spark GraphX技术本身的最新发展动态,也包含了其在社交网络分析、图神经网络融合以及企业级知识图谱构建等领域的深度应用和创新实践,有助于您紧跟图计算技术潮流,拓宽专业视野。
2023-07-30 14:45:06
180
转载
Tesseract
...出了一种基于生成对抗网络(GAN)的新型模糊图像处理算法,该算法能够显著提升模糊图像的识别准确率。研究人员通过大量的训练数据,使得模型能够在保持图像真实感的同时,增强图像的清晰度和细节表现力。这一技术的应用范围广泛,不仅限于文本识别,还包括人脸识别、物体检测等多个领域。 此外,另一项值得关注的研究来自加州大学伯克利分校,研究团队开发了一种名为“DeepZoom”的深度学习框架,专门用于处理模糊图像。该框架利用多尺度卷积神经网络(CNN)来捕捉图像中的细微特征,从而在不损失图像质量的情况下,大幅提升模糊图像的识别效果。这一技术已经在医疗影像诊断中得到了初步应用,特别是在处理X光片和MRI图像时,显示出了巨大的潜力。 除了学术研究,商业界也在积极投入资源,开发适用于模糊图像处理的软件和工具。例如,Adobe公司近期推出了一款名为“Deblur AI”的插件,专门用于提升模糊图像的质量。这款插件采用了先进的机器学习算法,能够在几秒钟内自动修复模糊图像,使得图像恢复到接近原始状态的清晰度。这对于摄影师和设计师来说,无疑是一个巨大的福音。 这些最新的研究成果和技术进展,不仅展示了模糊图像识别领域的巨大潜力,也为相关行业的应用提供了更多可能性。未来,随着技术的不断成熟,我们有理由相信模糊图像识别将变得更加精准和高效。
2024-10-23 15:44:16
137
草原牧歌
Mahout
...(3) 使用深度学习模型:引入深度学习技术,如Autoencoder或者神经网络进行矩阵分解,可以更好地处理稀疏矩阵并提升推荐效果。 (4) 混合推荐策略:结合其他推荐策略,如基于内容的推荐,共同减轻稀疏矩阵带来的影响。 5. 结语 在使用Mahout构建推荐系统的实践中,理解和解决稀疏矩阵异常是一项重要的任务。虽然乍一看这个问题挺让人头疼的,不过只要我们巧妙地使出各种策略和优化手段,完全可以把它变成一股推动力,让推荐效果蹭蹭往上涨,更上一层楼。在不断捣鼓和改进的过程中,咱们不仅能更深入地领悟Mahout这个工具以及它所采用的协同过滤算法,更能实实在在地提升推荐系统的精准度,让用户体验蹭蹭上涨。所以,当面对稀疏矩阵的异常情况时,别害怕,咱们得学会聪明地洞察并充分利用这其中隐藏的信息宝藏,这样一来,就能让推荐系统跑得溜溜的,效率杠杠的。
2023-01-23 11:24:41
144
青春印记
站内搜索
用于搜索本网站内部文章,支持栏目切换。
知识学习
实践的时候请根据实际情况谨慎操作。
随机学习一条linux命令:
ln -sfn source_file link_name
- 创建指向源文件的软链接(如果存在同名链接,则替换)。
推荐内容
推荐本栏目内的其它文章,看看还有哪些文章让你感兴趣。
2023-04-28
2023-08-09
2023-06-18
2023-04-14
2023-02-18
2023-04-17
2024-01-11
2023-10-03
2023-09-09
2023-06-13
2023-08-07
2023-03-11
历史内容
快速导航到对应月份的历史文章列表。
随便看看
拉到页底了吧,随便看看还有哪些文章你可能感兴趣。
时光飞逝
"流光容易把人抛,红了樱桃,绿了芭蕉。"