前端技术
HTML
CSS
Javascript
前端框架和UI库
VUE
ReactJS
AngularJS
JQuery
NodeJS
JSON
Element-UI
Bootstrap
Material UI
服务端和客户端
Java
Python
PHP
Golang
Scala
Kotlin
Groovy
Ruby
Lua
.net
c#
c++
后端WEB和工程框架
SpringBoot
SpringCloud
Struts2
MyBatis
Hibernate
Tornado
Beego
Go-Spring
Go Gin
Go Iris
Dubbo
HessianRPC
Maven
Gradle
数据库
MySQL
Oracle
Mongo
中间件与web容器
Redis
MemCache
Etcd
Cassandra
Kafka
RabbitMQ
RocketMQ
ActiveMQ
Nacos
Consul
Tomcat
Nginx
Netty
大数据技术
Hive
Impala
ClickHouse
DorisDB
Greenplum
PostgreSQL
HBase
Kylin
Hadoop
Apache Pig
ZooKeeper
SeaTunnel
Sqoop
Datax
Flink
Spark
Mahout
数据搜索与日志
ElasticSearch
Apache Lucene
Apache Solr
Kibana
Logstash
数据可视化与OLAP
Apache Atlas
Superset
Saiku
Tesseract
系统与容器
Linux
Shell
Docker
Kubernetes
[地理位置球面距离计算 centerSph...]的搜索结果
这里是文章列表。热门标签的颜色随机变换,标签颜色没有特殊含义。
点击某个标签可搜索标签相关的文章。
点击某个标签可搜索标签相关的文章。
Mongo
...常的数据处理过程中,地理位置信息是非常重要的一个部分。当我们在处理海量的地理数据时,想要迅速捞到我们需要的信息,就必须要对地理位置进行一种超级给力、高效的搜索查询才行。本文将介绍如何在MongoDB中实现高效的地理位置查询。 二、地理位置数据模型的设计 首先,我们需要设计一个好的地理位置数据模型。通常我们会将地理位置信息存储为经纬度坐标,也就是点状数据。例如: javascript { _id: ObjectId("5f6d72e83a91c798a5253d78"), location: { type: "Point", coordinates: [116.404, 39.915] } } 在这个数据模型中,location字段是一个包含经纬度坐标的JSON对象。在MongoDB这个数据库里,咱们完全可以把这个字段直接使上劲儿,用来做地理位置的查询哈,就像查地图找地点那样方便快捷。 三、地理位置查询的基本方法 在MongoDB中,我们可以通过使用$geoWithin操作符来进行地理位置查询。$geoWithin操作符可以用来查询满足某个地理位置范围内的文档。 例如,如果我们想要查询北京市的所有记录,我们可以这样做: javascript db.collection.find({ location: { $geoWithin: { $centerSphere: [[116.404, 39.915], 500] } } }) 这个查询将会返回所有距离北京中心500公里以内的记录。 四、地理位置查询的高级应用 除了基本的地理位置查询之外,MongoDB还提供了一些高级的应用功能。比如,我们能够用$near这个小工具,找出离得最近的那些文档;又或者,借助$geoIntersects这个神器,判断某个区域是否和其他区域有交集。 例如,如果我们想要查询最近的10个北京市的记录,我们可以这样做: javascript db.collection.find( { location: { $near: { $geometry: { type: "Point", coordinates: [116.404, 39.915] }, $maxDistance: 10000 } } } ) 这个查询将会返回所有距离北京中心不超过10公里的记录,并且按照距离从近到远排序。 五、结论 地理位置查询是MongoDB中的一个重要应用场景,正确使用地理位置查询可以帮助我们更高效地处理地理数据。设计一个贼棒的地理位置数据模型后,我们就能在MongoDB里轻轻松松地进行各种花式地理位置查找,就像探囊取物一样简单。而MongoDB的高级地理位置查询功能,如$near和$geoIntersects等,也可以帮助我们解决一些复杂的地理位置问题。
2023-07-13 14:14:37
40
梦幻星空-t
Hadoop
...p是一个开源的分布式计算框架,由Apache基金会开发和维护。它主要用于处理海量数据集,具备高容错性和高扩展性。在文中,Hadoop的核心组件包括HDFS(Hadoop Distributed File System)和MapReduce。HDFS提供了一个高度可伸缩的分布式文件系统,用于存储大量数据;而MapReduce则是一种编程模型,用于对这些大规模数据进行并行处理,通过将任务分割成“映射”和“归约”两个阶段来实现高效的数据分析。 数据一致性 , 在分布式系统或数据库中,数据一致性是指所有用户或者节点在同一时间点看到的数据状态是一致的,即无论数据在何处被读取或写入,其结果都是符合预期且一致的。在本文背景下,数据一致性验证失败意味着在Hadoop处理大数据的过程中,由于各种原因导致各个节点上的数据校验结果不匹配,未能达到预设的一致性要求。 异地容灾 , 异地容灾是企业信息系统灾难恢复策略的一种,指的是在相隔一定地理距离的两个或多个地点建立互为备份的信息系统,当主站点发生不可预见的灾难(如火灾、地震等)时,备用站点可以接管业务,确保数据和服务的连续性。在文中,通过采用异地容灾的方式,即使Hadoop集群中的某个系统出现故障,也能保证存储在不同地理位置的数据副本间保持一致性,从而继续进行有效的大数据分析和处理工作。
2023-01-12 15:56:12
519
烟雨江南-t
Apache Solr
...lr中用于处理和索引地理空间数据的核心组件。在本文的上下文中,它主要用于将地理位置信息(如经纬度坐标)编码为支持搜索和查询的数据格式,例如GeoJSON或WKT,并支持基于这些地理信息进行范围查询、距离计算及地理空间聚合等操作。 GeoHash , GeoHash是一种将二维地理坐标(经度和纬度)编码为一维字符串的方法,这样可以高效地存储和检索地理位置信息。在Solr中,GeoHash被用于地理空间分区和聚合,通过将地球表面划分为多个矩形区域并赋予唯一的哈希值,使得相近地理位置具有相似或相同的GeoHash值,便于进行地理区域划分和统计分析。 BoundingBox , BoundingBox在地理信息系统中表示一个矩形区域,由两个对角点的经纬度坐标定义。在Apache Solr的地理搜索功能中,BoundingBox查询允许用户根据指定的地理位置坐标和范围半径,查找位于特定边界框内的所有文档。例如,在文章示例中,可以找到所有位于纽约市方圆10公里内的文档。 神经网络搜索 , 神经网络搜索是一种利用深度学习技术优化搜索引擎结果的方法。在Solr 8.x及以上版本中引入了这一概念,虽然具体实现依赖于Sease项目,但基本思想是通过预训练模型将用户的非精确地理位置描述(如“纽约市”)转换为潜在的地理坐标,从而提高地理位置相关查询的精度和有效性。这种技术有助于提升用户查询体验,特别是对于模糊或者语义化的地点搜索需求。
2024-03-06 11:31:08
405
红尘漫步-t
Hadoop
...中,若数据节点分布于地理位置相距较远的数据中心,则数据传输过程中会出现较大的网络延迟,进而导致读取速度下降。文章提到可以通过检查代码执行时间和优化副本策略来诊断是否存在网络延迟问题。 数据本地性 , 指的是数据被请求时,其所在的存储节点与发起请求的客户端之间的距离关系。理想状态下,数据应尽可能存储在靠近客户端的位置,以减少跨节点的数据传输开销。文章中提到可以通过调整副本策略来改善数据本地性,例如设置dfs.replication参数,使文件副本更集中于特定节点,从而提高读取效率。
2025-05-04 16:24:39
103
月影清风
转载文章
...用户向量与内容向量的距离可以得出。 第二类是环境特征,包括地理位置、时间。这些既是bias特征,也能以此构建一些匹配特征。 第三类是热度特征。包括全局热度、分类热度,主题热度,以及关键词热度等。内容热度信息在大的推荐系统特别在用户冷启动的时候非常有效。 第四类是协同特征,它可以在部分程度上帮助解决所谓算法越推越窄的问题。 协同特征并非考虑用户已有历史。而是通过用户行为分析不同用户间相似性,比如点击相似、兴趣分类相似、主题相似、兴趣词相似,甚至向量相似,从而扩展模型的探索能力。 模型的训练上,头条系大部分推荐产品采用实时训练。实时训练省资源并且反馈快,这对信息流产品非常重要。用户需要行为信息可以被模型快速捕捉并反馈至下一刷的推荐效果。 我们线上目前基于storm集群实时处理样本数据,包括点击、展现、收藏、分享等动作类型。 模型参数服务器是内部开发的一套高性能的系统,因为头条数据规模增长太快,类似的开源系统稳定性和性能无法满足,而我们自研的系统底层做了很多针对性的优化,提供了完善运维工具,更适配现有的业务场景。 目前,头条的推荐算法模型在世界范围内也是比较大的,包含几百亿原始特征和数十亿向量特征。 整体的训练过程是线上服务器记录实时特征,导入到Kafka文件队列中,然后进一步导入Storm集群消费Kafka数据,客户端回传推荐的label构造训练样本,随后根据最新样本进行在线训练更新模型参数,最终线上模型得到更新。 这个过程中主要的延迟在用户的动作反馈延时,因为文章推荐后用户不一定马上看,不考虑这部分时间,整个系统是几乎实时的。 但因为头条目前的内容量非常大,加上小视频内容有千万级别,推荐系统不可能所有内容全部由模型预估。 所以需要设计一些召回策略,每次推荐时从海量内容中筛选出千级别的内容库。召回策略最重要的要求是性能要极致,一般超时不能超过50毫秒。 召回策略种类有很多,我们主要用的是倒排的思路。离线维护一个倒排,这个倒排的key可以是分类,topic,实体,来源等。 排序考虑热度、新鲜度、动作等。线上召回可以迅速从倒排中根据用户兴趣标签对内容做截断,高效的从很大的内容库中筛选比较靠谱的一小部分内容。 二、内容分析 内容分析包括文本分析,图片分析和视频分析。头条一开始主要做资讯,今天我们主要讲一下文本分析。文本分析在推荐系统中一个很重要的作用是用户兴趣建模。 没有内容及文本标签,无法得到用户兴趣标签。举个例子,只有知道文章标签是互联网,用户看了互联网标签的文章,才能知道用户有互联网标签,其他关键词也一样。 另一方面,文本内容的标签可以直接帮助推荐特征,比如魅族的内容可以推荐给关注魅族的用户,这是用户标签的匹配。 如果某段时间推荐主频道效果不理想,出现推荐窄化,用户会发现到具体的频道推荐(如科技、体育、娱乐、军事等)中阅读后,再回主feed,推荐效果会更好。 因为整个模型是打通的,子频道探索空间较小,更容易满足用户需求。只通过单一信道反馈提高推荐准确率难度会比较大,子频道做的好很重要。而这也需要好的内容分析。 上图是今日头条的一个实际文本case。可以看到,这篇文章有分类、关键词、topic、实体词等文本特征。 当然不是没有文本特征,推荐系统就不能工作,推荐系统最早期应用在Amazon,甚至沃尔玛时代就有,包括Netfilx做视频推荐也没有文本特征直接协同过滤推荐。 但对资讯类产品而言,大部分是消费当天内容,没有文本特征新内容冷启动非常困难,协同类特征无法解决文章冷启动问题。 今日头条推荐系统主要抽取的文本特征包括以下几类。首先是语义标签类特征,显式为文章打上语义标签。 这部分标签是由人定义的特征,每个标签有明确的意义,标签体系是预定义的。 此外还有隐式语义特征,主要是topic特征和关键词特征,其中topic特征是对于词概率分布的描述,无明确意义;而关键词特征会基于一些统一特征描述,无明确集合。 另外文本相似度特征也非常重要。在头条,曾经用户反馈最大的问题之一就是为什么总推荐重复的内容。这个问题的难点在于,每个人对重复的定义不一样。 举个例子,有人觉得这篇讲皇马和巴萨的文章,昨天已经看过类似内容,今天还说这两个队那就是重复。 但对于一个重度球迷而言,尤其是巴萨的球迷,恨不得所有报道都看一遍。解决这一问题需要根据判断相似文章的主题、行文、主体等内容,根据这些特征做线上策略。 同样,还有时空特征,分析内容的发生地点以及时效性。比如武汉限行的事情推给北京用户可能就没有意义。 最后还要考虑质量相关特征,判断内容是否低俗,色情,是否是软文,鸡汤? 上图是头条语义标签的特征和使用场景。他们之间层级不同,要求不同。 分类的目标是覆盖全面,希望每篇内容每段视频都有分类;而实体体系要求精准,相同名字或内容要能明确区分究竟指代哪一个人或物,但不用覆盖很全。 概念体系则负责解决比较精确又属于抽象概念的语义。这是我们最初的分类,实践中发现分类和概念在技术上能互用,后来统一用了一套技术架构。 目前,隐式语义特征已经可以很好的帮助推荐,而语义标签需要持续标注,新名词新概念不断出现,标注也要不断迭代。其做好的难度和资源投入要远大于隐式语义特征,那为什么还需要语义标签? 有一些产品上的需要,比如频道需要有明确定义的分类内容和容易理解的文本标签体系。语义标签的效果是检查一个公司NLP技术水平的试金石。 今日头条推荐系统的线上分类采用典型的层次化文本分类算法。 最上面Root,下面第一层的分类是像科技、体育、财经、娱乐,体育这样的大类,再下面细分足球、篮球、乒乓球、网球、田径、游泳…,足球再细分国际足球、中国足球,中国足球又细分中甲、中超、国家队…,相比单独的分类器,利用层次化文本分类算法能更好地解决数据倾斜的问题。 有一些例外是,如果要提高召回,可以看到我们连接了一些飞线。这套架构通用,但根据不同的问题难度,每个元分类器可以异构,像有些分类SVM效果很好,有些要结合CNN,有些要结合RNN再处理一下。 上图是一个实体词识别算法的case。基于分词结果和词性标注选取候选,期间可能需要根据知识库做一些拼接,有些实体是几个词的组合,要确定哪几个词结合在一起能映射实体的描述。 如果结果映射多个实体还要通过词向量、topic分布甚至词频本身等去歧,最后计算一个相关性模型。 三、用户标签 内容分析和用户标签是推荐系统的两大基石。内容分析涉及到机器学习的内容多一些,相比而言,用户标签工程挑战更大。 今日头条常用的用户标签包括用户感兴趣的类别和主题、关键词、来源、基于兴趣的用户聚类以及各种垂直兴趣特征(车型,体育球队,股票等)。还有性别、年龄、地点等信息。 性别信息通过用户第三方社交账号登录得到。年龄信息通常由模型预测,通过机型、阅读时间分布等预估。 常驻地点来自用户授权访问位置信息,在位置信息的基础上通过传统聚类的方法拿到常驻点。 常驻点结合其他信息,可以推测用户的工作地点、出差地点、旅游地点。这些用户标签非常有助于推荐。 当然最简单的用户标签是浏览过的内容标签。但这里涉及到一些数据处理策略。 主要包括: 一、过滤噪声。通过停留时间短的点击,过滤标题党。 二、热点惩罚。对用户在一些热门文章(如前段时间PG One的新闻)上的动作做降权处理。理论上,传播范围较大的内容,置信度会下降。 三、时间衰减。用户兴趣会发生偏移,因此策略更偏向新的用户行为。因此,随着用户动作的增加,老的特征权重会随时间衰减,新动作贡献的特征权重会更大。 四、惩罚展现。如果一篇推荐给用户的文章没有被点击,相关特征(类别,关键词,来源)权重会被惩罚。当 然同时,也要考虑全局背景,是不是相关内容推送比较多,以及相关的关闭和dislike信号等。 用户标签挖掘总体比较简单,主要还是刚刚提到的工程挑战。头条用户标签第一版是批量计算框架,流程比较简单,每天抽取昨天的日活用户过去两个月的动作数据,在Hadoop集群上批量计算结果。 但问题在于,随着用户高速增长,兴趣模型种类和其他批量处理任务都在增加,涉及到的计算量太大。 2014年,批量处理任务几百万用户标签更新的Hadoop任务,当天完成已经开始勉强。集群计算资源紧张很容易影响其它工作,集中写入分布式存储系统的压力也开始增大,并且用户兴趣标签更新延迟越来越高。 面对这些挑战。2014年底今日头条上线了用户标签Storm集群流式计算系统。改成流式之后,只要有用户动作更新就更新标签,CPU代价比较小,可以节省80%的CPU时间,大大降低了计算资源开销。 同时,只需几十台机器就可以支撑每天数千万用户的兴趣模型更新,并且特征更新速度非常快,基本可以做到准实时。这套系统从上线一直使用至今。 当然,我们也发现并非所有用户标签都需要流式系统。像用户的性别、年龄、常驻地点这些信息,不需要实时重复计算,就仍然保留daily更新。 四、评估分析 上面介绍了推荐系统的整体架构,那么如何评估推荐效果好不好? 有一句我认为非常有智慧的话,“一个事情没法评估就没法优化”。对推荐系统也是一样。 事实上,很多因素都会影响推荐效果。比如侯选集合变化,召回模块的改进或增加,推荐特征的增加,模型架构的改进在,算法参数的优化等等,不一一举例。 评估的意义就在于,很多优化最终可能是负向效果,并不是优化上线后效果就会改进。 全面的评估推荐系统,需要完备的评估体系、强大的实验平台以及易用的经验分析工具。 所谓完备的体系就是并非单一指标衡量,不能只看点击率或者停留时长等,需要综合评估。 很多公司算法做的不好,并非是工程师能力不够,而是需要一个强大的实验平台,还有便捷的实验分析工具,可以智能分析数据指标的置信度。 一个良好的评估体系建立需要遵循几个原则,首先是兼顾短期指标与长期指标。我在之前公司负责电商方向的时候观察到,很多策略调整短期内用户觉得新鲜,但是长期看其实没有任何助益。 其次,要兼顾用户指标和生态指标。既要为内容创作者提供价值,让他更有尊严的创作,也有义务满足用户,这两者要平衡。 还有广告主利益也要考虑,这是多方博弈和平衡的过程。 另外,要注意协同效应的影响。实验中严格的流量隔离很难做到,要注意外部效应。 强大的实验平台非常直接的优点是,当同时在线的实验比较多时,可以由平台自动分配流量,无需人工沟通,并且实验结束流量立即回收,提高管理效率。 这能帮助公司降低分析成本,加快算法迭代效应,使整个系统的算法优化工作能够快速往前推进。 这是头条A/B Test实验系统的基本原理。首先我们会做在离线状态下做好用户分桶,然后线上分配实验流量,将桶里用户打上标签,分给实验组。 举个例子,开一个10%流量的实验,两个实验组各5%,一个5%是基线,策略和线上大盘一样,另外一个是新的策略。 实验过程中用户动作会被搜集,基本上是准实时,每小时都可以看到。但因为小时数据有波动,通常是以天为时间节点来看。动作搜集后会有日志处理、分布式统计、写入数据库,非常便捷。 在这个系统下工程师只需要设置流量需求、实验时间、定义特殊过滤条件,自定义实验组ID。系统可以自动生成:实验数据对比、实验数据置信度、实验结论总结以及实验优化建议。 当然,只有实验平台是远远不够的。线上实验平台只能通过数据指标变化推测用户体验的变化,但数据指标和用户体验存在差异,很多指标不能完全量化。 很多改进仍然要通过人工分析,重大改进需要人工评估二次确认。 五、内容安全 最后要介绍今日头条在内容安全上的一些举措。头条现在已经是国内最大的内容创作与分发凭条,必须越来越重视社会责任和行业领导者的责任。如果1%的推荐内容出现问题,就会产生较大的影响。 现在,今日头条的内容主要来源于两部分,一是具有成熟内容生产能力的PGC平台 一是UGC用户内容,如问答、用户评论、微头条。这两部分内容需要通过统一的审核机制。如果是数量相对少的PGC内容,会直接进行风险审核,没有问题会大范围推荐。 UGC内容需要经过一个风险模型的过滤,有问题的会进入二次风险审核。审核通过后,内容会被真正进行推荐。这时如果收到一定量以上的评论或者举报负向反馈,还会再回到复审环节,有问题直接下架。 整个机制相对而言比较健全,作为行业领先者,在内容安全上,今日头条一直用最高的标准要求自己。 分享内容识别技术主要鉴黄模型,谩骂模型以及低俗模型。今日头条的低俗模型通过深度学习算法训练,样本库非常大,图片、文本同时分析。 这部分模型更注重召回率,准确率甚至可以牺牲一些。谩骂模型的样本库同样超过百万,召回率高达95%+,准确率80%+。如果用户经常出言不讳或者不当的评论,我们有一些惩罚机制。 泛低质识别涉及的情况非常多,像假新闻、黑稿、题文不符、标题党、内容质量低等等,这部分内容由机器理解是非常难的,需要大量反馈信息,包括其他样本信息比对。 目前低质模型的准确率和召回率都不是特别高,还需要结合人工复审,将阈值提高。目前最终的召回已达到95%,这部分其实还有非常多的工作可以做。别平台。 如果需要机器学习视频,可以在公众号后台聊天框回复【机器学习】,可以免费获取编程视频 。 你可能还喜欢 数学在机器学习中到底有多重要? AI 新手学习路线,附上最详细的资源整理! 提升机器学习数学基础,推荐7本书 酷爆了!围观2020年十大科技趋势 机器学习该如何入门,听听过来人的经验! 长按加入T圈,接触人工智能 觉得内容还不错的话,给我点个“在看”呗 本篇文章为转载内容。原文链接:https://blog.csdn.net/itcodexy/article/details/109574173。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2024-01-13 09:21:23
322
转载
转载文章
...gs发布的二维地图的地理坐标联动起来,下载安装google earth plugin之后,可以同时浏览某一地理位置的google earth三维地图和ags二维地图,当业务的侧重点在于地理展示和客户端体验时,不能不说Google树立了一个典范,从ags抽取地理核心服务,从Google Earth/Map或是其他服务提取基础地图和应用展示,两者结合实现某种需求。 虽然从ags9.2-9.3的功能改进,可以看出ESRI在过去以GIS核心服务为重心的基础上,开始增强客户端的应用开发(ADF模板程序、javascript api),但是它并没有停止服务层面的不断改进,各种新增的各种server服务以及REST API就是最好的体现。思想到位了,还需要实际检验,估计不少bug等着我们挖掘,后面会向大家介绍一些比较流行的server基本开发模式。 相关链接: Javascript API Samples ArcGIS Server Resource Center 转载于:https://www.cnblogs.com/flyingis/archive/2008/07/09/1239585.html 本篇文章为转载内容。原文链接:https://blog.csdn.net/weixin_30429201/article/details/98226373。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-04-22 09:33:23
116
转载
Python
...使数据点到各个质心的距离最小的聚类中心。在这个过程中,它巧妙地引入了一个叫做“模糊”的概念,这就意味着数据点不再受限于只能归属于一个单一的分类,而是能够灵活地同时属于多个群体。 三、FCM算法的工作原理 1. 初始化 首先需要选择k个质心,然后为每个数据点分配一个初始的模糊隶属度。 2. 计算模糊隶属度 对于每个数据点,计算其与所有质心的距离,并根据距离大小重新调整其模糊隶属度。 3. 更新质心 对每个簇,计算所有成员的加权平均值,得到新的质心。 4. 重复步骤2和3,直到满足收敛条件为止。 四、Python实现FCM算法 以下是一个简单的Python实现FCM算法的例子: python from sklearn.cluster import KMeans import numpy as np 创建样本数据 np.random.seed(0) X = np.random.rand(100, 2) 使用FCM算法进行聚类 model = KMeans(n_clusters=3, init='random', max_iter=500, tol=1e-4, n_init=10, random_state=0).fit(X) 输出结果 print("Cluster labels: ", model.labels_) 在这个例子中,我们使用了sklearn库中的KMeans类来实现FCM算法。当我们调节这个叫做n_clusters的参数时,其实就是在决定我们要划分出多少个小组或者类别出来。就像是在分苹果,我们通过这个参数告诉程序:“嘿,我想要分成n_clusters堆儿”。这样一来,它就会按照我们的要求生成相应数量的簇了。init参数用于指定初始化质心的方式,max_iter和tol参数分别用于控制迭代次数和停止条件。 五、结论 FCM算法是一种简单而有效的聚类方法,它可以处理包含噪声和不完整数据的数据集。在Python的世界里,我们能够超级轻松地借助sklearn这个强大的库,玩转FCM算法,就像拼积木一样简单有趣。当然,实际应用中可能需要对参数进行调整以获得最佳效果。希望这篇文章能帮助你更好地理解和应用FCM算法。
2023-07-03 21:33:00
63
追梦人_t
Consul
... 分布式系统是由多台计算机组成的网络集群,这些计算机共同协作以实现一个共同的目标。在本文语境中,分布式系统是指由多个服务器承载的不同服务构成的应用环境,这些服务可能分布在不同的地理位置,通过网络进行通信与协同工作。Consul正是为了解决这类环境中服务管理和通信的问题而存在。 微服务 , 微服务架构是一种将单一应用程序划分为一组小的、互相独立的服务的设计模式。每个服务运行在其自己的进程中,服务之间采用轻量级的方式进行通信(例如HTTP/RESTful API),每个服务围绕着业务能力进行构建,并且能够独立部署和扩展。在文章中提到的Web应用和服务依赖关系即体现了微服务架构的特点,Consul则有助于管理这些微服务之间的相互发现和连接。
2023-05-01 13:56:51
489
夜色朦胧-t
Kafka
...制功能能够确保在不同地理位置的数据中心之间实现数据的可靠同步。 Replication(复制)机制 , 在Kafka中,Replication机制是指为了提高系统可用性和数据持久性而设计的一种数据冗余策略。每个Topic分区的数据会在多个服务器上创建副本,其中有一个Leader节点负责接收和处理生产者发送的消息,而其他Follower节点则从Leader那里复制这些消息。当Leader节点出现故障时,系统会自动从Follower中选举出新的Leader,保证服务不间断,同时确保所有数据中心之间的数据一致性。 Zookeeper , Zookeeper是一个分布式的,开放源码的分布式应用程序协调服务,它为大型分布式系统提供了配置维护、命名服务、分布式同步和组服务等关键功能。在Kafka的跨数据中心复制场景中,Zookeeper用于管理集群元数据,设置和维护复制组(Cluster),将参与跨数据中心同步的所有Kafka集群统一管理和协调,确保整个系统的稳定运行和正确配置。
2023-03-17 20:43:00
531
幽谷听泉-t
ZooKeeper
...。 心跳机制 , 在计算机网络通信中,心跳机制是一种常见的连接保持和健康检查手段。在本文语境下,ZooKeeper客户端通过定时向服务器发送心跳包(通常为一个简单的数据包)来确认连接的有效性。如果服务器在预定时间内未收到客户端的心跳消息,就会认为客户端已经断开连接,从而释放相关资源;同样,客户端若连续一段时间未收到服务器对心跳包的回应,也会判断连接已失效并尝试重新连接。 分布式系统 , 分布式系统是由多个独立的计算机通过网络进行通信和协作,共同完成一项任务或提供一种服务的计算系统。在这样的系统中,各个节点相对独立且地理位置可能分散,但它们通过一定的协议和算法相互协调以实现高可用性、可扩展性和容错性。文章中的ZooKeeper正是作为此类系统的协调工具,负责管理和维护分布式系统中的各种状态信息和服务协调工作。
2024-01-15 22:22:12
66
翡翠梦境-t
Kibana
...,它能够帮助我们更好地理解和分析数据。那么,你是否想过,Kibana在数据挖掘中有哪些具体的应用呢? 二、什么是Kibana? Kibana是一款开源的数据分析和可视化工具,它的主要功能是对存储在Elasticsearch中的数据进行搜索、查看和分析,并通过可视化的方式展示出来,便于我们更好地理解和掌握数据。 三、Kibana在数据挖掘中的应用 1. 数据分析和可视化 Kibana最强大的功能就是数据分析和可视化。用Kibana这个工具,咱们就能随心所欲地绘制各种图表,比如柱状图、折线图、饼图等等,这样一来,那些复杂到让人头大的数据就能瞬间变得一目了然,像看图画书一样简单明了。这样一来,咱们就能更直观、更接地气地摸清数据的走势和内在规律,进而更高效、更精准地挖出数据中的宝藏。 举例来说,假设我们想要对一个网站的日访问量数据进行分析。我们可以在Kibana中创建一个柱状图,然后将每日的访问量数据输入进去。这样,我们就能实实在在地瞅见每天访问量的起伏变化,一眼洞察到哪些天人气最旺、访问量蹭蹭往上涨,又有哪些天稍微冷清些、访问量有所下滑,还能摸清楚访问量整体走势的那些小秘密~ 2. 自定义查询和过滤器 Kibana还支持自定义查询和过滤器,让我们可以根据自己的需求对数据进行深入挖掘和分析。比如,如果我们好奇哪个城市在某个时间段里最受用户欢迎,访问量最大,我们只需要在Kibana这个工具里轻松设置个过滤器,就能立马得到想要的答案啦! 举例来说,假设我们有一份包含用户地理位置和访问时间的数据。在Kibana这个工具里头,我们可以捣鼓一下,先搞个过滤器,让它只显示某个时间段内的数据内容。接着再接再厉,设置第二个过滤器,这次是专门用来筛选出某个特定城市的详细信息。这样一来,数据就像被我们精准地“框选”出来了,既实用又直观。这样,我们就能掌握这个城市在那个时间段里被访问的情况,进而对这些数据进行更深层次的挖掘和分析。 3. 实时监控 Kibana还提供了一些其他的功能,例如实时监控、警报、报告等。这些功能可以帮助我们及时发现问题,提高工作效率。 举例来说,如果我们有一个在线商城,我们需要时刻关注商品销售情况。嘿,你知道吗?咱们可以在Kibana这个工具里整一个超酷的实时监控功能。这样一来,只要商品销售数量有丁点儿风吹草动,立马就能触发警报提醒我们,就像有个小雷达时刻帮咱盯着呢!这样,我们就可以及时调整销售策略,提高销售额。 四、结论 总的来说,Kibana是一款非常强大且实用的数据分析和可视化工具,它可以帮助我们在数据挖掘中节省大量时间和精力,提高工作效率。如果你还没有尝试过使用Kibana进行数据挖掘,我强烈建议你试一试。相信你一定会被它的强大功能所吸引!
2023-06-10 18:59:47
305
心灵驿站-t
ZooKeeper
... 分布式系统是由多台计算机通过网络进行通信和协作,共同完成一项任务或提供服务的计算系统。在这样的系统中,各个组成部分可能分布在不同的地理位置,并通过消息传递机制进行交互。本文讨论的场景就是在一个分布式系统中,利用ZooKeeper作为服务协调组件来解决服务注册、发现以及数据一致性等问题。
2023-07-29 12:32:47
65
寂静森林
转载文章
...术,通过在网络的多个地理位置部署缓存服务器,实现互联网内容的高效分发和加速访问。当用户请求网站资源时,智能DNS系统会根据用户的地理位置将请求指向最近的缓存服务器,从而减少延迟、提高数据传输速度,确保用户能够快速获取网站上的动静态内容,如网页、图片、视频等。在文章中,CDN被提及为解决由于网络带宽小、用户访问量大、网点分布不均等问题导致网站响应速度慢的关键技术手段。 智能DNS , 智能DNS(Smart DNS)是一种具有智能解析功能的域名系统服务,它可以根据预先设定的策略或实时网络状况,动态地将域名解析到不同的IP地址上。在CDN环境中,智能DNS扮演着重要角色,通过识别用户发起访问请求的具体地理位置和网络条件,将其引导至最优的缓存服务器节点,从而优化用户访问速度,改善跨区域、跨运营商访问性能,并有效缓解因互联网物理架构差异造成的南北互通问题。 缓存服务器 , 缓存服务器是CDN系统中的关键组成部分,主要负责存储源站内容的部分或全部副本。当用户请求网站资源时,缓存服务器首先检查本地是否已有该资源,若有则直接将内容返回给用户,这一过程称为命中缓存;若无,则缓存服务器会从邻近的其他缓存服务器或者直接从源站抓取所需内容,然后将内容返回给用户并保存在本地以备后续请求使用。这种机制大大减少了源站的负载压力,同时加快了用户访问速度,提升了用户体验。在云漫网络TTCDN的服务体系中,缓存服务器不仅提供加速服务,还集成了防御功能,能够在提供快速访问的同时保障网站的安全性。
2024-03-22 12:25:22
567
转载
ElasticSearch
...时分析、跨索引搜索和地理空间搜索等功能。 三、高级搜索功能 1. Fuzzy 搜索 Fuzzy搜索是一种模糊匹配算法,可以在输入关键字时容忍一些拼写错误。这使得我们可以更轻松地找到与我们的查询相匹配的结果。 在Elasticsearch中,我们可以使用fuzziness选项启用Fuzzy搜索。下面是一个使用Fuzzy搜索的例子: php-template GET /my_index/_search { "query": { "multi_match": { "query": "some text", "fields": ["text"], "fuzziness": "auto" } } } 在这个例子中,我们正在搜索名为“my_index”的索引中的所有包含“some text”的文档。"Fuzziness"这个参数你要是设成“auto”,那就相当于告诉Elasticsearch:伙计,你看着办吧,根据查询字符串的长短自己挑个最合适的模糊匹配程度哈! 2. 近义词搜索 近义词搜索是指在一个查询中替换一个单词为其同义词的能力。这对于处理同义词丰富且变化多端的数据集非常有用。 在Elasticsearch中,我们可以使用synonyms选项启用近义词搜索。下面是一个使用近义词搜索的例子: json PUT /my_index/_settings { "analysis": { "analyzer": { "my_analyzer": { "tokenizer": "standard", "filter": [ { "type": "synonym", "synonyms_path": "/path/to/synonyms.txt" } ] } } } } POST /my_index/_doc { "text": "This is an example sentence." } 在这个例子中,我们首先创建了一个名为“my_analyzer”的分析器,该分析器使用标准分词器和一个加载了同义词的过滤器。然后,我们使用这个分析器来索引一条包含“example”单词的文档。当你在搜索时用上了“sample”这个同义词,Elasticsearch会超级给力地找出和你最初输入的那个查询一模一样的结果来。就像是有个贴心的小助手,无论你怎么变着花样描述,它都能准确理解你的意思,并且给你找出完全匹配的答案。 3. 值匹配搜索 值匹配搜索是指在查询中指定要匹配的具体值的能力。这对于处理类型明确的数据非常有用,例如日期、数字或地理位置等。 在Elasticsearch中,我们可以使用value_match选项启用值匹配搜索。下面是一个使用值匹配搜索的例子: json GET /my_index/_search { "query": { "bool": { "must": [ { "range": { "date_field": { "gte": "now-3d" } } }, { "match": { "string_field": "some text" } } ] } } } 在这个例子中,我们正在搜索名为“my_index”的索引中所有满足两个条件的文档:文档的“date字段”必须大于等于当前日期减去3天,并且文档的“string字段”必须包含“some text”。 四、总结 Elasticsearch不仅提供了基本的搜索功能,而且还提供了许多高级搜索功能。通过利用这些功能,我们可以更高效地搜索和管理我们的数据。 在未来的文章中,我们将继续探索更多的Elasticsearch功能,并提供更多的代码示例。感谢您的阅读,如果您有任何疑问或反馈,请随时告诉我。
2023-02-26 23:53:35
527
岁月如歌-t
Apache Atlas
...规则以防止未经授权的地理位置访问敏感数据: java // 创建一个策略定义 PolicyDefinition policyDef = new PolicyDefinition(); policyDef.setName("LocationBasedAccessPolicy"); policyDef.setDescription("Restrict access to PII data based on location"); policyDef.setModule("org.apache.atlas.example.policies.LocationPolicy"); // 设置策略条件与动作 Map config = new HashMap<>(); config.put("restrictedLocations", Arrays.asList("CountryA", "CountryB")); policyDef.setConfiguration(config); // 创建并激活策略 AtlasPolicyStore.createPolicy(policyDef); AtlasPolicyStore.activatePolicy(policyDef.getName()); 这个策略会基于用户所在的地理位置限制对带有"PII"标签数据的访问,如果用户来自"CountryA"或"CountryB",则不允许访问此类数据,从而帮助企业在数据操作层面满足特定的地域合规要求。 2. 深入理解和探索 在实际运用中,Apache Atlas不仅提供了一套强大的API供开发者进行深度集成,还提供了丰富的可视化界面以直观展示数据的流动、关联及合规状态。这种能让数据“亮晶晶”、一目了然的数据治理体系,就像给我们的数据世界装上了一扇大窗户,让我们能够更直观、更全面地掌握数据的全貌。它能帮我们在第一时间发现那些潜藏的风险点,仿佛拥有了火眼金睛。这样一来,我们就能随时根据实际情况,灵活调整并不断优化咱们的数据隐私保护措施和合规性策略,让它们始终保持在最佳状态。 总结来说,Apache Atlas凭借其强大的元数据管理能力和灵活的策略执行机制,成为了企业在大数据环境下实施数据隐私和合规性策略的理想选择。虽然机器代码乍一看冷冰冰的,感觉不带一丝情感,但实际上它背后却藏着咱们对企业和组织数据安全、合规性的一份深深的关注和浓浓的人文关怀。在这个处处都靠数据说话的时代,咱们就手拉手,带上Apache Atlas这位好伙伴,一起为数据的价值和尊严保驾护航,朝着更合规、更安全的数据新天地大步迈进吧!
2023-11-04 16:16:43
453
诗和远方
Nginx
近期,随着云计算和边缘计算的快速发展,越来越多的企业开始关注如何更高效地利用分布式架构下的缓存策略。例如,在全球最大的电商平台亚马逊AWS上,许多开发者正在尝试将类似Nginx的缓存机制与Lambda函数结合,以实现更灵活的服务端渲染。这种做法不仅提升了用户体验,还大幅降低了带宽成本。 与此同时,国内也有不少公司在探索类似的解决方案。阿里巴巴旗下的云服务平台阿里云最近推出了一款名为“云缓存”的新产品,专门针对大规模分布式系统设计。这款产品借鉴了开源项目如Varnish和Nginx的经验,并在此基础上增加了智能化调度算法,使得缓存命中率提高了约30%。此外,华为云也在积极布局边缘计算领域,推出了基于Kubernetes的边缘节点服务,允许用户轻松部署和管理分布在不同地理位置的应用程序实例。 从技术角度来看,这类创新背后离不开近年来机器学习的进步。例如,通过引入深度强化学习模型,系统可以自动调整缓存策略,确保在高并发场景下依然保持稳定的响应时间。这不仅解决了传统缓存面临的冷启动问题,还有效缓解了热点资源争夺带来的性能瓶颈。 当然,这一切并非没有挑战。隐私保护法规日益严格,企业在采用新的缓存技术时必须确保符合GDPR等相关法律法规的要求。特别是在处理跨境数据传输时,如何平衡效率与合规成为了一个亟待解决的问题。 总之,无论是国际巨头还是本土企业,都在努力寻找适合自身业务发展的最佳实践。未来几年内,随着5G网络普及以及物联网设备数量激增,缓存技术将迎来更多发展机遇。而像Nginx这样的经典工具,无疑将继续扮演重要角色,在这场数字化转型浪潮中发挥不可替代的作用。
2025-04-18 16:26:46
97
春暖花开
Dubbo
...布式系统是由位于不同地理位置的计算机通过网络连接而成的系统,它们共享资源和处理任务。在构建分布式系统时,Dubbo作为一款轻量级、高性能的RPC框架,因其简洁的API、丰富的插件机制以及强大的性能表现而备受青睐。 名词 , RPC(Remote Procedure Call)。 解释 , RPC是一种远程过程调用技术,允许程序调用另一个地址空间中的过程或函数,就像调用本地过程一样。在分布式系统中,Dubbo作为RPC框架,提供了远程调用、服务注册与发现、负载均衡等功能,简化了服务间的交互。 名词 , 微服务架构。 解释 , 微服务架构是一种将大型应用拆分为一组小型、独立、可部署的服务的设计模式。每个服务负责完成特定的业务功能,通过API进行通信。这种架构允许团队以模块化的方式开发、部署和维护应用,提高系统的灵活性、可扩展性和可维护性。文章中提到,Dubbo在实现微服务间的高效通信和协同工作方面发挥关键作用。
2024-07-25 00:34:28
410
百转千回
Kubernetes
...常见的做法是使用边缘计算节点。简单来说,就是在靠近用户的地理位置部署一些轻量级的 Kubernetes 集群。这样一来,用户的请求就能直接在当地搞定,不用大老远跑到远程的数据中心去处理啦! 举个例子,假设你在美国东海岸和西海岸各有一个集群,你可以通过 Kubernetes 的 Ingress 控制器来实现就近访问: yaml apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: edge-ingress spec: rules: - host: us-east.example.com http: paths: - path: / pathType: Prefix backend: service: name: east-cluster-service port: number: 80 - host: us-west.example.com http: paths: - path: / pathType: Prefix backend: service: name: west-cluster-service port: number: 80 这样,用户访问 us-east.example.com 时,请求会被转发到东海岸的集群,而访问 us-west.example.com 时,则会转发到西海岸的集群。 --- 3.2 自动化运维工具的选择 最后,我们得谈谈运维自动化的问题。在多集群环境中,手动管理各个集群是非常痛苦的。所以,选择合适的自动化工具至关重要。 我个人比较推荐 KubeFed,这是一个由 Google 开发的多集群管理工具。它允许你在多个集群之间同步资源,比如 Deployment、Service 等。 举个例子,如果你想在所有集群中同步一个 Deployment,可以这样做: bash kubectl kubefedctl federate deployment my-deployment --clusters=cluster-a,cluster-b 是不是很酷?通过这种方式,你只需要维护一份配置文件,就能确保所有集群的状态一致。 --- 4. 我的思考与总结 兄弟们,写到这里,我觉得有必要停下来聊一聊我的感受。说实话,搞多集群的管理和优化这事吧,真挺费脑子的,特别是当你摊上一堆复杂得让人头大的业务场景时,那感觉就像是在迷宫里找出口,越走越晕。但只要你掌握了核心原理,并且善于利用现有的工具,其实也没那么可怕。 我觉得,Kubernetes 的多集群方案就像是一把双刃剑。它既给了我们无限的可能性,也带来了不少挑战。所以啊,在用它的过程中,咱们得脑袋清醒点,别迷迷糊糊的。别害怕去试试新鲜玩意儿,说不定就有惊喜呢!而且呀,心里得有根弦,感觉不对就赶紧调整策略,灵活一点总没错。 最后,我想说的是,技术的世界永远没有终点。就算咱们今天聊了个痛快,后面还有好多好玩的东西在等着咱们呢!所以,让我们一起继续学习吧!
2025-04-04 15:56:26
21
风轻云淡
转载文章
...其他应用 · 控制近距离通信 · com.tencent.photos.permission.DATA · com.tencent.msf.permission.account.sync · com.tencent.music.data.permission · com.tencent.msf.permission.ACCOUNT_NOTICE · 连接WLAN网络和断开连接 · 完全的网络访问权限 · 查看WLAN连接 · 查看网络连接 · 精确位置(基于GPS和网络) · 大致位置(基于网络) · 拍摄照片和视频 · 读取手机状态和身份 · 防止手机休眠 · com.android.launcher.permission.INSTALL_SHORTCUT · 修改或删除您的USB存储设备中的内容 · 开机启动 · com.tencent.msg.permission.pushnotify · com.tencent.msf.permission.account.sync · 读取您的USB存储设备中的内容 本篇文章为转载内容。原文链接:https://blog.csdn.net/weixin_30590615/article/details/117615194。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-10-10 14:42:10
104
转载
DorisDB
...数据保护的新舞台 云计算的普及使得云存储成为众多企业首选的数据存储解决方案。相较于传统的本地存储,云存储提供了更高的数据可访问性、更强的容灾能力和更低的成本。尤其在数据备份方面,云存储平台如Amazon S3、Google Cloud Storage和Microsoft Azure Blob Storage等,凭借其全球分布的基础设施、自动化的数据复制和加密功能,为数据备份提供了强有力的支持。 DorisDB与云存储的融合 DorisDB作为一款高性能的分布式列式存储系统,其在数据处理和查询效率方面的优势,使得在云存储环境下的数据备份和恢复变得更加高效。通过将DorisDB与云存储服务集成,企业不仅可以利用云存储的海量存储空间,还能享受到快速的数据备份和恢复能力。例如,使用AWS Lambda函数触发DorisDB备份任务,或通过CloudWatch事件监控DorisDB状态,实现自动化备份流程,大大降低了人工干预的需求,提高了数据保护的效率和可靠性。 实践案例与挑战 某金融机构通过整合DorisDB与AWS S3,构建了一套高效的数据备份体系。该体系不仅实现了数据的实时同步备份,还通过S3的跨区域复制功能,确保了数据在不同地理位置间的高可用性。同时,借助AWS Glue和Lambda的自动化脚本,实现了备份任务的周期性执行和异常检测,极大地提升了数据保护的水平。然而,这一过程中也面临了诸如成本控制、数据合规性、以及云服务的可靠性的挑战。因此,企业在实施云存储与DorisDB集成时,需综合考虑这些因素,制定相应的策略和预案。 总结与展望 数据备份与安全是现代企业不可忽视的重要议题。结合DorisDB的高效备份策略与云存储的灵活性,企业能够构建起更为强大、可靠的数据保护体系。未来,随着云计算技术的不断演进,以及数据安全标准的日益严格,如何在保障数据安全的同时,优化成本结构、提升数据治理能力,将是企业面临的又一重大课题。通过持续的技术创新和实践探索,我们有望实现数据价值的最大化,推动企业数字化转型的稳健前行。
2024-07-28 16:23:58
431
山涧溪流
Kafka
...容易。此外,随着边缘计算和物联网设备的普及,Kafka正逐步向边缘节点扩展,以更高效地处理分布在不同地理位置的数据流。 结论 综上所述,Kafka在现代大数据处理领域扮演着不可或缺的角色,其应用范围和深度正在随着技术进步和市场需求的发展而不断拓展。然而,随着数据量的持续增长和处理需求的多样化,如何在保持性能、可靠性和安全性的同时,进一步优化Kafka的使用体验,将是未来研究和实践的重点方向。面对挑战,持续的技术创新和实践探索将成为推动Kafka乃至整个数据处理生态发展的关键力量。
2024-08-28 16:00:42
107
春暖花开
Apache Solr
...近期,全球范围内对云计算和边缘计算的探索与应用,为这一问题提供了新的视角和解决方案。 云计算,尤其是公有云平台,为开发者提供了弹性、可扩展的基础设施,能够动态调整资源以匹配需求的变化。例如,AWS、Azure和Google Cloud等平台,通过其强大的API接口,允许开发者轻松地集成外部服务,如数据存储、计算能力、机器学习模型等。这些服务的即时可用性和全球分布特性,使得应用能够在面临网络延迟或服务中断时,快速转向其他可用资源,从而显著提升了应用的韧性和用户体验。 边缘计算则是云计算的延伸,它将计算和数据存储能力推向离用户更近的位置,例如智能设备、物联网节点或数据中心的边缘位置。这种部署方式减少了数据在中心云之间传输的距离,降低了延迟,同时提高了数据处理速度和实时性。边缘计算特别适用于需要低延迟响应的应用场景,如实时视频流处理、自动驾驶系统等,通过本地化计算和决策,显著提高了系统的整体性能和可靠性。 结合Apache Solr的应用场景,边缘计算和云计算的融合为优化网络连接、提高搜索性能提供了新路径。例如,通过在边缘节点部署轻量级Solr实例,结合云端提供的外部服务,可以实现数据的就近处理和快速响应,同时利用云端的弹性扩展能力应对突发流量或服务需求。此外,边缘计算还能作为数据预处理的节点,减少向云中心传输的数据量,进一步优化网络带宽使用和加速查询响应时间。 总之,云计算和边缘计算的结合,为构建更加稳定、高效且具有弹性的依赖外部服务的系统提供了丰富的技术和实践路径。它们不仅能够改善网络连接问题,还能够促进数据分析、机器学习等高级功能的部署,为用户提供更高质量的服务体验。随着技术的不断进步,未来在优化Apache Solr等搜索引擎性能方面,我们可以期待更多创新的解决方案和实践。
2024-09-21 16:30:17
39
风轻云淡
站内搜索
用于搜索本网站内部文章,支持栏目切换。
知识学习
实践的时候请根据实际情况谨慎操作。
随机学习一条linux命令:
env | sort
- 列出并排序所有环境变量及其值。
推荐内容
推荐本栏目内的其它文章,看看还有哪些文章让你感兴趣。
2023-04-28
2023-08-09
2023-06-18
2023-04-14
2023-02-18
2023-04-17
2024-01-11
2023-10-03
2023-09-09
2023-06-13
2023-08-07
2023-03-11
历史内容
快速导航到对应月份的历史文章列表。
随便看看
拉到页底了吧,随便看看还有哪些文章你可能感兴趣。
时光飞逝
"流光容易把人抛,红了樱桃,绿了芭蕉。"