前端技术
HTML
CSS
Javascript
前端框架和UI库
VUE
ReactJS
AngularJS
JQuery
NodeJS
JSON
Element-UI
Bootstrap
Material UI
服务端和客户端
Java
Python
PHP
Golang
Scala
Kotlin
Groovy
Ruby
Lua
.net
c#
c++
后端WEB和工程框架
SpringBoot
SpringCloud
Struts2
MyBatis
Hibernate
Tornado
Beego
Go-Spring
Go Gin
Go Iris
Dubbo
HessianRPC
Maven
Gradle
数据库
MySQL
Oracle
Mongo
中间件与web容器
Redis
MemCache
Etcd
Cassandra
Kafka
RabbitMQ
RocketMQ
ActiveMQ
Nacos
Consul
Tomcat
Nginx
Netty
大数据技术
Hive
Impala
ClickHouse
DorisDB
Greenplum
PostgreSQL
HBase
Kylin
Hadoop
Apache Pig
ZooKeeper
SeaTunnel
Sqoop
Datax
Flink
Spark
Mahout
数据搜索与日志
ElasticSearch
Apache Lucene
Apache Solr
Kibana
Logstash
数据可视化与OLAP
Apache Atlas
Superset
Saiku
Tesseract
系统与容器
Linux
Shell
Docker
Kubernetes
[删除Windows 7任务栏无意义图标的...]的搜索结果
这里是文章列表。热门标签的颜色随机变换,标签颜色没有特殊含义。
点击某个标签可搜索标签相关的文章。
点击某个标签可搜索标签相关的文章。
转载文章
...将第一时间进行核实并删除相应内容。 内存管理可以分为三个层次,自底向上分别是: 操作系统内核的内存管理 用户空间lib库的内存管理算法 应用程序从lib库申请内存后,根据应用程序本身的程序特性进行优化, 比如使用引用计数std::shared_ptr,内存池方式等等。 1. 用户空间内存管理 目前大部分用户控件程序使用glibc提供的malloc/free系列函数,而glibc使用的ptmalloc2在性能上远远弱后于google的tcmalloc和facebook的jemalloc。 而且后两者只需要使用LD_PRELOAD环境变量启动程序即可,甚至并不需要重新编译。 1.1 ptmalloc2 malloc是一个C库中的函数,malloc向glibc请求内存空间。glibc初始分配或者通过brk和sbrk或者mmap向内核批发内存,然后“卖”给我们malloc使用。 既然brk、mmap提供了内存分配的功能,直接使用brk、mmap进行内存管理不是更简单吗,为什么需要glibc呢? 因为系统调用,导致程序从用户态陷入内核态,比较消耗资源。为了减少系统调用带来的性能损耗,glibc采用了内存池的设计,增加了一个代理层,每次内存分配,都优先从内存池中寻找,如果内存池中无法提供,再向操作系统申请。 1.2 tcmalloc tcmalloc 是google开发的内存分配算法库,用来替代传统的malloc内存分配函数,它有减少内存碎片,适用于多核,更好的并行性支持等特性。 要使用tcmalloc,只要将tcmalloc通过-ltcmalloc连接到应用程序即可。 也可以使用LD_PRELOAD在不是你自己编译的应用程序中使用:$ LD_PRELOAD="/usr/lib/libtcmalloc.so" 2. 内核空间内存管理 linux操作系统内核,将内存分为一个个页去管理。 2.1 页面管理算法–伙伴系统 在实际应用中,而频繁地申请和释放不同大小的连续页框,必然导致在已分配页框的内存块中分散了许多小块的空闲页框。这样,即使这些页框是空闲的,其他需要分配连续页框的应用也很难得到满足。 为了避免出现这种内存碎片,Linux内核中引入了伙伴系统算法(buddy system)。 2.1.1 Buddy(伙伴的定义) 满足以下三个条件的称为伙伴: 1)两个块大小相同; 2)两个块地址连续; 3)两个块必须是同一个大块中分离出来的; 2.1.2 Buddy算法的分配 假设要申请一个256个页框的块,先从256个页框的链表中查找空闲块,如果没有,就去512个页框的链表中找,找到了则将页框块分为2个256个页框的块,一个分配给应用,另外一个移到256个页框的链表中。如果512个页框的链表中仍没有空闲块,继续向1024个页框的链表查找,如果仍然没有,则返回错误。 2.1.3 Buddy算法的释放 内存的释放是分配的逆过程,也可以看作是伙伴的合并过程。页框块在释放时,会主动将两个连续的页框块合并为一个较大的页框块。 2.2 Slab机制 slab是Linux操作系统的一种内存分配机制。其工作是针对一些经常分配并释放的对象,如进程描述符等,这些对象的大小一般比较小,如果直接采用伙伴系统来进行分配和释放,不仅会造成大量的内碎片,而且处理速度也太慢。 而slab分配器是基于对象进行管理的,相同类型的对象归为一类(如进程描述符就是一类),每当要申请这样一个对象,slab分配器就从一个slab列表中分配一个这样大小的单元出去,而当要释放时,将其重新保存在该列表中,而不是直接返回给伙伴系统,从而避免这些内碎片。slab分配器并不丢弃已分配的对象,而是释放并把它们保存在内存中。当以后又要请求新的对象时,就可以从内存直接获取而不用重复初始化。 2.3 内核中申请内存的函数 2.3.1 __get_free_pages __get_free_pages函数是最原始的内存分配方式,直接从伙伴系统中获取原始页框,返回值为第一个页框的起始地址. 2.3.2 kmem_cache_alloc kmem_cache_create/ kmem_cache_alloc是基于slab分配器的一种内存分配方式,适用于反复分配释放同一大小内存块的场合。首先用kmem_cache_create创建一个高速缓存区域,然后用kmem_cache_alloc从 该高速缓存区域中获取新的内存块。 2.3.3 kmalloc kmalloc是内核中最常用的一种内存分配方式,它通过调用kmem_cache_alloc函数来实现。 kmalloc() 申请的内存位于物理内存映射区域,而且在物理上也是连续的,它们与真实的物理地址只有一个固定的偏移,因为存在较简单的转换关系,所以对申请的内存大小有限制,不能超过128KB。 较常用的flags()有: GFP_ATOMIC —— 不能睡眠; GFP_KERNEL —— 可以睡眠; GFP_DMA —— 给 DMA 控制器分配内存,需要使用该标志。 2.3.4 vmalloc vmalloc() 函数则会在虚拟内存空间给出一块连续的内存区,但这片连续的虚拟内存在物理内存中并不一定连续。由于 vmalloc() 没有保证申请到的是连续的物理内存,因此对申请的内存大小没有限制,如果需要申请较大的内存空间就需要用此函数了。 注意vmalloc和vfree时可以睡眠的,因此不能从中断上下问调用。 一般情况下,内存只有在要被 DMA 访问的时候才需要物理上连续,但为了性能上的考虑,内核中一般使用 kmalloc(),而只有在需要获得大块内存时才使用 vmalloc()。例如,当模块被动态加载到内核当中时,就把模块装载到由 vmalloc() 分配的内存上。 本篇文章为转载内容。原文链接:https://secdev.blog.csdn.net/article/details/109731954。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-02-26 20:46:17
232
转载
Apache Solr
...段包括合并索引片段、删除不必要的索引项和提高索引压缩率等。通过索引优化,可以减少查询时的数据读取量,加快查询速度,尤其适用于数据量较大的应用场景。 缓存设置 , 缓存设置是指在Solr中配置各种缓存机制,以减少重复查询带来的计算负担。Solr提供了多种缓存类型,如Query Result Cache用于缓存查询结果,Document Cache用于缓存文档对象。通过合理设置缓存大小和预热策略,可以显著提高查询响应速度,特别是在高频查询场景下效果明显。
2025-02-08 16:04:27
37
蝶舞花间
JQuery
...得非常好,里面不仅有详细的API说明,还有很多生动的例子。每次遇到问题的时候,我都习惯先去看看文档,很多时候都能找到答案。 最后,希望大家都能从这篇文章中学到一些有用的东西。记住,编程不是一蹴而就的事情,它需要不断的尝试和总结。如果你还有其他关于jQuery的问题,欢迎随时交流哦!加油!💪 --- 好了,这就是我关于“jQuery数组怎样循环赋值”的全部内容啦。希望你能喜欢这篇文章,并且从中受益匪浅!如果觉得有用的话,不妨点赞支持一下吧~😊
2025-05-08 16:16:22
64
蝶舞花间
转载文章
...将第一时间进行核实并删除相应内容。 根据jeff377 的话,竹子将这验证码改进了一下,请大家讨论看看。 -------jeff377-------------------------------------------- 我研究所的论文就是在做类神经网络处理文字辨识,以你的例子而言,旋转随意角度对辨识来说并不会有太大影响,只要抓字的重心,360度旋转抓取特微值,还是可以辨识的出来。 通常文字辨识的有一个重要的动作,就是要把个别文字分割,你只要把文字弄的难分割就有不错的安全性。 --------------------------------------------------- 代码比较粗糙,而且比较菜,其中遇到一个问题,未对 Graphics 填充底色,那么文字的 ClearType 效果没有了,文字毛边比较明显,不知道为什么,谁能告诉竹子? 代码相对粗糙,没有考虑更多的情况,在测试过程中,以20px 字体呈现,效果感觉还不错,只是 ClearType 效果没有了。 帖几张看看 ------------ ------------ ------------ ------------ 有一些随机的不好,象下面这张 相关链接: 查看 V1.0 .NET 2.0 代码如下: using System; using System.Drawing; using System.Web; namespace Oran.Image { /// <summary> /// 旋转的可视验证码图象 /// </summary> public class RotatedVlidationCode { public enum RandomStringMode { /// <summary> /// 小写字母 /// </summary> LowerLetter, /// <summary> /// 大写字母 /// </summary> UpperLetter, /// <summary> /// 混合大小写字母 /// </summary> Letter, /// <summary> /// 数字 /// </summary> Digital, /// <summary> /// 混合数字与大小字母 /// </summary> Mix } public static string GenerateRandomString(int length, RandomStringMode mode) { string rndStr = string.Empty; if (length == 0) return rndStr; //以数组方式候选字符,可以更方便的剔除不要的字符,如数字 0 与字母 o char[] digitals = new char[10] { '0', '1', '2', '3', '4', '5', '6', '7', '8', '9' }; char[] lowerLetters = new char[26] { 'a', 'b', 'c', 'd', 'e', 'f', 'g', 'h', 'i', 'j', 'k', 'l', 'm', 'n', 'o', 'p', 'q', 'r', 's', 't', 'u', 'v', 'w', 'x', 'y', 'z' }; char[] upperLetters = new char[26] { 'A', 'B', 'C', 'D', 'E', 'F', 'G', 'H', 'I', 'J', 'K', 'L', 'M', 'N', 'O', 'P', 'Q', 'R', 'S', 'T', 'U', 'V', 'W', 'X', 'Y', 'Z' }; char[] letters = new char[52]{ 'a', 'b', 'c', 'd', 'e', 'f', 'g', 'h', 'i', 'j', 'k', 'l', 'm', 'n', 'o', 'p', 'q', 'r', 's', 't', 'u', 'v', 'w', 'x', 'y', 'z', 'A', 'B', 'C', 'D', 'E', 'F', 'G', 'H', 'I', 'J', 'K', 'L', 'M', 'N', 'O', 'P', 'Q', 'R', 'S', 'T', 'U', 'V', 'W', 'X', 'Y', 'Z' }; char[] mix = new char[62]{ '0', '1', '2', '3', '4', '5', '6', '7', '8', '9', 'a', 'b', 'c', 'd', 'e', 'f', 'g', 'h', 'i', 'j', 'k', 'l', 'm', 'n', 'o', 'p', 'q', 'r', 's', 't', 'u', 'v', 'w', 'x', 'y', 'z', 'A', 'B', 'C', 'D', 'E', 'F', 'G', 'H', 'I', 'J', 'K', 'L', 'M', 'N', 'O', 'P', 'Q', 'R', 'S', 'T', 'U', 'V', 'W', 'X', 'Y', 'Z' }; int[] range = new int[2] { 0, 0 }; Random random = new Random(); switch (mode) { case RandomStringMode.Digital: for (int i = 0; i < length; ++i) rndStr += digitals[random.Next(0, digitals.Length)]; break; case RandomStringMode.LowerLetter: for (int i = 0; i < length; ++i) rndStr += lowerLetters[random.Next(0, lowerLetters.Length)]; break; case RandomStringMode.UpperLetter: for (int i = 0; i < length; ++i) rndStr += upperLetters[random.Next(0, upperLetters.Length)]; break; case RandomStringMode.Letter: for (int i = 0; i < length; ++i) rndStr += letters[random.Next(0, letters.Length)]; break; default: for (int i = 0; i < length; ++i) rndStr += mix[random.Next(0, mix.Length)]; break; } return rndStr; } /// <summary> /// 显示验证码 /// </summary> /// <param name="seed">随机数辅助种子</param> /// <param name="strLen">验证码字符长度</param> /// <param name="fontSize">字体大小</param> /// <param name="mode">随机字符模式</param> /// <param name="clrFont">字体颜色</param> /// <param name="clrBg">背景颜色</param> public static void ShowValidationCode(ref int seed, int strLen, int fontSize, RandomStringMode mode, Color clrFont, Color clrBg) { int tmpSeed; unchecked { tmpSeed = (int)(seed DateTime.Now.Ticks); ++seed; } Random rnd = new Random(tmpSeed); string text = GenerateRandomString(strLen, mode); int height = fontSize 2; // 因为字体旋转后每个字体所占宽度会所有加大,所以要加一点补偿宽度 int width = fontSize text.Length + fontSize / (text.Length - 2); Bitmap bmp = new Bitmap(width, height); Graphics graphics = Graphics.FromImage(bmp); Font font = new Font("Courier New", fontSize, FontStyle.Bold); Brush brush = new SolidBrush(clrFont); Brush brushBg = new SolidBrush(clrBg); graphics.FillRectangle(brushBg, 0, 0, width, height); Bitmap tmpBmp = new Bitmap(height, height); Graphics tmpGph = null; int degree = 40; Point tmpPoint = new Point(); for (int i = 0; i < text.Length; i++) { tmpBmp = new Bitmap(height, height); tmpGph = Graphics.FromImage(tmpBmp); // tmpGph.TextRenderingHint = System.Drawing.Text.TextRenderingHint.SingleBitPerPixelGridFit; // 不填充底色,文字 ClearType 效果不见了,why?! // tmpGph.FillRectangle(brushBg, 0, 0, tmpBmp.Width, tmpBmp.Height); degree = rnd.Next(20, 51); // [20, 50]随机角度 if (rnd.Next(0, 2) == 0) { tmpPoint.X = 12; // 调整文本坐标以适应旋转后的图象 tmpPoint.Y = -6; } else { degree = ~degree + 1; // 逆时针旋转 tmpPoint.X = -10; tmpPoint.Y = 6; } tmpGph.RotateTransform(degree); tmpGph.DrawString(text[i].ToString(), font, brush, tmpPoint); graphics.DrawImage(tmpBmp, i fontSize, 0); // 拼接图象 } //输出图象 System.IO.MemoryStream memoryStream = new System.IO.MemoryStream(); bmp.Save(memoryStream, System.Drawing.Imaging.ImageFormat.Gif); HttpContext.Current.Response.Cache.SetCacheability(HttpCacheability.NoCache); HttpContext.Current.Response.ClearContent(); HttpContext.Current.Response.ContentType = "image/gif"; HttpContext.Current.Response.BinaryWrite(memoryStream.ToArray()); HttpContext.Current.Response.End(); //释放资源 font.Dispose(); brush.Dispose(); brushBg.Dispose(); tmpGph.Dispose(); tmpBmp.Dispose(); graphics.Dispose(); bmp.Dispose(); memoryStream.Dispose(); } } } 转载于:https://www.cnblogs.com/iRed/archive/2008/06/22/1227687.html 本篇文章为转载内容。原文链接:https://blog.csdn.net/weixin_30600197/article/details/96672619。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-05-27 09:38:56
250
转载
Spark
...地应对海量数据的处理任务,速度快到飞起,绝对是我们处理大数据问题时的得力助手。然而,在处理大量小文件时,Spark的性能可能会受到影响。那么,如何通过一些技巧来优化Spark在读取大量小文件时的性能呢? 二、为什么要关注小文件处理? 在实际应用中,我们往往会遇到大量的小文件。例如,电商网站上的商品详情页、新闻站点的每篇文章等都是小文件。这些小文件要是拿Spark直接处理的话,可能不大给力,性能上可能会有点缩水。 首先,小文件的数量非常多。由于磁盘I/O这小子的局限性,咱们现在只能像小蚂蚁啃骨头那样,每次读取一点点的小文件,意思就是说,想要完成整个大任务,就得来回折腾、反复读取多次才行。这无疑会增加处理的时间和开销。 其次,小文件的大小较小,因此在传输过程中也会消耗更多的网络带宽。这不仅增加了数据传输的时间,还可能会影响到整体的系统性能。 三、优化小文件处理的方法 针对上述问题,我们可以采用以下几种方法来优化Spark在读取大量小文件时的性能。 1. 使用Dataframe API Dataframe API是Spark 2.x版本新增的一个重要特性,它可以让我们更方便地处理结构化数据。相比于RDD,Dataframe API可真是个贴心小能手,它提供的接口不仅瞅着更直观,操作起来更是高效溜溜的。这样一来,咱们就能把那些不必要的中间转换和操作通通“踢飞”,让数据处理变得轻松又愉快!另外,Dataframe API还超级给力地支持一些更高级的操作,比如聚合、分组什么的,这对于处理那些小文件可真是帮了大忙了! 下面是一个简单的例子,展示如何使用Dataframe API来读取小文件: java val df = spark.read.format("csv") .option("header", "true") .option("inferSchema", "true") .load("/path/to/files/") 在这个例子中,我们使用read函数从指定目录下读取CSV文件,并将其转化为DataFrame。然后,我们可以通过各种函数对DataFrame进行操作,如show、filter、groupBy等。 2. 使用Spark SQL Spark SQL是一种高级抽象,用于查询关系表。就像Dataframe API那样,Spark SQL也给我们带来了一种超级实用又高效的处理小文件的方法,一点儿也不复杂,特别接地气儿。Spark SQL还自带了一堆超级实用的内置函数,比如COUNT、SUM、AVG这些小帮手,用它们来处理小文件,那速度可真是嗖嗖的,轻松又高效。 下面是一个简单的例子,展示如何使用Spark SQL来读取小文件: scss val df = spark.sql("SELECT FROM /path/to/files/") 在这个例子中,我们使用sql函数来执行SQL语句,从而从指定目录下读取CSV文件并转化为DataFrame。 3. 使用Partitioner Partitioner是Spark的一种内置机制,用于将数据分割成多个块。当我们处理大量小文件时,可以使用Partitioner来提高处理效率。其实呢,我们可以这样来操作:比如说,按照文件的名字呀,或者文件里边的内容这些规则,把那些小文件分门别类地整理一下。就像是给不同的玩具放在不同的抽屉里一样,每个类别都单独放到一个文件夹里面去存储,这样一来就清清楚楚、井井有条啦!这样一来,每次我们要读取文件的时候,就只需要瞄一眼一个文件夹里的内容,压根不需要把整个目录下的所有文件都翻个底朝天。 下面是一个简单的例子,展示如何使用Partitioner来处理小文件: python val partitioner = new HashPartitioner(5) val rdd = sc.textFile("/path/to/files/") .map(line => (line.split(",").head, line)) .partitionBy(partitioner) val output = rdd.saveAsTextFile("/path/to/output/") 在这个例子中,我们首先使用textFile函数从指定目录下读取文本文件,并将其转化为RDD。接着,我们运用一个叫做map的神奇小工具,就像魔法师挥动魔杖那样,把每一行文本巧妙地一分为二,一部分是文件名,另一部分则是内容。然后,我们采用了一个叫做partitionBy的神奇函数,就像把RDD里的数据放进不同的小篮子里那样,按照文件名给它们分门别类。这样一来,每个“篮子”里都恰好装了5个小文件,整整齐齐,清清楚楚。最后,我们使用saveAsTextFile函数将RDD保存为文本文件。因为我们已经按照文件名把文件分门别类地放进不同的“小桶”里了,所以现在每次找文件读取的时候,就不用像无头苍蝇一样满目录地乱窜,只需要轻轻松松打开一个文件夹,就能找到我们需要的文件啦! 四、结论 通过以上三种方法,我们可以有效地优化Spark在读取大量小文件时的性能。Dataframe API和Spark SQL提供了简单且高效的API,可以快速处理结构化数据。Partitioner这个小家伙,就像个超级有条理的文件整理员,它能够按照特定的规则,麻利地把那些小文件分门别类放好。这样一来,当你需要读取文件的时候,就仿佛拥有了超能力一般,嗖嗖地提升读取速度,让效率飞起来!当然啦,这只是入门级别的小窍门,真正要让方案火力全开,还得瞅准实际情况灵活变通,不断打磨和优化才行。
2023-09-19 23:31:34
45
清风徐来-t
转载文章
...将第一时间进行核实并删除相应内容。 闭包 定义双层嵌套函数,内层函数可以访问外层函数的变量 将内层函数作为外层函数的返回,此层函数就是闭包函数 在函数嵌套的前提下,内部函数使用了外部函数的变量,并且外部函数返回了内部函数,我们把这个使用外部函数变量的内部函数称为闭包 def outer(logo):def inner(msg):print(f"{logo}:{msg}")return innerfun = outer("java")fun("hello world") 闭包修改外部函数的值 需要用 nonlocal 声明这个外部变量 def outer(num1):def inner(num2):nonlocal num1num1 += num2print(num1)return innerfun = outer(10)fun(10) 输出20 优点: 无需定义全局变量即可实现通过函数,持续的访问、修改某个值 闭包使用的变量的所用于在函数内,难以被错误的调用修改 缺点: 由于内部函数持续引用外部函数的值,所以会导致这一部分内存空间不被释放,一直占用内存 装饰器 装饰器其实也是一种闭包,其功能就是在不破坏目标函数原有的代码和功能的前提下,为目标函数增加新功能 def outer(func):def inner():print("我要睡觉了")func()print("我起床了")return inner@outerdef sleep():print("睡眠中")sleep() 单例模式 单例def strTool():passsignle = strTool()==from 单例 import signlet1 = signlet2 = signleprint(id(t1))print(id(t2)) 工厂模式 将对象的创建由使用原生类本身创建转换到由特定的工厂方法来创建 好处: 大批量创建对象的时候有统一的入口,易于代码维护 当发生修改,仅修改工厂类的创建方法即可 class Person:passclass Worker(Person):passclass Student(Person):passclass Teacher(Person):passclass PersonFactory:def get_person(self,p_type):if p_type == 'w':return Worker()elif p_type == 's':return Student()else:return Teacher()pf = PersonFactory()worker = pf.get_person('w')student = pf.get_person('s')teacher = pf.get_person('t') 多线程 threading模块使用 import threadingimport timedef sing(msg):print(msg)time.sleep(1)def dance(msg):print(msg)time.sleep(1)if __name__ == '__main__':sing_thread = threading.Thread(target=sing,args=("唱歌。。。",))dance_thread = threading.Thread(target=dance,kwargs={"msg":"跳舞。。。"})sing_thread.start()dance_thread.start() Socket Socket(套接字)是进程间通信工具 服务端 创建Socket对象import socketsocket_server = socket.socket() 绑定IP地址和端口socket_server.bind(("localhost", 8888)) 监听端口socket_server.listen(1) 等待客户端链接conn, address =socket_server.accept()print(f"接收到客户端的信息{address}")while True:data: str = conn.recv(1024).decode("UTF-8")print(f"客户端消息{data}") 发送回复消息msg = input("输入回复消息:")if msg == 'exit':breakconn.send(msg.encode("UTF-8")) 关闭连接conn.close()socket_server.close() 客户端、 import socket 创建socket对象socket_client = socket.socket() 连接到服务器socket_client.connect(("localhost", 8888))while True:msg = input("输入发送消息:")if(msg == 'exit'):break 发送消息socket_client.send(msg.encode("UTF-8"))接收返回消息recv_data = socket_client.recv(1024)print(f"服务端回复消息:{recv_data.decode('UTF-8')}") 关闭链接socket_client.close() 正则表达式使用 import res = "pythonxxxxxxpython"result = re.match("python",s) 从左到右匹配print(result) <re.Match object; span=(0, 6), match='python'>print(result.span()) (0, 6)print(result.group()) pythonresult = re.search("python",s) 匹配到第一个print(result) <re.Match object; span=(0, 6), match='python'>result = re.findall("python",s) 匹配全部print(result) ['python', 'python'] 单字符匹配 数量匹配 边界匹配 分组匹配 pattern = "1[35678]\d{9}"phoneStr = "15288888888"result = re.match(pattern, phoneStr)print(result) <re.Match object; span=(0, 11), match='15288888888'> 递归 递归显示目录中文件 import osdef get_files_recursion_dir(path):file_list = []if os.path.exists(path):for f in os.listdir(path):new_path = path + "/" + fif os.path.isdir(new_path):file_list += get_files_recursion_dir(new_path)else:file_list.append(new_path)else:print(f"指定的目录{path},不存在")return []return file_listif __name__ == '__main__':print(get_files_recursion_dir("D:\test")) 本篇文章为转载内容。原文链接:https://blog.csdn.net/qq_29385297/article/details/128085103。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-05-28 18:35:16
91
转载
Ruby
...个小零件专门负责一项任务,而且还能拿出来反复用。就像搭积木一样,一块块拼起来,既方便又高效! 为什么模块化这么重要呢?想象一下,如果你正在开发一个大型的电商网站,功能包括用户管理、订单处理、支付系统等。如果所有代码都堆在一个文件里,不仅难以维护,还容易出错。模块化嘛,就好比把一大块蛋糕切成好多小块,每一块都能单独派上用场。这样一来,不仅好收拾、好分配,要是还想加点什么进去,也超级方便! 在Ruby中,模块化是一个核心概念。Ruby提供了Module类来帮助我们实现模块化设计。用模块化的方式来写代码,就像给一堆零件分类整理好一样,不仅能让整个程序看起来条理分明,还方便以后直接拿出来用,省时又省力! 示例代码: ruby module PaymentProcessor def process_payment(amount) puts "Processing payment of ${amount}" end end class Order include PaymentProcessor def initialize(total_amount) @total_amount = total_amount end def checkout process_payment(@total_amount) end end order = Order.new(100) order.checkout 在这个例子中,我们创建了一个名为PaymentProcessor的模块,其中包含一个process_payment方法。然后我们将这个模块包含到Order类中,使得Order类可以调用process_payment方法。这种模块化的设计让我们的代码更加简洁和易于理解。 2. 封装的概念及其在Ruby中的应用 接下来,我们谈谈封装。封装嘛,在面向对象编程里算个挺关键的概念。简单说就是把对象的“私密信息”藏起来,不让外面随便乱动,但可以通过专门设计的一些方法去操作它。就像给你的宝贝东西加了个小锁,别人不能直接打开看或者乱翻,不过你可以用钥匙去管理它。 为什么要进行封装呢?因为封装可以帮助我们保护数据不被外部随意修改,从而减少错误的发生。比如,在我们电商网站上,要是把用户的信用卡信息直接亮出来,那这些重要信息分分钟可能就被拿去乱用啦!通过封装,我们可以确保这些信息只能在安全的环境中被处理。 在Ruby中,我们可以通过定义私有方法和属性来实现封装。让我们来看一个具体的例子。 示例代码: ruby class User attr_reader :name def initialize(name, password) @name = name @password = password end private def password @password end def change_password(new_password) @password = new_password end end user = User.new("Alice", "secret123") puts user.name user.password 这行代码会报错,因为password是私有的 user.change_password("new_secret") 在这个例子中,我们定义了一个User类,其中包含了name和password两个属性。通过attr_reader,我们可以公开访问name属性,但是password属性是私有的,外部无法直接访问。我们需要通过change_password这样的方法来更改密码,这种方式更安全。 3. 模块化设计的实际应用案例 现在,让我们来看看模块化设计在实际项目中的应用。好啦,咱们就拿做个博客系统来说吧!想想看,这个博客要是弄好了,得能让好多人一起用,每个人都能注册账号、登进来写东西。写完的文章呢,其他小伙伴能看到,还能在底下留言评论啥的,就跟咱们平时在社交平台上互动一样热闹!我们可以将这些功能分别放在不同的模块中,以便于管理和维护。 首先,我们可以创建一个Authentication模块来处理用户的登录和登出操作。 示例代码: ruby module Authentication def login(username, password) 登录逻辑 end def logout 登出逻辑 end end class User include Authentication def initialize(username, password) @username = username @password = password end def authenticate(password) password == @password end end user = User.new("admin", "admin123") user.login("admin", "admin123") if user.authenticate("admin123") 在这个例子中,我们将Authentication模块包含到User类中,这样User类就可以使用login和logout方法了。通过这种方式,我们实现了功能的分离,使得代码结构更加清晰。 4. 总结与展望 通过这篇文章,我们探讨了Ruby中的模块化设计与封装的重要性,并通过实际的代码示例展示了如何在项目中应用这些概念。用模块化的方式来写代码,就像搭积木一样,既能让程序变得更靠谱,又能省下很多开发和后期维护的力气,简直是一举两得的好事! 未来,随着软件开发的不断发展,我相信模块化设计和封装的理念将会变得更加重要。嘿,咱们做开发的啊,就得不停地学、不停地练,把这些好习惯给用起来。为啥呢?就为了写出那种既好看又顺手的代码,谁不喜欢看着清爽、跑得飞快的程序呢? 希望这篇文章对你有所帮助!如果你有任何疑问或想法,欢迎随时交流。记住,编程不仅仅是技术的积累,更是一种艺术的创造。让我们一起享受编程的乐趣吧!
2025-03-23 16:13:26
38
繁华落尽
Mongo
...以通过添加额外的管道步骤来实现: javascript db.users.aggregate([ { $lookup: { from: "orders", localField: "userId", foreignField: "userId", as: "orderDetails" } }, { $project: { _id: 1, name: 1, email: 1, firstOrderStatus: { $arrayElemAt: ["$orderDetails.status", 0] } } } ]) 这段代码使用了$arrayElemAt函数来提取orderDetails数组的第一个元素对应的status值。 --- 4. 总结与反思 这次经历教会了我什么? 经过这次折腾,我对MongoDB的聚合框架有了更深的理解。其实呢,它虽然挺灵活的,但这也意味着我们得更小心翼翼地把握查询逻辑,不然很容易就出问题啦!特别是处理那些涉及多个集合的操作时,你得弄明白每一步到底干了啥,不然就容易出岔子。 最后,我想说的是,无论是在编程还是生活中,遇到困难并不可怕,可怕的是放弃思考。只要愿意花时间去研究和实践,总会找到解决问题的办法。希望大家都能从中受益匪浅! 好了,今天的分享就到这里啦!如果你也有类似的经历或者疑问,欢迎随时留言交流哦~
2025-04-28 15:38:33
19
柳暗花明又一村_
HBase
...做性能测试和调优这个步骤可是超级重要的!这不仅仅关系到系统的坚挺度和运转快慢,更直接影响到我们处理业务的速度有多快,还有用户使用起来舒不舒服,爽不爽的问题。这篇文咱要接地气地聊聊怎么给HBase做性能测试的大事儿,还会手把手教大家一些超实用的调优诀窍和小技巧。 2. HBase性能测试基础 在着手进行HBase性能测试前,我们需要先了解其基本工作原理。HBase基于Hadoop HDFS存储数据,利用RegionServer处理读写请求,通过Zookeeper进行集群协调。所以,平常我们聊性能测试时,经常会提到几个关键指标。就好比,读写速度怎么样,响应时间快不快,能同时处理多少请求,还有资源利用效率高不高,这些都是咱们评估性能表现的重点要素~ 示例代码(创建表并插入数据): java Configuration config = HBaseConfiguration.create(); config.set("hbase.zookeeper.quorum", "zk_host:2181"); HTable table = new HTable(config, "test_table"); Put put = new Put(Bytes.toBytes("row_key")); put.add(Bytes.toBytes("cf"), Bytes.toBytes("cq"), Bytes.toBytes("value")); table.put(put); 3. HBase性能测试方法 (1)基准测试 使用Apache BenchMark工具(如YCSB,Yahoo! Cloud Serving Benchmark),可以模拟不同场景下的读写压力,以此评估HBase的基础性能。比如说,我们可以尝试调整各种不同的参数来考验HBase,就好比设置不同数量的同时在线用户,改变他们的操作行为(比如读取或者写入数据),甚至调整数据量的大小。然后,咱们就可以通过观察HBase在这些极限条件下的表现,看看它是否能够坚挺如初,表现出色。 (2)监控分析 利用HBase自带的监控接口或第三方工具(如Grafana+Prometheus)实时收集并分析集群的各项指标,如RegionServer负载均衡状况、内存使用率、磁盘I/O、RPC延迟等,以发现可能存在的性能瓶颈。 4. HBase性能调优策略 (1)配置优化 - 网络参数:调整hbase.client.write.buffer大小以适应网络带宽和延迟。 - 内存分配:合理分配BlockCache和MemStore的空间,以平衡读写性能。 - Region大小:根据数据访问模式动态调整Region大小,防止热点问题。 (2)架构优化 - 增加RegionServer节点,提高并发处理能力。 - 采用预分裂策略避免Region快速膨胀导致的性能下降。 (3)数据模型优化 - 合理设计RowKey,实现热点分散,提升查询效率。 - 根据查询需求选择合适的列族压缩算法,降低存储空间占用。 5. 实践案例与思考过程 在一次实践中,我们发现某业务场景下HBase读取速度明显下滑。经过YCSB压测后,定位到RegionServer的BlockCache已满,导致频繁的磁盘IO。于是我们决定给BlockCache扩容,让它变得更大些,同时呢,为了让热点现象不再那么频繁出现,我们对RowKey的结构进行了大刀阔斧的改造。这一系列操作下来,最终咱们成功让系统的性能蹭蹭地往上提升啦!在这个过程中,我们可是实实在在地感受到了,摸清业务特性、一针见血找准问题所在,还有灵活运用各种调优手段的重要性,这简直就像是打游戏升级一样,缺一不可啊! 6. 结语 性能测试与调优是HBase运维中的必修课,它需要我们既具备扎实的技术理论知识,又要有敏锐的洞察力和丰富的实践经验。经过对HBase从头到脚、一丝不苟的性能大考验,再瞅瞅咱的真实业务场景,咱们能针对性地使出一些绝招进行调优。这样一来,HBase就能更溜地服务于我们的业务需求,在大数据的世界里火力全开,展现它那无比强大的能量。
2023-03-14 18:33:25
581
半夏微凉
Cassandra
...ception”。 步骤1:配置调整 yaml 在cassandra.yaml中增加快照并发创建数 snapshots.concurrent_compactions: 10 步骤2:监控配置 yaml 配置Prometheus监控,用于实时监控集群状态 prometheus: enabled: true bind_address: '0.0.0.0' port: 9100 步骤3:实施监控与警报 在Prometheus中添加Cassandra监控指标,设置警报规则,当快照操作异常或磁盘使用率过高时触发警报。 yaml Prometheus监控规则 rules: - alert: HighSnapshotConcurrency expr: cassandra_snapshot_concurrency > 5 for: 1m labels: severity: critical annotations: description: "The snapshot concurrency is high, which might lead to the CommitLogTooManySnapshotsInProgressException." runbook_url: "https://your-runbook-url.com" - alert: DiskUsageHigh expr: cassandra_disk_usage_percentage > 80 for: 1m labels: severity: warning annotations: description: "Disk usage is high, potentially causing performance degradation and failure of snapshot operations." runbook_url: "https://your-runbook-url.com" 六、总结与反思 面对“CommitLogTooManySnapshotsInProgressException”,关键在于综合考虑业务需求、系统资源和配置策略。通过合理的配置调整、有效的监控与警报机制,可以有效地预防和解决此类问题,确保Cassandra集群稳定高效地运行。哎呀,每次碰到这些难题然后搞定它们,就像是在给咱们的系统管理与优化上加了个经验值似的,每次都能让我们在分布式数据库这块领域里走得更远,不断尝试新的东西,不断创新!就像打游戏升级一样,每一次挑战都让咱们变得更强大!
2024-09-27 16:14:44
125
蝶舞花间
Etcd
...记录日志。要让这两个步骤像一个整体似的,中间不能出岔子,那我们就得靠Etcd来管着分布式锁和事务了。 3.2 代码实现 Step 1: 初始化Etcd客户端 python import etcd3 client = etcd3.client(host='localhost', port=2379) Step 2: 获取分布式锁 python 创建一个租约,有效期为10秒 lease = client.lease(10) 尝试获取锁 lock_key = '/inventory-lock' try: lock_result = client.put(lock_key, 'locked', lease=lease) print("Lock acquired!") except Exception as e: print(f"Failed to acquire lock: {e}") Step 3: 执行事务操作 python 假设当前库存是100件 stock_key = '/inventory' current_stock = int(client.get(stock_key)[0].decode('utf-8')) if current_stock >= 10: 开始事务 success, _ = client.transaction( compare=[ client.transactions.version(stock_key) == current_stock ], success=[ client.transactions.put(stock_key, str(current_stock - 10)) ], failure=[] ) if success: print("Inventory updated successfully!") else: print("Failed to update inventory due to race condition.") else: print("Not enough stock available.") Step 4: 释放锁 python 租约到期后自动释放锁 lease.revoke() print("Lock released.") --- 4. 总结与展望 写到这里,我觉得咱们已经掌握了如何用Etcd来进行分布式事务管理。其实啊,事情没那么吓人!别看整个流程听着挺绕的,但只要你把分布式锁、事务操作还有观察者模式这些“法宝”都搞明白了,不管啥情况都能游刃有余地搞定,妥妥的! 不过,我也想提醒大家,分布式事务并不是万能药。有时候,过度依赖分布式事务反而会让系统变得更加复杂。所以,在实际开发中,我们需要根据业务需求权衡利弊。 最后,希望大家都能用好Etcd这个利器,让自己的分布式系统更加健壮和高效!如果你还有其他问题,欢迎随时来找我讨论,咱们一起进步!
2025-03-21 15:52:27
55
凌波微步
Consul
...的可用性和弹性。文章详细介绍了如何使用Consul进行服务注册与发现,展示了服务发现在构建服务网格和实现高效服务间通信中的重要性。
2024-08-05 15:42:27
34
青春印记
Redis
...r:1 age 删除哈希表中的键值对 redis-cli hdel user:1 age 思考过程: 哈希表的灵活性使得我们在构建复杂对象时能够更方便地组织和访问数据。比如说,在咱们的用户认证系统里头,要是你想知道某个用户的年纪或者别的啥信息,直接输入用户名,嗖的一下就全搞定了。就像是在跟老朋友聊天,一说出口,他最近的动态、年龄这些事儿,咱心里门儿清。 3. 列表(Lists) 列表是一种双端链表,可以插入和删除元素,适合用于实现队列、栈或者保存事件历史记录。列表的特性使其在处理序列化数据或消息队列时非常有用。 代码示例: bash 向列表尾部添加元素 redis-cli rpush messages "Hello" redis-cli rpush messages "World" 从列表头部弹出元素 redis-cli lpop messages 查看列表中的元素 redis-cli lrange messages 0 -1 移除列表中的指定元素 redis-cli lrem messages "World" 1 思考过程: 列表的动态性质使得它们成为处理实时数据流的理想选择。比如说,在咱们常用的聊天软件里头,新来的消息就像新鲜出炉的面包一样,被放到了面包篮的最底下,而那些老掉牙的消息就给挤到一边去了,这样做的目的就是为了保证咱们聊天界面能一直保持最新鲜、最实时的状态。就像是在超市里,你每次买完东西,最前面的架子上总是最新的商品,那些旧货就被推到后面去一样。 4. 集合(Sets) 集合是无序、不重复的元素集合,适合用于存储唯一项或进行元素计数。Redis的集合操作既高效又安全,是实现去重、投票系统或用户兴趣聚合的理想选择。 代码示例: bash 向集合添加元素 redis-cli sadd users alice bob charlie 检查元素是否在集合中 redis-cli sismember users alice 移除集合中的元素 redis-cli srem users bob 计算集合的大小 redis-cli scard users 思考过程: 集合的唯一性保证了数据的纯净度,同时其高效的操作速度使其成为处理大量用户交互数据的首选。在投票系统中,用户的选择会被自动去重,确保了统计的准确性。 结语 Redis提供的这些数据结构,无论是单独使用还是结合使用,都能极大地提升应用的性能和灵活性。通过上述代码示例和思考过程的展示,我们可以看到,Redis不仅仅是一个简单的键值存储系统,而是内存世界中的一把万能钥匙,帮助我们解决各种复杂问题。哎呀,不管你是想捣鼓个能秒回消息的聊天软件,还是想要打造个能精准推荐的神器,亦或是设计一套复杂到让人头大的分布式计算平台,Redis这货简直就是你的秘密武器啊!它就像个全能的魔法师,能搞定各种棘手的问题,让你在编程的路上顺风顺水,轻松应对各种挑战。在未来的开发旅程中,掌握这些数据结构的使用技巧,将使你能够更加游刃有余地应对各种挑战。
2024-08-20 16:11:43
99
百转千回
Dubbo
...和协调,共同完成一项任务。在本文中,讨论的是基于Dubbo框架构建的分布式微服务体系,其中服务消费者和服务提供者可能部署在不同的机器节点上,通过远程过程调用(RPC)方式进行交互,任何单一节点的故障或网络问题都可能影响整个系统的稳定性。 RPC(Remote Procedure Call)框架 , RPC是一种网络通信技术,允许程序像调用本地函数一样调用位于不同地址空间(通常是网络上的另一台机器)的过程或服务。Apache Dubbo就是一种高性能的Java RPC框架,它简化了分布式服务之间的调用流程,使得服务间的通信如同本地调用一样方便高效。 雪崩效应 , 在分布式系统中,雪崩效应是指由于某一服务节点故障引发的连锁反应,导致整个系统大面积服务失效的现象。比如,当一个服务提供者节点因过载或其他原因停止响应时,如果没有有效的隔离策略,所有依赖该服务的请求可能会迅速转移到其他提供者节点,最终可能导致所有服务节点均不堪重负,进而使整个系统崩溃。在本文中,Dubbo通过支持sentinel等隔离策略,限制并发访问数量,以防止因雪崩效应引起的服务失效。 负载均衡 , 在分布式系统中,负载均衡是一种技术手段,用来分配网络流量,均匀分散到各个服务器节点上,以防止某些节点过载,确保所有节点都能有效参与服务处理。在Dubbo框架中,通过集成多种负载均衡策略,如随机、轮询、最少活跃调用数等,可以在服务消费者发生故障或网络不稳定时,智能地将请求分发到其他健康的提供者节点上,从而提高系统的稳定性和可用性。 心跳检测 , 心跳检测是一种常见的服务健康检查机制,用于判断服务提供者是否仍然在线且能正常响应请求。在Dubbo中,服务提供者会定期向注册中心发送心跳信息,表明自己仍在运行。消费者或者其他组件可以通过检测这些心跳信号来判断服务提供者的健康状况,一旦检测到服务提供者宕机或网络不通,就会将其从可用列表中移除,直至其恢复正常连接。通过这种方式,Dubbo能够实时监控并管理服务提供者的可用性,确保服务调用的稳定性和可靠性。
2024-03-25 10:39:14
485
山涧溪流
Beego
...总结与展望 通过上述步骤,我们不仅实现了JWT在Beego框架下的集成与管理,还探讨了其在实际应用中的实用性和灵活性。JWT令牌的生命周期管理对于增强Web应用的安全性和用户体验至关重要。哎呀,你懂的,就是说啊,咱们程序员小伙伴们要是能不断深入研究密码学这门学问,然后老老实实地跟着那些最佳做法走,那在面对各种安全问题的时候就轻松多了,咱开发出来的系统自然就又稳当又高效啦!就像是有了金刚钻,再硬的活儿都能干得溜溜的! 在未来的开发中,持续关注安全漏洞和最佳实践,不断优化和升级JWT的实现策略,将有助于进一步提升应用的安全性和性能。哎呀,随着科技这玩意儿越来越发达,咱们得留意一些新的认证方式啦。比如说 OAuth 2.0 啊,这种东西挺适合用在各种不同的场合和面对各种变化的需求时。你想想,就像咱们出门逛街,有时候用钱包,有时候用手机支付,对吧?认证机制也一样,得根据不同的情况选择最合适的方法,这样才能更灵活地应对各种挑战。所以,探索并尝试使用 OAuth 2.0 这类工具,让咱们的技术应用更加多样化和适应性强,听起来挺不错的嘛!
2024-10-15 16:05:11
71
风中飘零
MySQL
...? 打开命令行工具(Windows用户可以用CMD,Mac/Linux用户可以用Terminal),然后输入以下命令: sql SELECT @@hostname; 这条SQL语句会返回当前MySQL服务器所在的主机名。如果你想进一步验证是不是本地环境,可以再试试: sql SELECT @@datadir; 这段代码会显示MySQL的数据目录路径。要是文件路径里提到你的用户名,或者用的是系统盘符(像 C:\ProgramData\MySQL\MySQL Server 8.0\Data 这种),那十有八九数据库就在你自己的电脑上啦! --- 情况二:数据库运行在远程服务器上 如果你的MySQL数据库部署在一台远程服务器上,那么它的IP地址就不会是localhost了。你需要通过一些工具或者命令来获取具体的IP地址。 方法一:直接登录服务器查看 假设你有一台Linux服务器,可以通过SSH工具(比如PuTTY或终端)登录到服务器后,执行以下命令: bash ifconfig | grep "inet " 这段命令会列出服务器的所有网络接口及其对应的IP地址。如果你看到类似inet 192.168.1.100这样的输出,恭喜你,这就是MySQL数据库所在服务器的IP地址啦! 方法二:通过MySQL命令查看 如果你已经成功连接到了远程MySQL服务器,也可以在MySQL客户端中执行以下命令: sql SELECT @@hostname; 这条命令同样会返回数据库所在的主机名。不过,这里得到的通常是服务器的域名(比如myserver.example.com)。为了找到真实的IP地址,你可以使用ping命令进行测试: bash ping myserver.example.com 通过这种方式,你可以轻松地将域名解析为实际的IP地址。 --- 2. MySQL配置文件中的IP地址 有时候,数据库的IP地址并不是动态分配的,而是明确写在了配置文件里。这种情况下,我们只需要找到配置文件的位置并读取它即可。 配置文件在哪里? 不同的操作系统和安装方式可能会导致配置文件的位置有所不同。以下是常见的几个位置: - Linux/Unix系统:通常是/etc/mysql/my.cnf或者/etc/my.cnf。 - Windows系统:可能是C:\ProgramData\MySQL\MySQL Server 8.0\my.ini。 - macOS:可以尝试查找/usr/local/mysql/my.cnf。 打开配置文件后,搜索关键词bind-address。这个参数定义了MySQL服务监听的IP地址。例如: ini bind-address = 192.168.1.100 这里的192.168.1.100就是MySQL数据库的IP地址。如果该值为空,则表示MySQL监听所有可用的IP地址。 --- 3. 使用第三方工具检测数据库IP 如果你没有权限直接访问服务器或者配置文件,还可以借助一些第三方工具来探测数据库的IP地址。 工具推荐: 1. Nmap 一款强大的网络扫描工具,可以帮助你发现目标服务器上的开放端口和服务。 bash nmap -p 3306 yourdomain.com 如果MySQL服务正在运行并且监听了外部请求,那么这段命令会显示出相应的IP地址。 2. telnet 一种简单的远程连接工具,用于检查特定端口是否可达。 bash telnet yourdomain.com 3306 如果连接成功,说明MySQL服务正在指定的IP地址上运行。 --- 4. 小结与反思 经过一番折腾,我们终于找到了MySQL数据库的IP地址。虽然过程有些曲折,但我相信这些方法对大家来说都非常实用。在这个过程中,我也学到了很多新东西,比如如何解读配置文件、如何利用命令行工具解决问题等等。 最后想提醒大家一句:无论你是新手还是老鸟,在操作数据库时都要小心谨慎,尤其是在涉及网络配置的时候。毕竟,稍不留神就可能导致数据泄露或者其他严重后果。所以,动手之前一定要三思而后行哦! 好了,今天的分享就到这里啦!如果你还有什么疑问或者更好的解决方案,欢迎随时留言交流。咱们下期再见!
2025-03-24 15:46:41
78
笑傲江湖
转载文章
...将第一时间进行核实并删除相应内容。 阅读本文大概需要 6.6 分钟。 编程门槛其实并不高,自学几个月就可以入门,但是初级程序员进阶却很难,需要学的知识很多很多。所以自学编程想入门,很简单,只要自己能努力,能坚持,几个月以后你就已经在路上了。尽管这个过程很难,你会迷茫、困惑,但是你要坚信努力必将有结果。 掌握基础的语法 我们最终目的是尽快的学完相关知识,然后找到一份工作,进入这个行业。我们这里的方法就是快速掌握知识运用。但是开发的这个行业你其实需要学习的知识实在太多太多,但是普通公司的一个初级工程师只要能保证会用业内通用的框架,能解决的基本的业务问题就好。所以我们这里学习过程必须的先做减法。这个过程中我们先不用去学习算法,框架源码什么的,先去学习工作中需要用到的知识,等我们进入行业再去学习。 自学的第一步,我们先掌握语言的基本知识点。我们下面拿 Java 举例。 学习 Java,推荐使用视频加书籍学习。视频资源可以去慕课网,网易云课堂寻找,这个不展开叙述。至于书籍,这里推荐 「Java核心技术(卷1):基础知识」,「Java编程思想」。两本书都是经典好书,尤其后面一本更是经典中经典。这里切记一点,切勿买 「xx 入门到精通」、「21 天带你学会 xx」 系列书籍,尽管这类书籍销量很好。 不推荐直接看书学习。因为你如果单纯看书,你很容易会困乏,而且很容易抓不住重点。这个过程很容易会让你失去兴趣。而结合视频学习,你可以跟视频进度学习,进而能掌握自己大概学习进度。这个学习过程中,你先看完视频,然后动手练习视频中的代码。 一定要动手练习! 一定要动手练习! 一定要动手练习! 代码是需要动手练习,才能孰生巧。 学完 Java 基础,用学的知识去完成一个小项目,这里会让自己有些小成就,这样能更好学下去。 Java 基础知识不用去学 awt,swing 等图形化编程。 如果这第一步都坚持不下来,那其实真的放弃吧。后面你只会越学越困难 聊聊选择的问题 自学第二步,选择从事的方向。 学完 Java 基础,你就面临自己以后需要从事开发的方向。如 Java 来说,一般分为服务段开发与客户端开发,方向不同,接下去学的知识点就会不同。所以这里选择需要慎重思考。 这里可以使用一个方法,我们从事件的价值出发,列出一个优缺清单表。比如你要选择服务端开发还是客户端开发,你先去充分了解这两个方向,然后列一分优缺清单表格,把了解到每一个点都写上去,打一个分数,分数分为 -10 到 10 分。最后我们统计一个总分,然后那个分数较高的方向。 掌握数据库 由于本人从事服务端开发,下面说说服务端开发学习的过程。 服务端开发,需要学习的东西会很多,不过不用担心,我们一个个说。 首先我们先说数据库。数据库对于服务端开发,一定要学会的技术,所以这个我们需要着重学习。 首先按照网上教程,自己在电脑上搭建一个数据库,这里推荐 MySQL。搭建之后,再下载一个数据库客户端管理工具,如 Navicat,DataGrip。弄完这些基础设施之后,我们这里接着去学会 SQL 的语法。这里着重学习单表增删改查的语法,跨表的连接查询等。网上找一个例子,如可以自己构建一个学生课程信息表,做到可以用以上学习到的语法。 学习完数据库,接着我们就需要学习Java JDBC 的知识。学习的 JDBC 就是让我们了解,如何使用 Java 操作数据库,运行 Mybatis的增删改查的语句。 接着我们可以去学习相关 ORM 的框架,如 Hibernate 或 Mybatis,这里推荐 Mybatis。学习框架,我们要做到掌握框架的使用技巧就可以。 这个过程你可能会发现,Mybatis 这类框架这么如此简化开发,为什么我们不直接学习 Mybatis ? 学习 JDBC 的目的,其实就是让你了解这些 ORM 的基础。 学完这个阶段,我们接下去就要进入 WEB 开发。 WEB 开发 这个过程我们首先学习一些前端知识,如 HTML,CSS,JavaScript,然后再去 Jquery 等前端框架,做到能实现一些简单的功能。我们不需要跟你上面一样精通,我们只要了解一些概念即可。 接下去我们学习 Servlet,做到能使用原生 Servlet + Jsp 能运行一个 WEB 程序。 后面我们再去学习 Spring 框架,使用 SpringMVC 了解 MVC 的概念。最后用 SpringMVC+Spring+Mybatis+MySQL 完成一个简单的管理系统。 其他 学完以上内容,基本上已经学习完工作中学习到的技术栈。这个过程你还需要额外学习一些工作中用到其他知识。 你需要去学习协同开发的工具,如 Git,SVN。做到了解如何新建分支,如何拉取代码,如何合并代码即可。 你还需要去学习一些 Linux 的命令。 总结 学完上述内容,你实际就已经掌握初级开发所需要的技术,已经基本上可以从事一个初级开发的岗位。我们上面讲的都是使用技巧,但是面试的时候可能会问你一些原理性的内容,所以在我们去找工作之前我们还需要去了解一些原理性知识。这方面的内容通过搜索引擎搜索即可。 这个过程你可能会碰到很多问题,这个过程一定善于使用搜索引擎。 本篇文章为转载内容。原文链接:https://blog.csdn.net/qq_35006660/article/details/115610534。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-07-02 23:59:06
61
转载
ReactJS
...品时需要从服务器拉取详细信息。之前的做法大概是这样:用 useState 和 useEffect 来发请求拿数据,然后在页面上先显示个“加载中”,要是出了问题就换成“加载失败”。简单说就是一边等数据,一边给用户一个状态提示呗。但有了Suspense之后,你可以直接告诉React:“嘿,等我这个数据加载完再渲染这部分内容。”听起来是不是很爽? 那么问题来了,具体怎么用呢?别急,咱们慢慢来探索! --- 2. 基本概念与工作原理 首先,我们需要明确一点:Suspense并不是万能药,它主要用来解决“懒加载”和“数据获取”的场景。简单来说,这个主意就是用一个“边框小部件”把那些可能会拖时间的操作围起来,顺便提前说好,要是这些操作没搞定,就给用户展示点啥,免得他们干等着抓狂。 什么是边界组件? 边界组件就是那种负责“守门”的家伙,它会拦截你的组件树中的异步操作。嘿,你听说过没?只要某个小部件发现它得等着数据过来,它就马上开启“备胎模式”,啥叫备胎模式呢?就是先用个临时的东西占着位置,一直撑到后台的活干完,正式的内容才会上场。简单说吧,就是等数据的时候,先给你看个“过渡版”的,不让你干等着发呆! 听起来有点抽象?没关系,咱们看代码! jsx import React, { Suspense } from 'react'; function App() { return ( 我的电商网站 {/ 这里就是我们的边界组件 /} 加载中... }> ); } export default App; 在这个例子中,标签包裹住了组件。想象一下,当想要展示商品信息的时候,它可不是那种直接蹦出来的急性子。首先,它会先客气地说一句“加载中...”给大家打个招呼,然后静静地等后台把数据准备好。一旦数据到位了,它才开始认真地把商品的详细信息乖乖地显示出来。有点像服务员上菜前先说一声“稍等”,然后再端上热腾腾的大餐! --- 3. 实现数据获取 从零开始构建一个简单的例子 接下来,我们动手实践一下,看看如何结合Suspense实现数据获取。假设我们要做一个博客应用,每篇文章都需要从后端获取标题和正文内容。 第一步:创建数据源 为了模拟真实环境,我们可以用fetch API来模拟后端服务: javascript // mockApi.js export const fetchPost = async (postId) => { const response = await fetch(https://jsonplaceholder.typicode.com/posts/${postId}); return response.json(); }; 这里我们用了一个公共的JSONPlaceholder API来获取假数据。当然,在生产环境中你应该替换为自己的API地址。 第二步:定义数据加载逻辑 现在我们需要让React知道如何加载这个数据。我们可以创建一个专门用于数据加载的组件,比如叫PostLoader: jsx // PostLoader.js import React, { useState, useEffect } from 'react'; const PostLoader = ({ postId }) => { const [post, setPost] = useState(null); const [error, setError] = useState(null); useEffect(() => { let isMounted = true; fetchPost(postId) .then((data) => { if (isMounted) { setPost(data); } }) .catch((err) => { if (isMounted) { setError(err); } }); return () => { isMounted = false; }; }, [postId]); if (error) { throw new Error('Failed to load post'); } return post; }; export default PostLoader; 这段代码的核心在于throw new Error这一行。当我们遇到错误时,不是简单地返回错误提示,而是直接抛出异常。这是为了让Suspense能够捕获到它并执行后备渲染。 第三步:整合Suspense 最后一步就是将所有东西组合起来,让Suspense接管整个流程: jsx // App.js import React, { Suspense } from 'react'; import PostLoader from './PostLoader'; const PostDetails = ({ postId }) => { const post = ; return ( {post.title} {post.body} ); }; const App = () => { return ( 欢迎来到我的博客 正在加载文章... }> ); }; export default App; 在这个例子中,会确保如果未能及时加载数据,它会显示“正在加载文章...”。 --- 4. 高级玩法 动态导入与代码分割 除了数据获取之外,Suspense还可以帮助我们实现代码分割。这就相当于你把那些不怎么常用的功能模块“藏”起来,等需要用到的时候再慢慢加载,这样主页面就能跑得飞快啦! 例如,如果你想按需加载某个功能模块,可以这样做: javascript // LazyComponent.js const LazyComponent = React.lazy(() => import('./LazyModule')); function App() { return ( 主页面 加载中... }> ); } 在这里,React.lazy配合Suspense实现了动态导入。当用户访问包含的部分时,React会自动加载对应的模块文件。 --- 5. 总结与反思 好了,到这里我们已经掌握了如何使用Suspense进行数据获取的基本方法。虽然它看起来很简单,但实际上背后涉及了很多复杂的机制。比如,它是如何知道哪些组件需要等待的?又是如何优雅地处理错误的? 我个人觉得,Suspense最大的优点就在于它让开发者摆脱了手动状态管理的束缚,让我们可以更专注于用户体验本身。不过呢,这里还是得提防点小问题,比如说可能会让程序跑得没那么顺畅,还有就是对那些老项目的支持可能没那么友好。 总之,Suspense是一个非常强大的工具,但它并不适合所有场景。作为开发者,我们需要根据实际情况权衡利弊,合理选择是否采用它。 好了,今天的分享就到这里啦!如果你有任何疑问或者想法,欢迎随时留言交流哦~ 😊
2025-04-12 16:09:18
87
蝶舞花间
Gradle
...后只能眼睁睁看着构建任务挂掉。 代码示例: bash 设置环境变量 export ANDROID_HOME=/path/to/your/android/sdk export PATH=$PATH:$ANDROID_HOME/tools:$ANDROID_HOME/platform-tools 2.2.3 缓存问题 Gradle有一个缓存机制,有时候这个缓存可能会出问题。比如说啊,有个依赖包老是下不下来,Gradle就一直在那儿较真儿,不停地重试,就跟个倔强的小孩似的,怎么劝都不停,最后还是没搞掂。这时,你可以尝试清理缓存并重新构建项目。 代码示例: bash 清理Gradle缓存 cd android ./gradlew clean --- 3. 解决方案 动手实践的快乐 3.1 第一步:检查Gradle版本 既然Gradle版本可能是罪魁祸首,我们首先要检查一下它的版本是否符合要求。打开android/build.gradle文件,找到classpath部分,确保它指向的是最新的Gradle版本。 代码示例: gradle dependencies { classpath 'com.android.tools.build:gradle:7.0.2' // 使用最新版本 } 如果版本过低,可以直接升级到最新版本。升级后,记得同步项目并重新构建。 3.2 第二步:配置环境变量 接下来,检查你的环境变量是否配置正确。尤其是Android SDK的路径,必须指向真实的SDK目录。如果你不确定路径,可以去Android Studio中查看。 代码示例: bash 配置环境变量 export ANDROID_HOME=/Users/username/Library/Android/sdk export PATH=$PATH:$ANDROID_HOME/tools:$ANDROID_HOME/platform-tools 配置完成后,重启终端并运行项目,看看问题是否解决了。 3.3 第三步:清理缓存 如果前面两步都没有解决问题,可能是Gradle缓存出了问题。这时候,我们需要手动清理缓存。 代码示例: bash 进入Android目录并清理缓存 cd android ./gradlew clean 清理完成后,重新运行项目,看看是否能正常安装App。 --- 4. 总结与反思 成长的足迹 通过这次经历,我深刻体会到,React Native开发不仅仅是写代码那么简单,还需要对Gradle有深入的理解。Gradle虽然强大,但也非常复杂,稍有不慎就会出问题。不过,只要我们保持耐心,一步步排查问题,总能找到解决方案。 最后,我想说的是,开发过程中遇到问题并不可怕,可怕的是失去信心。每一次解决问题的过程,都是我们成长的机会。希望能帮到你,让你在碰到这些问题的时候,别再绕那么多弯子了,赶紧找到症结,把事情搞定! 如果你还有其他疑问,欢迎随时交流!让我们一起在React Native的世界里探索更多可能性吧!
2025-04-15 16:14:29
36
青山绿水_
RocketMQ
...能搞定各种复杂的配送任务。就是因为这货在处理大规模分布式消息方面特别牛,所以啊,大家都特别喜欢用它来解决业务中的各种消息传输问题。哎呀,你知道的嘛,不管什么系统啊,总有些小意外,特别是那些大忙人、高频度交流的情况里头,数据丢丢的情况难免会发生。就像你我用手机聊天,偶尔也会有信息没发出去或者乱了套的时候,对吧?所以啊,咱们得有个心理准备,也得想想怎么防着点,别让数据丢了就找不回来了。本文将深入探讨如何通过合理的策略和实践,降低使用RocketMQ时数据丢失的风险。 一、理解数据持久化的重要性 数据持久化是确保消息系统稳定运行的关键环节。在咱们RocketMQ的世界里,消息的持久性就像是一场接力赛,关键在于消息是不是能稳稳地落在磁盘上,不偏不倚。想象一下,你把消息小心翼翼地放进一个超级大保险箱里,这个保险箱就是我们的磁盘。无论遇到啥突发状况,比如突然停电啊,电脑当机啊,这个保险箱都能保持它的神秘,不让里面的宝贝消息跑掉。这样一来,下次咱们再打开保险箱时,那些消息还在原地,等着我们继续接力,继续咱们的消息传递之旅。这样子,无论是系统怎么出问题,咱们的消息都不会断线!数据丢失不仅会导致业务中断,还可能引发严重的经济损失和用户体验问题。 二、RocketMQ的数据持久化机制 RocketMQ采用多种机制来保障消息持久化: 1. 消息存储 RocketMQ使用HDFS(Hadoop Distributed File System)或本地文件系统作为消息存储的底层。这种方式提供了高可用性和可扩展性。 2. 多副本机制 RocketMQ支持消息的多副本存储,通过复制机制,即使单个节点故障,也可以从其他副本恢复消息,保证了数据的高冗余度。 3. 事务消息 对于需要保证消息发送和接收的原子性的场景,RocketMQ提供事务消息功能,确保消息的可靠投递。 三、降低数据丢失风险的策略 1. 配置优化 合理设置RocketMQ的配置参数,如消息重试次数、消费超时时间等,确保在异常情况下,消息可以被正确处理或重试。 java // 示例代码:设置消息重试次数 Properties props = new Properties(); props.setProperty("producer.transactionCheckEnabled", "false"); props.setProperty("producer.transactionTimeout", "60000"); props.setProperty("producer.maxReconsumeTimes", "5"); // 设置最大重试次数为5次 RMQSender sender = new RMQSender("localhost:18831", "myQueue", props); 2. 监控与报警 建立一套完善的监控系统,实时监测RocketMQ的运行状态,一旦出现异常,立即触发报警机制。 bash 假设使用Prometheus进行监控 prometheus: - job_name: 'rocketmq' metrics_path: '/actuator/metrics' static_configs: - targets: ['localhost:8080'] labels: application: 'rocketmq' 3. 备份与恢复策略 定期对RocketMQ的元数据和消息进行备份,以便在发生灾难性事件时快速恢复服务。 bash 使用HDFS作为存储时,可以利用HDFS的备份功能 hdfs dfs -copyToLocal /path/to/backup /local/path/ 4. 容错与高可用架构设计 在应用层面考虑容错机制,如使用负载均衡、故障转移等策略,确保在单点故障时,系统仍能正常运行。 java // 使用Nacos进行服务发现和配置中心管理 @Value("${service.provider}") private String serviceProvider; @Bean public ProviderConfig providerConfig() { return new ProviderConfig(serviceProvider); } 四、结论 通过上述策略的实施,我们可以显著降低使用RocketMQ时数据丢失的风险。关键在于合理配置、有效监控、备份恢复以及高可用架构的设计。在实际应用中,还需要根据业务的具体需求和场景,灵活调整策略,以达到最佳的数据持久化效果。哎呀,兄弟!技术这东西,得不停琢磨,多实践,别老是原地踏步。咱们得时不时调整一下系统这架机器的零件,让它跑得既快又稳当。这样,咱们的应用服务才不会卡壳,用户们用起来也舒心。这可是保证业务顺畅运行的关键!
2024-10-02 15:46:59
574
蝶舞花间
Netty
...是我们在同时处理多个任务时搞砸了资源分配,就算有Netty这样的强力帮手也可能会束手无策。 2. 资源分配的误区 为什么我们会犯错? 在开始之前,让我们先思考一下:为什么我们会选择错误的资源分配算法呢?很多时候,这个问题可能源自于对系统需求的理解不足,或者是对现有技术栈的过度依赖。比如说,如果我们没意识到自己的应用得应对海量的同时请求,然后就随便选了个简单的线程池方案,那到了高峰期,系统卡成狗基本上是躲不掉的。 2.1 案例分析:一个失败的案例 假设我们正在开发一款即时通讯应用,目标是支持数千用户同时在线聊天。一开始,我们可能觉得用个固定大小的线程池挺省事儿,以为这样能简化开发流程,结果发现事情没那么简单。不过嘛,在真正的战场里,一旦用户蜂拥而至,这种方法就露馅了:线程池里的线程忙得团团转,新的请求不是被直接拒之门外,就是得乖乖排队,等老半天才轮到自己。这不仅影响了用户体验,也限制了系统的扩展能力。 3. Netty中的并发资源分配 寻找正确的路径 既然提到了Netty,那么我们就来看看如何利用Netty来解决并发资源分配的问题。Netty提供了多种机制来管理并发访问,其中最常用的莫过于EventLoopGroup和ChannelPipeline。 3.1 EventLoopGroup:并发管理的核心 EventLoopGroup是Netty中用于处理并发请求的核心组件之一。这家伙专门管理一帮EventLoop小弟,每个小弟都负责处理一类特定的活儿,比如读数据啦,写数据啦,干得可带劲了!合理地设置EventLoopGroup,就能更好地分配和管理资源,避免大家抢来抢去的尴尬局面啦。 示例代码: java // 创建两个不同的EventLoopGroup,分别用于客户端和服务端 EventLoopGroup bossGroup = new NioEventLoopGroup(1); EventLoopGroup workerGroup = new NioEventLoopGroup(); try { // 创建服务器启动器 ServerBootstrap b = new ServerBootstrap(); b.group(bossGroup, workerGroup) .channel(NioServerSocketChannel.class) .childHandler(new ChannelInitializer() { @Override public void initChannel(SocketChannel ch) throws Exception { ch.pipeline().addLast(new TimeServerHandler()); } }); // 绑定端口,同步等待成功 ChannelFuture f = b.bind(port).sync(); // 等待服务端监听端口关闭 f.channel().closeFuture().sync(); } finally { // 优雅地关闭所有线程组 bossGroup.shutdownGracefully(); workerGroup.shutdownGracefully(); } 在这个例子中,我们创建了两个EventLoopGroup:bossGroup和workerGroup。前者用于接收新的连接请求,后者则负责处理这些连接上的I/O操作。这样的设计不仅提高了并发处理能力,还使得代码结构更加清晰。 3.2 ChannelPipeline:灵活的请求处理管道 除了EventLoopGroup之外,Netty还提供了一个非常强大的功能——ChannelPipeline。这简直就是个超级灵活的请求处理流水线,我们可以把一堆处理器像串糖葫芦一样串起来,然后一个个按顺序来处理网络上的请求,简直不要太爽!这种方式非常适合那些需要执行复杂业务逻辑的应用场景。 示例代码: java public class TimeServerHandler extends ChannelInboundHandlerAdapter { @Override public void channelRead(ChannelHandlerContext ctx, Object msg) { ByteBuf buf = (ByteBuf) msg; try { byte[] req = new byte[buf.readableBytes()]; buf.readBytes(req); String body = new String(req, "UTF-8"); System.out.println("The time server receive order : " + body); String currentTime = "QUERY TIME ORDER".equalsIgnoreCase(body) ? new Date( System.currentTimeMillis()).toString() : "BAD ORDER"; currentTime = currentTime + System.getProperty("line.separator"); ByteBuf resp = Unpooled.copiedBuffer(currentTime.getBytes()); ctx.write(resp); } finally { buf.release(); } } @Override public void channelReadComplete(ChannelHandlerContext ctx) { ctx.flush(); } @Override public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) { // 当出现异常时,关闭Channel cause.printStackTrace(); ctx.close(); } } 在这个例子中,我们定义了一个TimeServerHandler类,继承自ChannelInboundHandlerAdapter。这个处理器的主要职责是从客户端接收请求,并返回当前时间作为响应。加个这样的处理器到ChannelPipeline里,我们就能轻轻松松地扩展或者修改请求处理的逻辑,完全不用去动那些复杂的底层网络通信代码。这样一来,调整起来就方便多了! 4. 结论 拥抱变化,不断进化 通过上述讨论,我们已经看到了正确选择并发资源分配算法的重要性,以及Netty在这方面的强大支持。当然啦,这只是个开始嘛,真正的考验在于你得根据自己实际用到的地方,不断地调整和优化这些方法。记住,优秀的软件工程师总是愿意拥抱变化,勇于尝试新的技术和方法,以求达到最佳的性能表现和用户体验。希望这篇文章能给大家带来一些启示,让我们一起在技术的海洋里继续探索吧! --- 这篇技术文章希望能够以一种更贴近实际开发的方式,让大家了解并发资源分配的重要性,并通过Netty提供的强大工具,找到适合自己的解决方案。如果有任何疑问或建议,欢迎随时留言交流!
2024-12-05 15:57:43
103
晚秋落叶
转载文章
...将第一时间进行核实并删除相应内容。 改编自微信公众号:前端js动力节点。 webpack这个单词,我们可以拆开来读:web、pack。 pack是啥意思?打包,对吧? 所以webpack的核心就是打包,将所有的资源全部打包压成一个个模块,就像酱紫滴: 我们这节课重点讲一下css的打包。 有同学就犯嘀咕了: 你说js打包我还能理解,而css打包是个什么卵?css还用打包?开什么国际玩笑? 这种质疑不无道理。 因为从传统观点来看,css生下来就是个二等公民。js开始也是个二流货色,但经过这几年的努力,人家已经洗白白成了白富美;而css呢,好容易折腾到css3,虽然整了容,变的漂亮了些,但仍不登大雅之堂,不受人待见。 大家都是二等公民出身,为啥你js能起来,我就不行?css心中一万头草泥马奔过,难道这就是命运的安排? 人贵在有自知之明。当人生遇到低谷,最重要的是反思自己,而不是跟个怨妇一样抱怨。 css为啥无法成为白富美? 首先,可能是因其语法简单,没有什么挑战性;其次,大家也不怎么重视css的规范性。在传统模式下,css都是一股脑写在一个大文件里,然后加载到网页的,这样就直接导致了管理上的混乱: 在css增量开发时,要时刻注意命名空间问题;到了调试阶段,又不得不依赖谷歌控制台或firebug的元素定位,有时父类的某个属性影响了子类,导致修改子类样式无法达到预期。。。。 自从有了react和vue,css的灵魂得到了救赎。这两种框架均提出组件化编程的思想,也就是将html,css,js均凝聚成一个不可分割的小部件,留出对外通信的接口,然后灵活组合使用,譬如下图所示: 这样一来,css就有了打包的可能性。打包的好处是: css也有了模块化,可以不用再关心命名空间问题,只需专心将这个部件渲染好,出了问题也更容易定位追踪。 知其然知其所以然,我们搞懂了为啥css要打包的道理,下面就可以愉快而主动的学习了。 仔细权衡了一下,这里我并不打算引入react或vue讲解,因为这样会增加大家理解上的负担。学习新东西,最忌讳的就是学了这个又牵扯到那个,结果精力分散重点转移,到最后很可能一个都没搞懂,还增加了自己的挫败感。 为了简单起见,我们仍旧沿用前面那个案例做讲解,先把这个webpack玩转再说。 咱们看一下具体玩法。首先还是安装插件,这里我们需要两个工具: npm install style-loadernpm install css-loader 原料有了,我们做一下测试文件做测试。我们首先新建一个style.css文件,目录结构如下: style.css: .content {color: red;} 很简单,就是一个样式类。然后我们改一下helloworld.js文件。 helloworld.js: // 引入css模块var styles = require('../style.css');// 输出模块module.exports = () => {// 这里使用了箭头函数,还有let和const关键字哦~~let content = "Hello ";const NAME = "ES6";var div = document.createElement('div');div.setAttribute('class', styles.content); // 使用样式类div.innerHTML = content + NAME;return div;}; 注意,这里跟我们平时写的有点不一样。 我们在建一个dom节点时,指定了一个样式类。但是这个样式类,是以包的形式存在的,也就是一个模块。 综合起来看我们这个helloworld.js模块,是不是把html,css和js凝聚成了一个小整体了呢? 我知道你已经迫不及待的想看结果了,好吧,咱们赶紧写一下配置文件跑起来吧~~ webpack.config.js: var path = require('path');module.exports = {entry: './src/index.js',output: {path: path.resolve(__dirname, 'dist'),filename: 'bundle.js'},module: {rules: [{test: /\.js$/,exclude: /node_modules/,loader: 'babel-loader',options: {presets: ['env']} }, {test: /\.css$/,loader: 'style-loader!css-loader?modules'}]} }; 说明: style-loader和css-loader是工具名称。 !感叹号是分割符,表示两个工具都参与处理。 ?问号,其实跟url的问号一样,就是后面要跟参数的意思。 而modules这个参数呢,就是将css打包成模块。跟js打包是一样的,你不必再担心不同模块具有相同类名时造成的问题了。 我们运行一下:(我这次特地没在局部安装webpack-cli,发现可以运行,因为我昨天在全局安装了webpack-cli,之所以要在全局安装而单独局部安装不行,可能跟package.json有关,因为这里都没有用到package.json)。 如果不报错,我们打开浏览器,看一下index.html: 我们看到,样式已然生效了,但是我们打开控制台,看到class的名称并非是我们写的样式类.content,而是生成了新名称,这就说明webpack的编译生效了。 我们打开bundle.js看一下,css其实已经被打包编译到了bundle.js文件里:(太长,截了一部分) 我们看到,css打包后,存在形态已经变成了js。这没有什么可奇怪的,只有这样才能使用包的形式做管理,css本身,是无法达到这样的目的的,所以,它还是二等公民。。。。 本篇文章为转载内容。原文链接:https://blog.csdn.net/DreamFJ/article/details/81700004。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-03-13 11:42:35
73
转载
站内搜索
用于搜索本网站内部文章,支持栏目切换。
知识学习
实践的时候请根据实际情况谨慎操作。
随机学习一条linux命令:
history | awk '{a[$2]++}END{for(i in a){print a[i] " " i} }' | sort -rn | head -n 10
- 查看最常使用的十条命令。
推荐内容
推荐本栏目内的其它文章,看看还有哪些文章让你感兴趣。
2023-04-28
2023-08-09
2023-06-18
2023-04-14
2023-02-18
2023-04-17
2024-01-11
2023-10-03
2023-09-09
2023-06-13
2023-08-07
2023-03-11
历史内容
快速导航到对应月份的历史文章列表。
随便看看
拉到页底了吧,随便看看还有哪些文章你可能感兴趣。
时光飞逝
"流光容易把人抛,红了樱桃,绿了芭蕉。"