前端技术
HTML
CSS
Javascript
前端框架和UI库
VUE
ReactJS
AngularJS
JQuery
NodeJS
JSON
Element-UI
Bootstrap
Material UI
服务端和客户端
Java
Python
PHP
Golang
Scala
Kotlin
Groovy
Ruby
Lua
.net
c#
c++
后端WEB和工程框架
SpringBoot
SpringCloud
Struts2
MyBatis
Hibernate
Tornado
Beego
Go-Spring
Go Gin
Go Iris
Dubbo
HessianRPC
Maven
Gradle
数据库
MySQL
Oracle
Mongo
中间件与web容器
Redis
MemCache
Etcd
Cassandra
Kafka
RabbitMQ
RocketMQ
ActiveMQ
Nacos
Consul
Tomcat
Nginx
Netty
大数据技术
Hive
Impala
ClickHouse
DorisDB
Greenplum
PostgreSQL
HBase
Kylin
Hadoop
Apache Pig
ZooKeeper
SeaTunnel
Sqoop
Datax
Flink
Spark
Mahout
数据搜索与日志
ElasticSearch
Apache Lucene
Apache Solr
Kibana
Logstash
数据可视化与OLAP
Apache Atlas
Superset
Saiku
Tesseract
系统与容器
Linux
Shell
Docker
Kubernetes
[高速SQL查询和执行机制]的搜索结果
这里是文章列表。热门标签的颜色随机变换,标签颜色没有特殊含义。
点击某个标签可搜索标签相关的文章。
点击某个标签可搜索标签相关的文章。
Spark
...架,提供了一个统一且高速的分析引擎,用于大规模数据处理任务。Spark支持批处理、交互式查询(Spark SQL)、实时流处理(Spark Streaming)、机器学习(MLlib)和图形计算(GraphX)等多种计算范式,能够在内存中进行计算以提高性能,并支持分布式存储系统的数据访问。 SparkSession , 在Apache Spark 2.x版本中引入的一个核心接口,它封装了Spark SQL上下文的所有功能,包括DataFrame、DataSet API以及SQL查询功能。通过SparkSession,开发者可以方便地在一个统一的入口点执行各种数据处理操作,简化了代码编写和管理。 Spark Streaming , Apache Spark的一部分,提供了一种可扩展且高吞吐量的微批处理模型来处理实时流数据。Spark Streaming将实时数据流分割成一系列小的数据批次,然后使用Spark的批处理能力对每个批次进行处理,使得实时流处理具有与批处理相似的延迟性和容错性。 DNS服务器 , DNS(Domain Name System)服务器是一种网络服务,负责将人们易于记忆的域名转换为计算机能够识别的IP地址。当应用程序请求访问某个域名时,系统会向DNS服务器查询对应的IP地址,若无法从DNS服务器获取有效的IP地址,则可能抛出UnknownHostException。
2024-01-09 16:02:17
136
星辰大海-t
Greenplum
...两种类型:系统缓存和查询缓存。系统缓存就像是一个超能的小仓库,它专门用来存放咱们绿宝石的各种重要小秘密,这些小秘密包括了表格的结构设计图、查找路径的索引标签等等。而查询缓存则是为了加速重复查询,存储的是SQL语句及其执行计划。 三、缓存的配置和管理 接下来,我们来看看如何配置和管理Greenplum的缓存。首先,我们可以调整Greenplum的内存分配比例来影响缓存的大小。例如,我们可以使用以下命令来设置系统缓存的大小为总内存的25%: sql ALTER SYSTEM SET gp_cached_stmts = 'on'; ALTER SYSTEM SET gp_cache_size = 25; 其次,我们可以通过gp_max_statement_mem参数来限制单条SQL语句的最大内存使用量。这有助于防止大查询耗尽系统资源,影响其他并发查询的执行。 四、缓存的优化策略 最后,我们将讨论一些实际的缓存优化策略。首先,我们应该尽可能地减少对缓存的依赖。你知道吗,那个缓存空间它可不是无限大的,就像我们的手机内存一样,也是有容量限制的。要是咱们老是用大量的数据去频繁查询,就相当于不断往这个小仓库里塞东西,结果呢,可能会把这个缓存占得满满当当的,这样一来,整个系统的运行速度和效率可就要大打折扣了,就跟人吃饱了撑着跑不动是一个道理哈。 其次,我们可以使用视图或者函数来避免多次查询相同的数据。这样可以减少对缓存的需求,并且使查询更加简洁和易读。 再者,我们可以定期清理过期的缓存记录。Greenplum提供了VACUUM命令来进行缓存的清理。例如,我们可以使用以下命令来清理所有过期的缓存记录: sql VACUUM ANALYZE; 五、总结 总的来说,通过合理的配置和管理,以及适当的优化策略,我们可以有效地利用Greenplum的缓存,提高其整体性能。不过呢,咱也得明白这么个理儿,缓存这家伙虽然神通广大,但也不是啥都能搞定的。有时候啊,咱们要是过分依赖它,说不定还会惹出些小麻烦来。所以,在实际动手干的时候,咱们得瞅准具体的情况和需求,像变戏法一样灵活运用各种招数,摸排出最适合自己的那套方案来。真心希望这篇文章能帮到你,要是你有任何疑问、想法或者建议,尽管随时找我唠嗑哈!谢谢大家!
2023-12-21 09:27:50
405
半夏微凉-t
Hive
...ve的日志文件记录了查询执行的过程,包括但不限于SQL语句、执行计划、错误信息等。这些信息在调试问题、优化性能时至关重要。例如,当我们遇到查询运行缓慢或者失败时,日志文件就是我们寻找答案的第一线线索: sql EXPLAIN EXTENDED SELECT FROM table; 查看这个命令的执行计划,可以帮助我们理解为何查询效率低下。 三、日志文件损坏的原因 1. 磁盘故障 硬件故障是最直接的原因,如硬盘损坏或RAID阵列失效。 2. 运行异常 Hive在执行过程中如果遇到内存溢出、网络中断等情况,可能导致日志文件不完整。 3. 系统崩溃 操作系统崩溃或Hive服务突然停止也可能导致日志文件未被妥善关闭。 4. 管理操作失误 误删、覆盖日志文件也是常见的情况。 四、诊断Hive日志文件损坏 1. 使用Hive CLI检查 bash hive> show metastore_db_location; 查看Metastore的数据库位置,通常位于HDFS上,检查是否存在异常或损坏的文件。 2. 检查HDFS状态 bash hdfs dfs -ls /path/to/hive/logs 如果发现文件缺失或状态异常,可能是HDFS的问题。 3. 日志审查 打开Hive的错误日志文件,如hive.log,查看是否有明显的错误信息。 五、修复策略 1. 重新创建日志文件 如果只是临时的文件损坏,可以通过重启Hive服务或重启Metastore服务来生成新的日志。 2. 数据恢复 如果是磁盘故障导致的文件丢失,可能需要借助专业的数据恢复工具,但成功的概率较低。 3. 修复HDFS 如果是HDFS的问题,可以尝试修复文件系统,或者备份并替换损坏的文件。 4. 定期备份 为了避免类似问题,定期备份Hive的日志文件和Metastore数据是必要的。 六、预防措施 - 增强硬件监控,及时发现并处理潜在的硬件问题。 - 设置合理的资源限制,避免因内存溢出导致的日志丢失。 - 建立定期备份机制,出现问题时能快速恢复。 总结 Hive日志文件损坏可能会带来不少麻烦,但只要我们理解其重要性,掌握正确的诊断和修复方法,就能在遇到问题时迅速找到解决方案。你知道吗,老话说得好,“防患于未然”,要想让Hive这个大家伙稳稳当当的,关键就在于咱们得养成勤快的保养习惯,定期检查和打理。希望这篇小文能像老朋友一样,给你点拨一二,轻松搞定Hive日志文件出问题的烦心事。
2024-06-06 11:04:27
815
风中飘零
DorisDB
...操作 String sql = "INSERT INTO my_table (column1, column2) VALUES ('value1', 'value2')"; dorisClient.execute(sql); 上述代码展示了在DorisDB中执行一条简单的插入语句,尽管实际过程涉及到了复杂的分布式事务处理逻辑,但用户无需关心这些细节,DorisDB会自动保障数据的一致性。 3. 多版本并发控制(MVCC)实现无锁并发写入 DorisDB引入了多版本并发控制(MVCC)机制,进一步提升了并发写入的性能和数据一致性。在MVCC这个机制里头,每当有写操作的时候,它不会直接去碰原有的数据,而是巧妙地创建一个新的数据版本来进行更新。这样一来,读和写的操作就能同时开足马力进行了,完全不用担心像传统锁那样,一个操作卡住,其他的操作就得干等着的情况发生。 sql -- 在DorisDB中,即使有多个并发写入请求,也能保证数据一致性 BEGIN TRANSACTION; UPDATE my_table SET column1='new_value1' WHERE key=1; COMMIT; -- 同时发生的另一个写入操作 BEGIN TRANSACTION; UPDATE my_table SET column2='new_value2' WHERE key=1; COMMIT; 上述两个并发更新操作,即便针对的是同一行数据,DorisDB也能借助MVCC机制在保证数据一致性的前提下顺利完成,且不会产生数据冲突。 4. 高效的错误恢复与重试机制 对于可能出现的数据写入失败情况,DorisDB具备高效的错误恢复与重试机制。如果你在写东西时,突然网络抽风或者节点罢工导致没写成功,别担心,系统可机灵着呢,它能自动察觉到这个小插曲。然后,它会不厌其烦地尝试再次写入,直到你的数据稳稳当当地落到所有备份里头,确保最后数据的完整性是一致滴。 5. 总结与展望 面对数据一致性这一棘手难题,DorisDB凭借其独特的强一致性模型、多版本并发控制以及高效错误恢复机制,为企业提供了可靠的数据存储解决方案。甭管是那种超大型的实时数据分析活儿,还是对数据准确性要求严苛到极致的关键业务场景,DorisDB都能稳稳接住挑战,确保数据的价值被淋漓尽致地挖掘出来,发挥到最大效能。随着技术的不断进步和升级,我们对DorisDB寄予厚望,期待它在未来能够更加给力,提供更牛的数据一致性保障,帮助更多的企业轻松搭上数字化转型这趟高速列车,跑得更快更稳。
2023-07-01 11:32:13
485
飞鸟与鱼
Impala
Impala的查询性能如何? 如果你正在寻找一种高效且强大的查询工具,那么Impala是一个非常好的选择。它是一种开源的分布式SQL查询引擎,可以轻松地处理大规模的数据集。不过,你可能心里正嘀咕呢:“这玩意儿查询速度到底快不快啊?”别急,本文这就给你揭开Impala查询性能的神秘面纱,而且还会附赠一些超实用的优化小窍门,包你看了以后豁然开朗! 什么是Impala? Impala是由Cloudera公司开发的一种开源分布式SQL查询引擎。它的目标是既能展现出媲美商业数据库的强大性能,又能紧紧握住开放源代码带来的灵活与可扩展性优势。就像是想要一个既有大牌实力,又具备DIY自由度的“数据库神器”一样。Impala可以运行在Hadoop集群上,利用MapReduce进行数据分析和查询操作。 Impala的查询性能特点 Impala的设计目标是在大规模数据集上提供高性能的查询。为了达到这个目标,Impala采用了许多独特的技术和优化策略。以下是其中的一些特点: 基于内存的计算:Impala的所有计算都在内存中完成,这大大提高了查询速度。跟那些老式批处理系统可不一样,Impala能在几秒钟内就把查询给搞定了,哪还需要等个几分钟甚至更久的时间! 多线程执行:Impala采用多线程执行查询,可以充分利用多核CPU的优势。每个线程都会独立地处理一部分数据,然后将结果合并在一起。 列式存储:Impala使用列式存储方式,可以显著减少I/O操作,提高查询性能。在列式存储中,每行数据都是一个列块,而不是一个完整的记录。这就意味着,当你在查询时只挑了部分列,Impala这个小机灵鬼就会聪明地只去读取那些被你点名的列所在的区块,压根儿不用浪费时间去翻看整条记录。 高速缓存:Impala有一个内置的查询缓存机制,可以将经常使用的查询结果缓存起来,减少不必要的计算。此外,Impala还可以利用Hadoop的内存管理机制,将结果缓存在HDFS上。 这些特点使Impala能够在大数据环境中提供卓越的查询性能。其实吧,实际情况是这样的,性能到底怎么样,得看多个因素的脸色。就好比硬件配置啦,查询的复杂程度啦,还有数据分布什么的,这些家伙都对最终的表现有着举足轻重的影响呢! 如何优化Impala查询性能? 虽然Impala已经非常强大,但是仍然有一些方法可以进一步提高其查询性能。以下是一些常见的优化技巧: 合理设计查询语句:首先,你需要确保你的查询语句是最优的。这通常就是说,咱得尽量避开那个费时费力的全表扫一遍的大动作,学会巧妙地利用索引这个神器,还有啊,JOIN操作也得玩得溜,用得恰到好处才行。如果你不确定如何编写最优的查询语句,可以尝试使用Impala自带的优化器。 调整资源设置:Impala的性能受到许多资源因素的影响,如内存、CPU、磁盘等。你可以通过调整这些参数来优化查询性能。比如说,你完全可以尝试给Impala喂饱更多的内存,或者把更重的计算任务分配给那些运算速度飞快的核心CPU,就像让短跑健将去跑更重要的赛段一样。 使用分区:分区是一种有效的方法,可以将大型表分割成较小的部分,从而提高查询性能。你知道吗,通过给数据分区这么一个操作,你就能把它们分散存到多个不同的硬件设备上。这样一来,当你需要查找信息的时候,效率嗖嗖地提升,就像在图书馆分门别类放书一样,找起来又快又准! 缓存查询结果:Impala有一个内置的查询缓存机制,可以将经常使用的查询结果缓存起来,减少不必要的计算。此外,Impala还可以利用Hadoop的内存管理机制,将结果缓存在HDFS上。 以上只是优化Impala查询性能的一小部分方法。实际上,还有很多其他的技术和工具可以帮助你提高查询性能。关键在于,你得像了解自家后院一样熟悉你的数据和工作负载,这样才能做出最棒、最合适的决策。 总结 Impala是一种强大的查询工具,能够在大数据环境中提供卓越的查询性能。如果你想让你的Impala查询速度嗖嗖提升,这里有几个小妙招可以试试:首先,设计查询时要够精明合理,别让它成为拖慢速度的小尾巴;其次,灵活调整资源分配,确保每一份计算力都用在刀刃上;最后,巧妙运用分区功能,让数据查找和处理变得更加高效。这样一来,你的Impala就能跑得飞快啦!最后,千万记住这事儿啊,你得像了解自家的后花园一样深入了解你的数据和工作负载,这样才能够做出最棒、最合适的决策,一点儿都不含糊。
2023-03-25 22:18:41
486
凌波微步-t
Apache Solr
...porter.setSql("SELECT FROM table_name"); // 执行数据导入 importer.fullImport("/path/to/solr/home"); 如果以上步骤无法解决问题,建议查阅相关文档或寻求专业人士的帮助。 1.2 集群配置错误 另一位开发者在2020年7月25日反馈了一个关于Solr集群配置的错误问题。其问题描述为:“淘淘商城第60讲——搭建Solr集群时,报错:org.apache.solr.common.SolrException: Could not find collection : core1”。读了这位开发者的文章,我们发现他在搭建Solr集群的时候,实实在在地碰到了上面提到的那些问题。 对于这个问题,我们可以从以下几个方面进行排查: - 首先,检查solr的配置文件,确认核心集合是否正确配置; - 其次,检查集群状态,确认所有节点是否都已经正常启动; - 最后,查看日志文件,查看是否有其他异常信息。 在实践中,我们可以尝试如下代码实现: java // 启动集群 CoreContainer cc = CoreContainer.create(CoreContainer.DEFAULT_CONFIG); cc.load(new File("/path/to/solr/home/solr.xml")); cc.start(); // 查询集群状态 Collections cores = cc.getCores(); for (SolrCore core : cores) { System.out.println(core.getName() + " status : " + core.getStatus()); } 如果以上步骤无法解决问题,建议查阅相关文档或寻求专业人士的帮助。 三、Solr代码执行漏洞排查及解决方法 近年来,随着Apache Solr的广泛应用,安全问题日益突出。嘿,你知道吗?在2019年11月19日曝出的一条消息,Apache Solr这个家伙在默认设置下有个不小的安全隐患。如果它以cloud模式启动,并且对外开放的话,那么远程的黑客就有机会利用这个漏洞,在目标系统上随心所欲地执行任何代码呢!就像是拿到了系统的遥控器一样,想想都有点让人捏把汗呐! 对于这个问题,我们可以从以下几个方面进行排查: - 首先,检查solr的安全配置,确保只允许受信任的IP地址访问; - 其次,关闭不必要的服务端功能,如远程管理、JMX等; - 最后,定期更新solr到最新版本,以获取最新的安全补丁。 在实践中,我们可以尝试如下代码实现: java // 关闭JMX服务 String configPath = "/path/to/solr/home/solr.xml"; File configFile = new File(configPath); DocumentBuilder db = DocumentBuilderFactory.newInstance().newDocumentBuilder(); Document doc = db.parse(configFile); Element root = doc.getDocumentElement(); if (!root.getElementsByTagName("jmx").isEmpty()) { Node jmxNode = root.getElementsByTagName("jmx").item(0); jmxNode.getParentNode().removeChild(jmxNode); } TransformerFactory tf = TransformerFactory.newInstance(); Transformer transformer = tf.newTransformer(); transformer.setOutputProperty(OutputKeys.INDENT, "yes"); transformer.setOutputProperty("{http://xml.apache.org/xslt}indent-amount", "2"); DOMSource source = new DOMSource(doc); StreamResult result = new StreamResult(new File(configPath)); transformer.transform(source, result); 如果以上步骤无法解决问题,建议查阅相关文档或寻求专业人士的帮助。 四、总结 总的来说,Apache Solr虽然强大,但在使用过程中也会遇到各种各样的问题。了解并搞定这些常见问题后,咱们就能把Solr的潜能发挥得更淋漓尽致,这样一来,工作效率蹭蹭上涨,用户体验也噌噌提升,妥妥的双赢局面!希望本文能对你有所帮助!
2023-05-31 15:50:32
496
山涧溪流-t
转载文章
...、索引底层实现、mysql相关的行锁、表锁等 redis相关:架构设计、数据一致性问题 容器:容器的设计原理等技术 二面题目: 参与的项目,选一个,技术难度在哪里? Collections.sort底层排序方式 负载均衡的原理设计模式与重构,谈谈你对重构的理解 谈谈redis相关的集群有哪些成熟方案? 再谈谈一致hash算法(redis)? 数据库索引,B+树的特性和建树过程 Mysql相关的行锁,表锁;乐观锁,悲观锁 谈谈多线程和并发工具的使用 谈谈redis的架构和组件 Redis的数据一致性问题(分布式多节点环境&单机环境) Docker容器 1.3 Java中间件三面 技术三面考察范围: 主要谈到了高并发的实现方案 以及中间件:redis、rocketmq、kafka等的架构设计思路 最后问了平时怎么提升技术的技术 三面题目 高并发情况下,系统是如何支撑大量的请求的? 接着上面的问题,延伸到了中间件,kafka、redis、rocketmq、mycat等设计思路和适用场景等 最近上过哪些技术网站;最近再看那些书。 工作和生活中遇见最大的挑战,怎么去克服? 未来有怎样的打算 1.4 Java中间件四面 最后,你懂的,主要就是HR走流程了,主要问了未来的职业规划。 02 头条Java后台3面 2.1 头条一面 讲讲jvm运行时数据库区 讲讲你知道的垃圾回收算法 jvm内存模型jmm 内存泄漏与内存溢出的区别 select、epool 的区别?底层的数据结构是什么? mysql数据库默认存储引擎,有什么优点 优化数据库的方法,从sql到缓存到cpu到操作系统,知道多少说多少 什么情景下做分表,什么情景下做分库 linkedList与arrayList区别 适用场景 array list是如何扩容的 volatile 关键字的作用?Java 内存模型? java lock的实现,公平锁、非公平锁 悲观锁和乐观锁,应用中的案例,mysql当中怎么实现,java中的实现 2.2 头条二面 Java 内存分配策略? 多个线程同时请求内存,如何分配? Redis 底层用到了哪些数据结构? 使用 Redis 的 set 来做过什么? Redis 使用过程中遇到什么问题? 搭建过 Redis 集群吗? 如何分析“慢查询”日志进行 SQL/索引 优化? MySQL 索引结构解释一下?(B+ 树) MySQL Hash 索引适用情况?举下例子? 2.3 头条三面 如何保证数据库与redis缓存一致的Redis 的并发竞争问题是什么? 如何解决这个问题? 了解 Redis 事务的 CAS 方案吗? 如何保证 Redis 高并发、高可用? Redis 的主从复制原理,以及Redis 的哨兵原理? 如果让你写一个消息队列,该如何进行架构设计啊?说一下你的思路。 MySQL数据库主从同步怎么实现? 秒杀模块怎么设计的,如何压测,抗压手段 03 今日头条Java后台研发三面 3.1 一面 concurrent包下面用过哪些? countdownlatch功能实现 synchronized和lock区别,重入锁thread和runnable的区别 AtomicInteger实现原理(CAS自旋) java并发sleep与wait、notify与notifyAll的区别 如何实现高效的同步链表 java都有哪些加锁方式(synchronized、ReentrantLock、共享锁、读写锁等) 设计模式(工厂模式、单例模式(几种情况)、适配器模式、装饰者模式) maven依赖树,maven的依赖传递,循环依赖 3.2 二面 synchronized和reentrantLock的区别,synchronized用在代码快、方法、静态方法时锁的都是什么? 介绍spring的IOC和AOP,分别如何实现(classloader、动态代理)JVM的内存布局以及垃圾回收原理及过程 讲一下,讲一下CMS垃圾收集器垃圾回收的流程,以及CMS的缺点 redis如何处理分布式服务器并发造成的不一致OSGi的机制spring中bean加载机制,bean生成的具体步骤,ioc注入的方式spring何时创建- applicationContextlistener是监听哪个事件? 介绍ConcurrentHashMap原理,用的是哪种锁,segment有没可能增大? 解释mysql索引、b树,为啥不用平衡二叉树、红黑树 Zookeeper如何同步配置 3.3 三面 Java线程池ThreadPoolEcecutor参数,基本参数,使用场景 MySQL的ACID讲一下,延伸到隔离级别 dubbo的实现原理,说说RPC的要点 GC停顿原因,如何降低停顿? JVM如何调优、参数怎么调? 如何用工具分析jvm状态(visualVM看堆中对象的分配,对象间的引用、是否有内存泄漏,jstack看线程状态、是否死锁等等) 描述一致性hash算法 分布式雪崩场景如何避免? 再谈谈消息队列 04 抖音Java 三面 4.1 一面: hashmap,怎么扩容,怎么处理数据冲突? 怎么高效率的实现数据迁移? Linux的共享内存如何实现,大概说了一下。 socket网络编程,说一下TCP的三次握手和四次挥手同步IO和异步IO的区别? Java GC机制?GC Roots有哪些? 红黑树讲一下,五个特性,插入删除操作,时间复杂度? 快排的时间复杂度,最坏情况呢,最好情况呢,堆排序的时间复杂度呢,建堆的复杂度是多少 4.2 二面: 自我介绍,主要讲讲做了什么和擅长什么 设计模式了解哪些? AtomicInteger怎么实现原子修改的? ConcurrentHashMap 在Java7和Java8中的区别? 为什么Java8并发效率更好?什么情况下用HashMap,什么情况用ConcurrentHashMap? redis数据结构? redis数据淘汰机制? 4.3 三面(约五十分钟): mysql实现事务的原理(MVCC) MySQL数据主从同步是如何实现的? MySQL索引的实现,innodb的索引,b+树索引是怎么实现的,为什么用b+树做索引节点,一个节点存了多少数据,怎么规定大小,与磁盘页对应。 如果Redis有1亿个key,使用keys命令是否会影响线上服务? Redis的持久化方式,aod和rdb,具体怎么实现,追加日志和备份文件,底层实现原理的话知道么? 遇到最大困难是什么?怎么克服? 未来的规划是什么? 你想问我什么? 05 百度三面 5.1 百度一面 自我介绍 Java中的多态 为什么要同时重写hashcode和equals Hashmap的原理 Hashmap如何变线程安全,每种方式的优缺点 垃圾回收机制 Jvm的参数你知道的说一下 设计模式了解的说一下啊 手撕一个单例模式 手撕算法:反转单链表 手撕算法:实现类似微博子结构的数据结构,输入一系列父子关系,输出一个类似微博评论的父子结构图 手写java多线程 手写java的soeket编程,服务端和客户端 手撕算法: 爬楼梯,写出状态转移方程 智力题:时针分针什么时候重合 5.2 百度二面(现场) 自我介绍 项目介绍 服务器如何负载均衡,有哪些算法,哪个比较好,一致性哈希原理,怎么避免DDOS攻击请求打到少数机器。 TCP连接中的三次握手和四次挥手,四次挥手的最后一个ack的作用是什么,为什么要time wait,为什么是2msl。 数据库的备份和恢复怎么实现的,主从复制怎么做的,什么时候会出现数据不一致,如何解决。 Linux查看cpu占用率高的进程 手撕算法:给定一个数字三角形,找到从顶部到底部的最小路径和。每一步可以移动到下面一行的相邻数字上。 然后继续在这个问题上扩展 求出最短那条的路径 递归求出所有的路径 设计模式讲一下熟悉的 会不会滥用设计模式 多线程条件变量为什么要在while体里 你遇到什么挫折,怎么应对和处理 5.3 百度三面(现场) 自我介绍 项目介绍 Redis的特点 Redis的持久化怎么做,aof和rdb,有什么区别,有什么优缺点。 Redis使用哨兵部署会有什么问题,我说需要扩容的话还是得集群部署。 说一下JVM内存模型把,有哪些区,分别干什么的 说一下gc算法,分代回收说下 MySQL的引擎讲一下,有什么区别,使用场景呢 分布式事务了解么 反爬虫的机制,有哪些方式 06 蚂蚁中间件团队面试题 6.1 蚂蚁中间件一面: 自我介绍 JVM垃圾回收算法和垃圾回收器有哪些,最新的JDK采用什么算法。 新生代和老年代的回收机制。 讲一下ArrayList和linkedlist的区别,ArrayList与HashMap的扩容方式。 Concurrenthashmap1.8后的改动。 Java中的多线程,以及线程池的增长策略和拒绝策略了解么。 Tomcat的类加载器了解么 Spring的ioc和aop,Springmvc的基本架构,请求流程。 HTTP协议与Tcp有什么区别,http1.0和2.0的区别。 Java的网络编程,讲讲NIO的实现方式,与BIO的区别,以及介绍常用的NIO框架。 索引什么时候会失效变成全表扫描 介绍下分布式的paxos和raft算法 6.2 蚂蚁中间件二面 你在项目中怎么用到并发的。 消息队列的使用场景,谈谈Kafka。 你说了解分布式服务,那么你怎么理解分布式服务。 Dubbo和Spring Clound的区别,以及使用场景。 讲一下docker的实现原理,以及与JVM的区别。 MongoDB、Redis和Memcached的应用场景,各自优势 MongoDB有事务吗 Redis说一下sorted set底层原理 讲讲Netty为什么并发高,相关的核心组件有哪些 6.3 蚂蚁中间件三面 完整的画一个分布式集群部署图,从负载均衡到后端数据库集群。 分布式锁的方案,Redis和Zookeeper哪个好,如果是集群部署,高并发情况下哪个性能更好。 分布式系统的全局id如何实现。 数据库万级变成亿级,你如何来解决。 常见的服务器雪崩是由什么引起的,如何来防范。 异地容灾怎么实现 常用的高并发技术解决方案有哪些,以及对应的解决步骤。 07 京东4面(Java研发) 7.1 一面(基础面:约1小时) 自我介绍,主要讲讲做了什么和擅长什么 springmvc和spring-boot区别 @Autowired的实现原理 Bean的默认作用范围是什么?其他的作用范围? 索引是什么概念有什么作用?MySQL里主要有哪些索引结构?哈希索引和B+树索引比较? Java线程池的原理?线程池有哪些?线程池工厂有哪些线程池类型,及其线程池参数是什么? hashmap原理,处理哈希冲突用的哪种方法? 还知道什么处理哈希冲突的方法? Java GC机制?GC Roots有哪些? Java怎么进行垃圾回收的?什么对象会进老年代?垃圾回收算法有哪些?为什么新生代使用复制算法? HashMap的时间复杂度?HashMap中Hash冲突是怎么解决的?链表的上一级结构是什么?Java8中的HashMap有什么变化?红黑树需要比较大小才能进行插入,是依据什么进行比较的?其他Hash冲突解决方式? hash和B+树的区别?分别应用于什么场景?哪个比较好? 项目里有个数据安全的,aes和md5的区别?详细点 7.2 二面(问数据库较多) 自我介绍 为什么MyISAM查询性能好? 事务特性(acid) 隔离级别 SQL慢查询的常见优化步骤? 说下乐观锁,悲观锁(select for update),并写出sql实现 TCP协议的三次握手和四次挥手过程? 用到过哪些rpc框架 数据库连接池怎么实现 Java web过滤器的生命周期 7.3 三面(综合面;约一个小时) 自我介绍。 ConcurrentHashMap 在Java7和Java8中的区别?为什么Java8并发效率更好?什么情况下用HashMap,什么情况用ConcurrentHashMap? 加锁有什么机制? ThreadLocal?应用场景? 数据库水平切分,垂直切分的设计思路和切分顺序 Redis如何解决key冲突 soa和微服务的区别? 单机系统演变为分布式系统,会涉及到哪些技术的调整?请从前面负载到后端详细描述。 设计一个秒杀系统? 7.4 四面(HR面) 你自己最大优势和劣势是什么 平时遇见过什么样的挑战,怎么去克服的 工作中遇见了技术解决不了的问题,你的应对思路? 你的兴趣爱好? 未来的职业规划是什么? 08 美团java高级开发3面 8.1 美团一面 自我介绍 项目介绍 Redis介绍 了解redis源码么 了解redis集群么 Hashmap的原理,增删的情况后端数据结构如何位移 hashmap容量为什么是2的幂次 hashset的源码 object类你知道的方法 hashcode和equals 你重写过hashcode和equals么,要注意什么 假设现在一个学生类,有学号和姓名,我现在hashcode方法重写的时候,只将学号参与计算,会出现什么情况? 往set里面put一个学生对象,然后将这个学生对象的学号改了,再put进去,可以放进set么?并讲出为什么 Redis的持久化?有哪些方式,原理是什么? 讲一下稳定的排序算法和不稳定的排序算法 讲一下快速排序的思想 8.2 美团二面 自我介绍 讲一下数据的acid 什么是一致性 什么是隔离性 Mysql的隔离级别 每个隔离级别是如何解决 Mysql要加上nextkey锁,语句该怎么写 Java的内存模型,垃圾回收 线程池的参数 每个参数解释一遍 然后面试官设置了每个参数,给了是个线程,让描述出完整的线程池执行的流程 Nio和IO有什么区别 Nio和aio的区别 Spring的aop怎么实现 Spring的aop有哪些实现方式 动态代理的实现方式和区别 Linux了解么 怎么查看系统负载 Cpu load的参数如果为4,描述一下现在系统处于什么情况 Linux,查找磁盘上最大的文件的命令 Linux,如何查看系统日志文件 手撕算法:leeetcode原题 22,Generate Parentheses,给定 n 对括号,请- 写一个函数以将其生成新的括号组合,并返回所有组合结果。 8.3 美团三面(现场) 三面没怎么问技术,问了很多技术管理方面的问题 自我介绍 项目介绍 怎么管理项目成员 当意见不一致时,如何沟通并说服开发成员,并举个例子 怎么保证项目的进度 数据库的索引原理 非聚簇索引和聚簇索引 索引的使用注意事项 联合索引 从底层解释最左匹配原则 Mysql对联合索引有优化么?会自动调整顺序么?哪个版本开始优化? Redis的应用 Redis的持久化的方式和原理 技术选型,一个新技术和一个稳定的旧技术,你会怎么选择,选择的考虑有哪些 说你印象最深的美团点评技术团队的三篇博客 最近在学什么新技术 你是怎么去接触一门新技术的 会看哪些书 怎么选择要看的书 最后 由于篇幅限制,小编在此截出几张知识讲解的图解,有需要的程序猿(媛)可以点赞后戳这里免费领取全部资料获取哦 子 怎么保证项目的进度 数据库的索引原理 非聚簇索引和聚簇索引 索引的使用注意事项 联合索引 从底层解释最左匹配原则 Mysql对联合索引有优化么?会自动调整顺序么?哪个版本开始优化? Redis的应用 Redis的持久化的方式和原理 技术选型,一个新技术和一个稳定的旧技术,你会怎么选择,选择的考虑有哪些 说你印象最深的美团点评技术团队的三篇博客 最近在学什么新技术 你是怎么去接触一门新技术的 会看哪些书 怎么选择要看的书 最后 由于篇幅限制,小编在此截出几张知识讲解的图解,有需要的程序猿(媛)可以点赞后戳这里免费领取全部资料获取哦 [外链图片转存中…(img-SFREePIJ-1624074891834)] [外链图片转存中…(img-5kF3pkiC-1624074891834)] [外链图片转存中…(img-HDVXfOMR-1624074891835)] [外链图片转存中…(img-RyaAC5jy-1624074891836)] [外链图片转存中…(img-iV32C5Ok-1624074891837)] 本篇文章为转载内容。原文链接:https://blog.csdn.net/m0_57285325/article/details/118051767。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-11-13 23:43:59
85
转载
Golang
...录等)保存到诸如MySQL等数据库系统中,确保即使在服务器重启或程序关闭后,这些数据仍然能够被有效管理和使用。 并发处理能力 , 并发处理能力是指编程语言或系统同时执行多个任务的能力。在Golang中,通过其独特的goroutine和channel机制实现了高效的并发处理。goroutine是一种轻量级线程,由Golang运行时管理,可以在单个进程中创建成千上万个并发执行的实体,而channel则用于goroutine之间的通信和同步,从而使得Golang在面对高并发场景时表现优秀。 MySQL , MySQL是一个开源的关系型数据库管理系统(RDBMS),广泛应用于Web应用开发中。它遵循SQL标准,提供事务处理、触发器、视图等功能,并支持多种存储引擎以满足不同应用场景的需求。在本文中,MySQL作为数据持久化的存储解决方案之一,与Golang进行交互,实现数据的高效插入、查询等操作。
2023-03-23 17:32:03
468
冬日暖阳-t
Go Iris
...假设我们正在使用MySQL数据库,我们可以这样配置: go import ( "github.com/kataras/iris/v12" "github.com/go-sql-driver/mysql" ) func main() { app := iris.New() // 配置MySQL连接 config := mysql.NewConfig() config.User = "root" config.Passwd = "password" config.Net = "tcp" config.Addr = "localhost:3306" config.DBName = "testdb" // 设置锁类型 config.InterpolateParams = true config.Params = map[string]string{ "charset": "utf8mb4", "parseTime": "True", "loc": "Local", "sql_mode": "STRICT_TRANS_TABLES,NO_ZERO_IN_DATE,NO_ZERO_DATE,ERROR_FOR_DIVISION_BY_ZERO,NO_AUTO_CREATE_USER,NO_ENGINE_SUBSTITUTION", "tx_isolation": "READ-COMMITTED", // 这里设置为读提交,你可以根据需求调整 } // 创建数据库连接池 db, err := sql.Open("mysql", config.FormatDSN()) if err != nil { panic(err) } // 使用数据库连接池 app.Use(func(ctx iris.Context) { ctx.Values().Set("db", db) ctx.Next() }) // 定义路由 app.Get("/", func(ctx iris.Context) { db := ctx.Values().Get("db").(sql.DB) // 开始事务 tx, err := db.Begin() if err != nil { ctx.StatusCode(iris.StatusInternalServerError) ctx.WriteString("Error starting transaction") return } defer tx.Rollback() // 执行查询 stmt, err := tx.Prepare("SELECT FROM users WHERE id = ? FOR UPDATE") if err != nil { ctx.StatusCode(iris.StatusInternalServerError) ctx.WriteString("Error preparing statement") return } defer stmt.Close() var user User err = stmt.QueryRow(1).Scan(&user.ID, &user.Name, &user.Email) if err != nil { ctx.StatusCode(iris.StatusInternalServerError) ctx.WriteString("Error executing query") return } // 更新数据 _, err = tx.Exec("UPDATE users SET name = ? WHERE id = ?", "New Name", user.ID) if err != nil { ctx.StatusCode(iris.StatusInternalServerError) ctx.WriteString("Error updating data") return } // 提交事务 err = tx.Commit() if err != nil { ctx.StatusCode(iris.StatusInternalServerError) ctx.WriteString("Error committing transaction") return } ctx.WriteString("Data updated successfully!") }) // 启动服务器 app.Run(iris.Addr(":8080")) } 5. 实际应用中的考虑 在实际应用中,我们需要根据具体的业务场景选择合适的锁类型。比如说,如果有好几个小伙伴得同时查看数据,又不想互相打扰,那我们就用共享锁来搞定。要是你想保证数据一致,防止同时有人乱改,那就得用排他锁了。 另外,要注意的是,过度使用锁可能会导致性能问题,因为锁会阻塞其他事务的执行。因此,在设计系统时,我们需要权衡数据一致性和性能之间的关系。 6. 结语 通过今天的讨论,希望大家对Iris框架中的数据库锁类型配置有了更深入的理解。虽然设置锁类型会让事情变得稍微复杂一点,但这样做真的能帮我们更好地应对多任务同时进行时可能出现的问题,确保系统稳稳当当的不掉链子。 最后,我想说的是,技术的学习是一个不断积累的过程。有时候,我们会觉得某些概念很难理解,但这都是正常的。只要我们保持好奇心和探索精神,总有一天会豁然开朗。希望你们能够持续学习,不断进步! 谢谢大家!
2025-02-23 16:37:04
75
追梦人
转载文章
...TreeNode("查询用户"); DefaultMutableTreeNode dmtn_jieyue = new DefaultMutableTreeNode("借阅管理"); DefaultMutableTreeNode dmtn_jieyue_insert = new DefaultMutableTreeNode("增加借阅信息"); DefaultMutableTreeNode dmtn_jieyue_update = new DefaultMutableTreeNode("修改借阅信息"); DefaultMutableTreeNode dmtn_jieyue_delete = new DefaultMutableTreeNode("删除借阅信息"); DefaultMutableTreeNode dmtn_jieyue_select = new DefaultMutableTreeNode("查询借阅信息"); dmtn_yonghu.add(dmtnQieHuan); dmtn_yonghu.add(dmtn_yonghu_insert); dmtn_yonghu.add(dmtn_yonghu_update); dmtn_yonghu.add(dmtn_yonghu_delete); dmtn_yonghu.add(dmtn_yonghu_select); dmtn_jieyue.add(dmtn_jieyue_insert); dmtn_jieyue.add(dmtn_jieyue_update); dmtn_jieyue.add(dmtn_jieyue_delete); dmtn_jieyue.add(dmtn_jieyue_select); dmtn1.add(dmtn_yonghu); dmtn1.add(dmtn_jieyue); JTree1 = new JTree(dmtn1); JTree1.addTreeSelectionListener(new swingJpanelShiJian(this)); JTree1.setBackground(Color.white); jpPinkLeft.setBackground(Color.white); //JTree1.setBounds(10,170,200,450);在这里是一句没效果的代码 jpPinkLeft.add(JTree1); this.add(jpRed);this.add(jpPinkLeft); this.add(jpGreenRightBottom2); this.add(jpBlueRightBottom1); this.setDefaultCloseOperation(JFrame.EXIT_ON_CLOSE); this.setVisible(true); } } class swingJpanelShiJian implements ActionListener, TreeSelectionListener{ //jieShou接收 //chuangTi窗体 public static swingJpanelQieHuan jieShou; public swingJpanelShiJian(swingJpanelQieHuan chuangTi){ jieShou=chuangTi; } @Override public void actionPerformed(ActionEvent arg0) { String neiRong=arg0.getActionCommand(); if(neiRong.equals("点赞界面")){ jieShou.jpBlueRightBottom1.setVisible(true); jieShou.jpGreenRightBottom2.setVisible(false); }else if(neiRong.equals("三连关注界面")){ jieShou.jpBlueRightBottom1.setVisible(false); jieShou.jpGreenRightBottom2.setVisible(true); } } @Override public void valueChanged(TreeSelectionEvent arg0) { DefaultMutableTreeNode str = (DefaultMutableTreeNode) jieShou.JTree1 .getLastSelectedPathComponent(); if (str.toString().equals("切换到登录界面")) { new newDengLu(); } else { } } } JTable初始化表格 package swing; public class mains { public static void main(String[] args) { new swingBiaoGe(); } } package swing; import java.util.Vector; import javax.swing.; import javax.swing.table.DefaultTableModel; public class swingBiaoGe extends JFrame{ //要声明 : 装载内容的容器,table的控件, 容器的标题, 容器的具体的内容。 public static JTable biaoGe=null;//JTable为表格的控件 //要声明装载内容的容器,如下: public static DefaultTableModel DTM=null; //Vector中: //一个放标题,一个放内容 //>表示只接受集合的类型 Vector biaoTi; Vector> neiRong; public swingBiaoGe(){ this.setLayout(null); this.setSize(600,600); this.setLocationRelativeTo(null); //给标题赋值: biaoTi=new Vector(); biaoTi.add("编号");biaoTi.add("姓名"); biaoTi.add("性别");biaoTi.add("年龄"); //给内容赋值: neiRong=new Vector>(); for(int i=0;i<5;i++){ Vector v=new Vector(); v.add("编号"+(i+6));v.add("诗书画唱"+(i+6)); v.add("性别"+(i+6));v.add("年龄"+(i+6)); neiRong.add(v); } //将内容添加到装载内容的容器中: DTM=new DefaultTableModel(neiRong,biaoTi); DTM=new DefaultTableModel(neiRong,biaoTi) { @Override public boolean isCellEditable(int a, int b) { return false; } }; biaoGe=new JTable(DTM); //设置滚动条: JScrollPane jsp=new JScrollPane(biaoGe); jsp.setBounds(10,10,400,400); this.add(jsp); this.setDefaultCloseOperation(JFrame.EXIT_ON_CLOSE); this.setVisible(true); } } JTable初始化数据,数据要求链接JDBC获取 create database yonghu select from shangpin; select from sp_Type; create table sp_Type( sp_TypeID int primary key identity(1,1), sp_TypeName varchar(100) not null ); insert into sp_Type values('水果'); insert into sp_Type values('零食'); insert into sp_Type values('小吃'); insert into sp_Type values('日常用品'); create table shangpin( sp_ID int primary key identity(1,1), sp_Name varchar(100) not null, sp_Price decimal(10,2) not null, sp_TypeID int, sp_Jieshao varchar(300) ); insert into shangpin values('苹果',12,1,'好吃的苹果'); insert into shangpin values('香蕉',2,1,'好吃的香蕉'); insert into shangpin values('橘子',4,1,'好吃的橘子'); insert into shangpin values('娃哈哈',3,2,'好吃营养好'); insert into shangpin values('牙刷',5,4,'全自动牙刷'); package SwingJdbc; import java.awt.event.ActionEvent; import java.awt.event.ActionListener; import java.awt.event.MouseEvent; import java.awt.event.MouseListener; import java.sql.ResultSet; import java.sql.SQLException; import java.util.Vector; import javax.swing.JButton; import javax.swing.JComboBox; import javax.swing.JFrame; import javax.swing.JLabel; import javax.swing.JOptionPane; import javax.swing.JPanel; import javax.swing.JScrollPane; import javax.swing.JTable; import javax.swing.JTextField; import javax.swing.table.DefaultTableModel; public class biaoGe extends JFrame { class shiJian implements MouseListener, ActionListener { public biaoGe jieShou = null; public shiJian(biaoGe chuangTi) { this.jieShou = chuangTi; } @Override public void actionPerformed(ActionEvent arg0) { String name = jieShou.wenBenKuangName.getText(); String price = jieShou.wenBenKuangPrice.getText(); String type = jieShou.wenBenKuangTypeId.getText(); String jieshao = jieShou.wenBenKuangJieShao. getText(); String sql = "insert into shangpin values('" + name + "'" + ", " + price + "," + type + ",'" + jieshao + "')"; if (DBUtils.ZSG(sql)) { JOptionPane.showMessageDialog(null, "增加成功"); jieShou.chaxunchushihua(); } else { JOptionPane.showMessageDialog(null, "出现了未知的错误,增加失败"); } } @Override public void mouseClicked(MouseEvent arg0) { if (arg0.getClickCount() == 2) { int row = jieShou.biaoGe1.getSelectedRow(); jieShou.wenBenKuangBianHao .setText(jieShou.biaoGe1.getValueAt( row, 0).toString()); jieShou.wenBenKuangName .setText(jieShou.biaoGe1.getValueAt( row, 1).toString()); jieShou.wenBenKuangPrice .setText(jieShou.biaoGe1.getValueAt( row, 2).toString()); jieShou.wenBenKuangTypeId .setText(jieShou.biaoGe1.getValueAt( row, 3).toString()); jieShou.wenBenKuangJieShao .setText(jieShou.biaoGe1.getValueAt( row, 4).toString()); } if (arg0.isMetaDown()) { int num = JOptionPane.showConfirmDialog(null, "是否确认删除这条信息?"); if (num == 0) { int row = jieShou.biaoGe1 .getSelectedRow(); String sql = "delete shangpin where sp_id=" + jieShou.biaoGe1.getValueAt( row, 0) + ""; if (DBUtils.ZSG(sql)) { JOptionPane.showMessageDialog(null, "册除成功"); jieShou.chaxunchushihua(); } else { JOptionPane.showMessageDialog(null, "出现了未知的错误,请重试"); } } } } @Override public void mouseEntered(MouseEvent arg0) { // TODO Auto-generated method stub } @Override public void mouseExited(MouseEvent arg0) { // TODO Auto-generated method stub } @Override public void mousePressed(MouseEvent arg0) { // TODO Auto-generated method stub } @Override public void mouseReleased(MouseEvent arg0) { // TODO Auto-generated method stub } } static JButton zengJiaAnNiu = null; static DefaultTableModel biaoGeMoXing1 = null; static JScrollPane gunDongTiao = null; static JTable biaoGe1 = null; static JLabel wenZiBianHao, wenZiName, wenZiPrice, wenZiTypeId, wenZiJieShao; static JTextField wenBenKuangBianHao, wenBenKuangName, wenBenKuangPrice, wenBenKuangTypeId, wenBenKuangJieShao; static Vector BiaoTiJiHe = null; static Vector> NeiRongJiHe = null; JPanel mianBan1, mianBan2 = null; public biaoGe() { this.setTitle("登录后的界面"); this.setSize(800, 600); this.setLayout(null); this.setLocationRelativeTo(null); wenZiBianHao = new JLabel("编号"); wenZiName = new JLabel("名称"); wenZiPrice = new JLabel("价格"); wenZiTypeId = new JLabel("类型ID"); wenZiJieShao = new JLabel("介绍"); zengJiaAnNiu = new JButton("添加数据"); zengJiaAnNiu.setBounds(530, 390, 100, 30); zengJiaAnNiu.addActionListener(new shiJian(this)); this.add(zengJiaAnNiu); wenZiBianHao.setBounds(560, 100, 70, 30); wenZiName.setBounds(560, 140, 70, 30); wenZiPrice.setBounds(560, 180, 70, 30); wenZiTypeId.setBounds(560, 220, 70, 30); wenZiJieShao.setBounds(560, 260, 70, 30); this.add(wenZiBianHao); this.add(wenZiName); this.add(wenZiPrice); this.add(wenZiTypeId); this.add(wenZiJieShao); wenBenKuangBianHao = new JTextField(); wenBenKuangBianHao.setEditable(false); wenBenKuangName = new JTextField(); wenBenKuangPrice = new JTextField(); wenBenKuangTypeId = new JTextField(); wenBenKuangJieShao = new JTextField(); wenBenKuangBianHao.setBounds(640, 100, 130, 30); wenBenKuangName.setBounds(640, 140, 130, 30); wenBenKuangPrice.setBounds(640, 180, 130, 30); wenBenKuangTypeId.setBounds(640, 220, 130, 30); wenBenKuangJieShao.setBounds(640, 260, 130, 30); this.add(wenBenKuangBianHao); this.add(wenBenKuangName); this.add(wenBenKuangPrice); this.add(wenBenKuangTypeId); this.add(wenBenKuangJieShao); biaoGeFengZhuangFangFa(); this.setDefaultCloseOperation(JFrame.EXIT_ON_CLOSE); this.setVisible(true); } //biaoGeFengZhuangFangFa表格的封装方法 private void biaoGeFengZhuangFangFa() { BiaoTiJiHe = new Vector(); BiaoTiJiHe.add("编号"); BiaoTiJiHe.add("名称"); BiaoTiJiHe.add("价格"); BiaoTiJiHe.add("类型"); BiaoTiJiHe.add("介绍"); String sql = "select from shangpin"; ResultSet res = DBUtils.Select(sql); try { NeiRongJiHe = new Vector>(); while (res.next()) { Vector v = new Vector(); v.add(res.getInt("sp_ID")); v.add(res.getString("sp_Name")); v.add(res.getDouble("sp_price")); v.add(res.getInt("sp_TypeID")); v.add(res.getString("sp_Jieshao")); NeiRongJiHe.add(v); } biaoGeMoXing1 = new DefaultTableModel(NeiRongJiHe, BiaoTiJiHe) { @Override public boolean isCellEditable(int a, int b) { return false; } }; biaoGe1 = new JTable(biaoGeMoXing1); biaoGe1.addMouseListener(new shiJian(this)); biaoGe1.setBounds(0, 0, 500, 500); gunDongTiao= new JScrollPane(biaoGe1); gunDongTiao .setBounds(0, 0, 550, 150); mianBan1 = new JPanel(); mianBan1.add(gunDongTiao ); mianBan1.setBounds(0, 0, 550, 250); this.add(mianBan1); } catch (SQLException e) { e.printStackTrace(); } } public void chaxunchushihua() { if (this.mianBan1 != null) { this.remove(mianBan1); } biaoGeFengZhuangFangFa(); // 释放资源:this.setDefaultCloseOperation(JFrame.EXIT_ON_CLOSE); this.setVisible(true); } } package SwingJdbc; import java.sql.; public class DBUtils { static Connection con=null; static Statement sta=null; static ResultSet res=null; //在静态代码块中执行 static{ try { Class.forName("com.microsoft.sqlserver.jdbc.SQLServerDriver"); } catch (ClassNotFoundException e) { // TODO Auto-generated catch block e.printStackTrace(); } } //封装链接数据库的方法 public static Connection getCon(){ if(con==null){ try { con=DriverManager.getConnection ("jdbc:sqlserver://localhost;databaseName=yonghu","qqq","123"); } catch (SQLException e) { // TODO Auto-generated catch block e.printStackTrace(); } } return con; } //查询的方法 public static ResultSet Select(String sql){ con=getCon();//建立数据库链接 try { sta=con.createStatement(); res=sta.executeQuery(sql); } catch (SQLException e) { // TODO Auto-generated catch block e.printStackTrace(); } return res; } //增删改查的方法 //返回int类型的数据 public static boolean ZSG(String sql){ con=getCon();//建立数据库链接 boolean b=false; try { sta=con.createStatement(); int num=sta.executeUpdate(sql); //0就是没有执行成功,大于0 就成功了 if(num>0){ b=true; } } catch (SQLException e) { // TODO Auto-generated catch block e.printStackTrace(); } return b; } } package SwingJdbc; public class mains { public static void main(String[] args) { new biaoGe(); } } 本篇文章为转载内容。原文链接:https://blog.csdn.net/weixin_39929646/article/details/114190817。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-01-18 08:36:23
525
转载
Sqoop
... 引言 Sqoop(SQL-to-Hadoop)作为大数据生态系统中的重要工具,承担着关系型数据库与Hadoop之间高效、便捷的数据迁移重任。它就像一个超级能干的“数据搬运工”,不辞辛苦地把企业那些海量的、整齐排列的数据从RDBMS这个仓库,搬到Hadoop的大数据分析基地去深度挖掘和处理;或者有时候也会反向操作,把数据从Hadoop搬回到RDBMS中。 shell 一个简单的Sqoop导入示例 sqoop import \ --connect jdbc:mysql://localhost:3306/mydatabase \ --username myuser \ --password mypassword \ --table mytable \ --target-dir /user/hadoop/mytable_imported 这个命令展示了如何从MySQL数据库导入mytable表到HDFS的/user/hadoop/mytable_imported目录下。 2. Sqoop工作原理及功能特性 (此处详细描述Sqoop的工作原理,如并行导入导出、自动生成Java类、分区导入等特性) 2.1 并行导入示例 Sqoop利用MapReduce模型实现并行数据导入,大幅提高数据迁移效率。 shell sqoop import --num-mappers 4 ... 此命令设置4个map任务并行执行数据导入操作。 3. Sqoop的基本使用 (这里详细说明Sqoop的各种命令,包括import、export、create-hive-table等,并给出实例) 3.1 Sqoop Import 实例详解 shell 示例:将Oracle表同步至Hive表 sqoop import \ --connect jdbc:oracle:thin:@//hostname:port/service_name \ --username username \ --password password \ --table source_table \ --hive-import \ --hive-table target_table 这段代码演示了如何将Oracle数据库中的source_table直接导入到Hive的target_table。 4. Sqoop高级应用与实践问题探讨 (这部分深入探讨Sqoop的一些高级用法,如增量导入、容错机制、自定义连接器等,并通过具体案例阐述) 4.1 增量导入策略 shell 使用lastmodified或incremental方式实现增量导入 sqoop import \ --connect ... \ --table source_table \ --check-column id \ --incremental lastmodified \ --last-value 这段代码展示了如何根据最后一次导入的id值进行增量导入。 5. Sqoop在实际业务场景中的应用与挑战 (在这部分,我们可以探讨Sqoop在真实业务环境下的应用场景,以及可能遇到的问题及其解决方案) 以上仅为大纲及部分内容展示,实际上每部分都需要进一步拓展、深化和情感化的表述,使读者能更好地理解Sqoop的工作机制,掌握其使用方法,并能在实际工作中灵活运用。为了达到1000字以上的要求,每个章节都需要充实详尽的解释、具体的思考过程、理解难点解析以及更多的代码实例和应用场景介绍。
2023-02-17 18:50:30
130
雪域高原
Golang
...问,咱们通常就是扯到SQL查询啊,还有怎么管事务,再有就是怎么用连接池这些事儿。 1.1 连接池的重要性 连接池是数据库访问中非常关键的一环。它允许我们在不频繁建立新连接的情况下,重用已有的数据库连接,从而提高效率并减少资源消耗。想象一下,如果你每次执行SQL查询都要打开一个新的数据库连接,那效率该有多低啊! 1.2 SQL查询与ORM 在进行数据库操作时,我们有两种主要的方法:直接编写SQL语句或者使用ORM(对象关系映射)。直接编写SQL语句虽然能够提供更多的控制权,但可能会增加出错的风险。而ORM则通过将数据库表映射到程序中的对象,使得数据操作更加直观。不过,选择哪种方式,还要根据具体的应用场景和个人偏好来决定。 2. 实践篇 构建高性能数据库访问 现在,让我们进入实践部分。咱们这就来点儿实战教学,用几个小例子带你看看怎么用Go语言搞定又快又稳的数据库操作。 2.1 使用标准库 database/sql Go语言的标准库提供了database/sql包,它是一个用于SQL数据库的通用接口。下面是一个简单的例子: go package main import ( "database/sql" _ "github.com/go-sql-driver/mysql" // 注意这里需要导入MySQL驱动 "fmt" ) func main() { db, err := sql.Open("mysql", "user:password@tcp(127.0.0.1:3306)/dbname") if err != nil { panic(err.Error()) } defer db.Close() // 执行一个简单的查询 rows, err := db.Query("SELECT id, name FROM users") if err != nil { panic(err.Error()) } defer rows.Close() for rows.Next() { var id int var name string err = rows.Scan(&id, &name) if err != nil { panic(err.Error()) } fmt.Println(id, name) } } 2.2 使用ORM工具:Gorm 对于更复杂的项目,使用ORM工具如Gorm可以极大地简化数据库操作。Gorm就像是给数据库操作加了个“翻译”,让我们可以用更贴近日常说话的方式来摆弄数据库里的数据,感觉就像是在玩弄对象一样轻松。下面是如何使用Gorm的一个简单示例: go package main import ( "gorm.io/driver/mysql" "gorm.io/gorm" "log" ) type User struct { ID uint Name string } func main() { dsn := "user:password@tcp(127.0.0.1:3306)/dbname?charset=utf8mb4&parseTime=True&loc=Local" db, err := gorm.Open(mysql.Open(dsn), &gorm.Config{}) if err != nil { log.Fatal(err) } // 创建用户 newUser := User{Name: "John Doe"} db.Create(&newUser) // 查询用户 var user User db.First(&user, newUser.ID) log.Printf("Found user: %s\n", user.Name) } 3. 性能优化技巧 在实际开发中,除了基础的数据库操作外,我们还需要考虑如何进一步优化性能。这里有几个建议: - 索引:确保你的数据库表上有适当的索引,特别是对于那些频繁查询的字段。 - 缓存:利用缓存机制(如Redis)来存储常用的数据结果,可以显著减少数据库的负载。 - 批量操作:尽量减少与数据库的交互次数,比如批量插入或更新数据。 - 异步处理:对于耗时的操作,可以考虑使用异步处理方式,避免阻塞主线程。 4. 结语 通过以上的内容,我们大致了解了如何使用Go语言进行高性能的数据库访问和操作。当然,这只是冰山一角,真正的高手之路还很长。希望能给你带来点儿灵感,让你在Go语言的路上越走越远,越走越顺!记住,编程是一场马拉松,不是短跑,保持耐心,不断学习和尝试新的东西吧! --- 希望这篇文章能帮助你更好地理解和应用Golang在数据库访问方面的最佳实践。如果你有任何问题或想法,欢迎随时交流讨论!
2024-10-21 15:42:48
78
百转千回
Spark
...家伙没法正常启动或者执行任务,这确实挺让人挠头的。本文将深入探讨这一问题,并通过实例代码揭示它的重要性。 1. Spark与依赖库的关系 (1) 依赖库的重要性 在Spark的工作机制中,它自身提供了一系列核心功能库,如spark-core负责基本的分布式任务调度,spark-sql实现SQL查询等。为了应对各种业务需求,Spark往往需要和其他好伙伴——第三方库一起携手工作。比如,如果你想和数据库打交道,就可能得请出JDBC驱动这位“翻译官”。再比如,当你需要进行机器学习这类高大上的任务时,MLlib或者其他的深度学习库就成了你必不可少的得力助手啦。这些“依赖库”,你就想象成是Spark引擎运行必需的“小帮手”或者说是“关键零部件”。没有它们,就好比一辆汽车缺了心脏般的重要零件,哪怕引擎再猛如虎,也只能干瞪眼没法跑起来。 (2) 依赖传递性 在构建Spark应用时,我们需要通过构建工具(如Maven、Sbt)明确指定项目的依赖关系。这里说的依赖,可不是仅仅局限在Spark自己的核心组件里,还包括咱们应用“嗷嗷待哺”的其他第三方库。这些库之间,就好比是一群互相帮忙的朋友,关系错综复杂。如果其中任何一个朋友缺席了,那整个团队的工作可能就要乱套,咱们的应用也就没法正常运转啦。 2. 缺少依赖库引发的问题实例 假设我们要用Spark读取MySQL数据库中的数据,首先需要引入JDBC驱动依赖: scala // 在build.sbt文件中添加依赖 libraryDependencies += "mysql" % "mysql-connector-java" % "8.0.23" // 或在pom.xml文件中添加依赖 mysql mysql-connector-java 8.0.23 然后在代码中尝试连接MySQL: scala import org.apache.spark.sql.SparkSession val spark = SparkSession.builder.appName("mysqlExample").getOrCreate() val jdbcDF = spark.read.format("jdbc") .option("url", "jdbc:mysql://localhost:3306/mydatabase") .option("driver", "com.mysql.jdbc.Driver") .option("dbtable", "mytable") .load() jdbcDF.show() 如果此时没有正确引入并配置MySQL JDBC驱动,上述代码在运行时就会抛出类似于NoClassDefFoundError: com/mysql/jdbc/Driver的异常,表明Spark找不到相应的类定义,这就是典型的因缺少依赖库而导致的运行错误。 3. 如何避免和解决依赖库缺失问题 (1) 全面且精确地声明依赖 在项目初始化阶段,务必详细列出所有必需的依赖库及其版本信息,确保它们能在构建过程中被正确下载和打包。 (2) 利用构建工具管理依赖 利用Maven、Gradle或Sbt等构建工具,可以自动解析和管理项目依赖关系,减少手动管理带来的疏漏。 (3) 检查和更新依赖 定期检查和更新项目依赖库,以适应新版本API的变化以及修复潜在的安全漏洞。 (4) 理解依赖传递性 深入理解各个库之间的依赖关系,防止因间接依赖导致的问题。当遇到问题时,可通过查看构建日志或使用mvn dependency:tree命令来排查依赖树结构。 总结来说,依赖库对于Spark这类复杂的应用框架而言至关重要。只有妥善管理和维护好这些“零部件”,才能保证Spark引擎稳定高效地运转。所以,开发者们在尽情享受Spark带来的各种便捷时,也千万不能忽视对依赖库的管理和配置这项重要任务。只有这样,咱们的大数据探索之路才能走得更顺溜,一路绿灯,畅通无阻。
2023-04-22 20:19:25
96
灵动之光
Beego
...设置超时时间以及优化SQL查询等手段来解决“连接池耗尽”这一棘手问题。 此外,针对云原生环境下的数据库服务,Kubernetes社区也提出了相关的解决方案。例如,通过Horizontal Pod Autoscaler(HPA)自动扩缩数据库连接池规模,配合Service Mesh实现更细粒度的流量控制和熔断机制,从而有效避免因瞬时流量高峰导致的数据库连接资源耗尽。 综上所述,理解并妥善解决数据库连接池耗尽问题已成为现代应用开发与运维的重要课题,需要开发者紧跟业界最新动态和技术发展趋势,灵活运用多种策略进行综合优化。
2023-08-08 14:54:48
553
蝶舞花间-t
转载文章
mysqldump , mysqldump是MySQL数据库系统自带的一个用于备份数据库的实用工具,它能够生成SQL语句来表示选定数据库或表的结构以及数据。通过命令行界面调用此工具时,用户可以指定一系列选项来自定义导出行为,如是否包含表创建语句、锁定表以保证一致性、添加删除表的语句、压缩输出等。在本文中,mysqldump被详细介绍为一种进行数据库迁移、备份和恢复的关键手段。 INSERT DELAYED , INSERT DELAYED 是MySQL数据库中的一个插入选项,当与mysqldump结合使用时(通过--delayed选项),它可以将INSERT语句放入队列而不是立即执行,尤其适用于高并发写入场景。这种机制使得MySQL服务器在处理其他查询的同时逐渐处理这些延迟插入的行,从而提高整体性能。然而,需要注意的是,INSERT DELAYED不适用于InnoDB存储引擎。 TCP/IP端口指定连接 , 在MySQL数据库环境中,TCP/IP端口指定连接是指在使用mysqldump或其他客户端工具连接到MySQL服务器时,可以通过-P 或 --port 选项指定服务器监听的特定TCP/IP端口号。默认情况下,MySQL服务器通常在本地主机上监听3306端口,但在某些情况下,可能需要根据实际配置更改端口号以便正确建立连接。 LOAD DATA INFILE , LOAD DATA INFILE是MySQL提供的一种高效的数据导入方式,允许从文本文件快速地将大量数据加载到表中。在文章中提到的mysqldump的几个选项(如--fields-terminated-by, --fields-enclosed-by等)就是用来配合LOAD DATA INFILE语句,在导出数据时确保其格式与LOAD DATA INFILE所需的格式相匹配,便于后续快速导入数据。尽管在文中没有直接演示如何使用LOAD DATA INFILE,但这些选项的存在意味着导出的数据可以方便地用于该命令的导入操作。 MySQL客户端管道操作 , MySQL客户端管道操作是一种利用操作系统提供的管道功能,将mysqldump导出的SQL语句流式传输至另一个MySQL客户端(如mysql命令行工具),进而实现将数据从一个数据库导入到另一个数据库的过程。在本文中,展示了如何通过管道操作将mysqldump导出的SQL语句直接导入到远程MySQL服务器上的目标数据库中,这样既能减少磁盘I/O开销,又能提高数据迁移效率。例如,mysqldump --opt database | mysql --host=remote-host -C database就是一条典型的利用管道将数据从本地数据库迁移到远程数据库的命令。
2023-02-01 23:51:06
265
转载
转载文章
...用 课程计划媒资信息查询接口,获取该课程计划的视频播放的 m3u8 url地址,并返回给前端,前端使用该 url 进行视频的在线播放。 在线学习完整的测试流程:媒资信息的上传、选择、发布到前端门户、搜索门户测试,在线学习的播放视频。 目录 内容会比较多,小伙伴门可以根据目录进行按需查阅。 文章目录 😎 知识点概览 目录 一、学习页面:查询课程计划 0x01 需求分析 0x02 Api接口 0x03 服务端开发 Controller Service 测试 0x04 前端开发 配置NGINX虚拟主机 前端 API 方法 前端 API 方法调用 测试 二、学习页面:获取视频播放地址 0x01 需求分析 0x02 课程发布:储存媒资信息 需求分析 数据模型 Dao Service 测试 0x03 Logstash:扫描课程计划媒资 创建索引 创建模板文件 配置 mysql.conf 启动 logstash.bat Logstash多实例运行 0x04 搜素服务:查询课程媒资接口 需求分析 Api接口定义 Service Controller 测试 三、在线学习:接口开发 0x01 需求分析 0x02 搭建开发环境 0x03 Api接口 0x04 服务端开发 需求分析 搜索服务注册Eureka 搜索服务客户端 自定义错误代码 Service Controller 测试 0x05 前端开发 需求分析 api方法 配置代理 视频播放页面 简单的测试 完整的测试 1、上传文件 一些问题 ~~方案1:删除本地分块文件重新尝试上传~~ 方案2:检查前端提交的MD5值是否正确 2、为课程计划选择媒资信息 3、前端门户测试 四、待完善的一些功能 😁 认识作者 一、学习页面:查询课程计划 0x01 需求分析 到目前为止,我们已可以编辑课程计划信息并上传课程视频,下一步我们要实现在线学习页面动态读取章节对应的视频并进行播放。在线学习页面所需要的信息有两类: 课程计划信息 课程学习信息(视频地址、学习进度等) 如下图: 在线学习集成媒资管理的需求如下: 1、在线学习页面显示课程计划 2、点击课程计划播放该课程计划对应的视频 本章节实现学习页面动态显示课程计划,进入不同课程的学习页面右侧动态显示当前课程的课程计划。 0x02 Api接口 课程计划信息从哪里获取? 在课程发布完成后会自动发布到一个 course_pub 的表中,logstash 会自动将课程发布后的信息自动采集到 ES 索引库中,这些信息也包含课程计划信息。 所以考虑性能要求,课程发布后对课程的查询统一从 ES 索引库中查询。 前端通过请求 搜索服务 获取课程信息,需要单独在 搜索服务 中定义课程信息查询接口。 本接口接收课程id,查询课程所有信息返回给前端。 我们在搜素服务 API 下添加以下方法 @ApiOperation("根据id搜索课程发布信息")public Map<String,CoursePub> getdetail(String id); 返回的课程信息为 json 结构:key 为课程id,value 为课程内容。 0x03 服务端开发 在搜索服务中开发查询课程信息接口。 Controller 在搜素服务下添加以下方法 / 根据id搜索课程发布信息 @param id 课程id @return JSON数据/@Override@GetMapping("/getdetail/{id}")public Map<String, CoursePub> getdetail(@PathVariable("id")String id) {return esCourseService.getdetail(id);} Service / 根据id搜索课程发布信息 @param id 课程id @return JSON数据/public Map<String, CoursePub> getdetail(String id) {//设置索引SearchRequest searchRequest = new SearchRequest(es_index);//设置类型searchRequest.types(es_type);//创建搜索源对象SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();//设置查询条件,根据id进行查询searchSourceBuilder.query(QueryBuilders.termQuery("id",id));//这里不使用source的原字段过滤,查询所有字段// searchSourceBuilder.fetchSource(new String[]{"name", "grade", "charge","pic"}, newString[]{});//设置搜索源对象searchRequest.source(searchSourceBuilder);//执行搜索SearchResponse searchResponse = null;try {searchResponse = restHighLevelClient.search(searchRequest);} catch (IOException e) {e.printStackTrace();}//获取搜索结果SearchHits hits = searchResponse.getHits();SearchHit[] searchHits = hits.getHits(); //获取最优结果Map<String,CoursePub> map = new HashMap<>();for (SearchHit hit: searchHits) {//从搜索结果中取值并添加到coursePub对象Map<String, Object> sourceAsMap = hit.getSourceAsMap();String courseId = (String) sourceAsMap.get("id");String name = (String) sourceAsMap.get("name");String grade = (String) sourceAsMap.get("grade");String charge = (String) sourceAsMap.get("charge");String pic = (String) sourceAsMap.get("pic");String description = (String) sourceAsMap.get("description");String teachplan = (String) sourceAsMap.get("teachplan");CoursePub coursePub = new CoursePub();coursePub.setId(courseId);coursePub.setName(name);coursePub.setPic(pic);coursePub.setGrade(grade);coursePub.setTeachplan(teachplan);coursePub.setDescription(description);//设置map对象map.put(courseId,coursePub);}return map;} 测试 使用 swagger-ui 或 postman 测试查询课程信息接口。 0x04 前端开发 配置NGINX虚拟主机 学习中心的二级域名为 ucenter.xuecheng.com ,我们在 nginx 中配置 ucenter 虚拟主机。 学成网用户中心server {listen 80;server_name ucenter.xuecheng.com;个人中心location / {proxy_pass http://ucenter_server_pool;} } 前端ucenterupstream ucenter_server_pool{server 127.0.0.1:7081 weight=10;server 127.0.0.1:13000 weight=10;} 在学习中心要调用搜索的 API,使用 Nginx 解决代理,如下图: 在 ucenter 虚拟主机下配置搜索 Api 代理路径 后台搜索(公开api)upstream search_server_pool{server 127.0.0.1:40100 weight=10;} 学成网用户中心server {listen 80;server_name ucenter.xuecheng.com;个人中心location / {proxy_pass http://ucenter_server_pool;}后端搜索服务location /openapi/search/ {proxy_pass http://search_server_pool/search/;} } 前端 API 方法 在学习中心 xc-ui-pc-leanring 对课程信息的查询属于基础常用功能,所以我们将课程查询的 api 方法定义在base 模块下,如下图: 在system.js 中定义课程查询方法: import http from './public'export const course_view = id => {return http.requestGet('/openapi/search/course/getdetail/'+id);} 前端 API 方法调用 在 learning_video.vue 页面中调用课程信息查询接口得到课程计划,将课程计划json 串转成对象。 xc-ui-pc-leanring/src/module/course/page/learning_video.vue 1、定义视图 课程计划 <!--课程计划部分代码--><div class="navCont"><div class="course-weeklist"><div class="nav nav-stacked" v-for="(teachplan_first, index) in teachplanList"><div class="tit nav-justified text-center"><i class="pull-left glyphicon glyphicon-th-list"></i>{ {teachplan_first.pname} }<i class="pull-right"></i></div><li v-if="teachplan_first.children!=null" v-for="(teachplan_second, index) in teachplan_first.children"><i class="glyphicon glyphicon-check"></i><a :href="url" @click="study(teachplan_second.id)">{ {teachplan_second.pname} }</a></li><!-- <div class="tit nav-justified text-center"><i class="pull-left glyphicon glyphicon-th-list"></i>第一章<i class="pull-right"></i></div><li ><i class="glyphicon glyphicon-check"></i><a :href="url" >第一节</a></li>--><!--<li><i class="glyphicon glyphicon-unchecked"></i>为什么分为A、B、C部分</li>--></div></div></div> 课程名称 <div class="top text-center">{ {coursename} }</div> 定义数据对象 data() {return {url:'',//当前urlcourseId:'',//课程idchapter:'',//章节Idcoursename:'',//课程名称coursepic:'',//课程图片teachplanList:[],//课程计划playerOptions: {//播放参数autoplay: false,controls: true,sources: [{type: "application/x-mpegURL",src: ''}]},} } 在 created 钩子方法中获取课程信息 created(){//当前请求的urlthis.url = window.location//课程idthis.courseId = this.$route.params.courseId//章节idthis.chapter = this.$route.params.chapter//查询课程信息systemApi.course_view(this.courseId).then((view_course)=>{if(!view_course || !view_course[this.courseId]){this.$message.error("获取课程信息失败,请重新进入此页面!")return ;} let courseInfo = view_course[this.courseId]console.log(courseInfo)this.coursename = courseInfo.nameif(courseInfo.teachplan){let teachplan = JSON.parse(courseInfo.teachplan);this.teachplanList = teachplan.children;} })}, 测试 在浏览器请求:http://ucenter.xuecheng.com//learning/4028e581617f945f01617f9dabc40000/0 4028e581617f945f01617f9dabc40000:第一个参数为课程 id,测试时从 ES索引库找一个课程 id 0:第二个参数为课程计划 id,此参数用于点击课程计划播放视频。 如果出现跨域问题,但是确定已经配置了跨域,请尝试结束所以 nginx.exe 的进程 和 清空浏览器缓存。 如果还没有解决?重启电脑试试。 二、学习页面:获取视频播放地址 0x01 需求分析 用户进入在线学习页面,点击课程计划将播放该课程计划对应的教学视频。 业务流程如下: 业务流程说明: 1、用户进入在线学习页面,页面请求搜索服务获取课程信息(包括课程计划信息)并且在页面展示。 2、在线学习请求学习服务获取视频播放地址。 3、学习服务校验当前用户是否有权限学习,如果没有权限学习则提示用户。 4、学习服务校验通过,请求搜索服务获取课程媒资信息。 5、搜索服务请求ElasticSearch获取课程媒资信息。 为什么要请求 ElasticSearch 查询课程媒资信息? 出于性能的考虑,公开查询课程信息从搜索服务查询,分摊 mysql 数据库的访问压力。 什么时候将课程媒资信息存储到 ElasticSearch 中? 课程媒资信息是在课程发布的时候存入 ElasticSearch,因为课程发布后课程信息将基本不再修改。 0x02 课程发布:储存媒资信息 需求分析 课程媒资信息是在课程发布的时候存入 ElasticSearch 索引库,因为课程发布后课程信息将基本不再修改,具体的业务流程如下。 1、课程发布,向课程媒资信息表写入数据。 1)根据课程 id 删除 teachplanMediaPub 中的数据 2)根据课程 id 查询 teachplanMedia 数据 3)将查询到的 teachplanMedia 数据插入到 teachplanMediaPub 中 2、Logstash 定时扫描课程媒资信息表,并将课程媒资信息写入索引库。 数据模型 在 xc_course 数据库创建课程计划媒资发布表: CREATE TABLE teachplan_media_pub (teachplan_id varchar(32) NOT NULL COMMENT '课程计划id',media_id varchar(32) NOT NULL COMMENT '媒资文件id',media_fileoriginalname varchar(128) NOT NULL COMMENT '媒资文件的原始名称',media_url varchar(256) NOT NULL COMMENT '媒资文件访问地址',courseid varchar(32) NOT NULL COMMENT '课程Id',timestamp timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT'logstash使用',PRIMARY KEY (teachplan_id)) ENGINE=InnoDB DEFAULT CHARSET=utf8 数据模型类如下: package com.xuecheng.framework.domain.course;import lombok.Data;import lombok.ToString;import org.hibernate.annotations.GenericGenerator;import javax.persistence.;import java.io.Serializable;import java.util.Date;@Data@ToString@Entity@Table(name="teachplan_media_pub")@GenericGenerator(name = "jpa-assigned", strategy = "assigned")public class TeachplanMediaPub implements Serializable {private static final long serialVersionUID = -916357110051689485L;@Id@GeneratedValue(generator = "jpa-assigned")@Column(name="teachplan_id")private String teachplanId;@Column(name="media_id")private String mediaId;@Column(name="media_fileoriginalname")private String mediaFileOriginalName;@Column(name="media_url")private String mediaUrl;@Column(name="courseid")private String courseId;@Column(name="timestamp")private Date timestamp;//时间戳} Dao 创建 TeachplanMediaPub 表的 Dao,向 TeachplanMediaPub 存储信息采用先删除该课程的媒资信息,再添加该课程的媒资信息,所以这里定义根据课程 id 删除课程计划媒资方法: public interface TeachplanMediaPubRepository extends JpaRepository<TeachplanMediaPub, String> {//根据课程id删除课程计划媒资信息long deleteByCourseId(String courseId);} 从TeachplanMedia查询课程计划媒资信息 //从TeachplanMedia查询课程计划媒资信息public interface TeachplanMediaRepository extends JpaRepository<TeachplanMedia, String> {List<TeachplanMedia> findByCourseId(String courseId);} Service 编写保存课程计划媒资信息方法,并在课程发布时调用此方法。 1、保存课程计划媒资信息方法 本方法采用先删除该课程的媒资信息,再添加该课程的媒资信息,在 CourseService 下定义该方法 //保存课程计划媒资信息private void saveTeachplanMediaPub(String courseId){//查询课程媒资信息List<TeachplanMedia> byCourseId = teachplanMediaRepository.findByCourseId(courseId);if(byCourseId == null) return; //没有查询到媒资数据则直接结束该方法//将课程计划媒资信息储存到待索引表//删除原有的索引信息teachplanMediaPubRepository.deleteByCourseId(courseId);//一个课程可能会有多个媒资信息,遍历并使用list进行储存List<TeachplanMediaPub> teachplanMediaPubList = new ArrayList<>();for (TeachplanMedia teachplanMedia: byCourseId) {TeachplanMediaPub teachplanMediaPub = new TeachplanMediaPub();BeanUtils.copyProperties(teachplanMedia, teachplanMediaPub);teachplanMediaPubList.add(teachplanMediaPub);}//保存所有信息teachplanMediaPubRepository.saveAll(teachplanMediaPubList);} 2、课程发布时调用此方法 修改课程发布的 coursePublish 方法: ....//保存课程计划媒资信息到待索引表saveTeachplanMediaPub(courseId);//页面urlString pageUrl = cmsPostPageResult.getPageUrl();return new CoursePublishResult(CommonCode.SUCCESS,pageUrl);..... 测试 测试课程发布后是否成功将课程媒资信息存储到 teachplan_media_pub 中,测试流程如下: 1、指定一个课程 2、为课程计划添加课程媒资 3、执行课程发布 4、观察课程计划媒资信息是否存储至 teachplan_media_pub 中 注意:由于此测试仅用于测试发布课程计划媒资信息的功能,可暂时将 cms页面发布的功能暂时屏蔽,提高测试效率。 测试结果如下 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Vrzs5589-1595567273126)(https://qnoss.codeyee.com/20200704_15/image7)] 0x03 Logstash:扫描课程计划媒资 Logstash 定时扫描课程媒资信息表,并将课程媒资信息写入索引库。 创建索引 1、创建 xc_course_media 索引 2、并向此索引创建如下映射 POST: http://localhost:9200/xc_course_media/doc/_mapping {"properties" : {"courseid" : {"type" : "keyword"},"teachplan_id" : {"type" : "keyword"},"media_id" : {"type" : "keyword"},"media_url" : {"index" : false,"type" : "text"},"media_fileoriginalname" : {"index" : false,"type" : "text"} }} 索引创建成功 创建模板文件 在 logstach 的 config 目录文件 xc_course_media_template.json 文件路径为 %ES_ROOT_DIR%/logstash6.8.8/config/xc_course_media_template.json %ES_ROOT_DIR% 为 ElasticSearch 和 logstash 的安装目录 内容如下: {"mappings" : {"doc" : {"properties" : {"courseid" : {"type" : "keyword"},"teachplan_id" : {"type" : "keyword"},"media_id" : {"type" : "keyword"},"media_url" : {"index" : false,"type" : "text"},"media_fileoriginalname" : {"index" : false,"type" : "text"} }},"template" : "xc_course_media"} } 配置 mysql.conf 在logstash的 config 目录下配置 mysql_course_media.conf 文件供 logstash 使用,logstash 会根据 mysql_course_media.conf 文件的配置的地址从 MySQL 中读取数据向 ES 中写入索引。 参考https://www.elastic.co/guide/en/logstash/current/plugins-inputs-jdbc.html 配置输入数据源和输出数据源。 input {stdin {} jdbc {jdbc_connection_string => "jdbc:mysql://localhost:3306/xc_course?useUnicode=true&characterEncoding=utf-8&useSSL=true&serverTimezone=UTC" 数据库信息jdbc_user => "root"jdbc_password => "123123" MYSQL 驱动地址,修改为maven仓库对应的位置jdbc_driver_library => "D:/soft/apache-maven-3.5.4/repository/mysql/mysql-connector-java/5.1.40/mysql-connector-java-5.1.40.jar" the name of the driver class for mysqljdbc_driver_class => "com.mysql.jdbc.Driver"jdbc_paging_enabled => "true"jdbc_page_size => "50000"要执行的sql文件statement_filepath => "/conf/course.sql"statement => "select from teachplan_media_pub where timestamp > date_add(:sql_last_value,INTERVAL 8 HOUR)"定时配置schedule => " "record_last_run => truelast_run_metadata_path => "D:/soft/elasticsearch/logstash-6.8.8/config/xc_course_media_metadata"} } output {elasticsearch {ES的ip地址和端口hosts => "localhost:9200"hosts => ["localhost:9200","localhost:9202","localhost:9203"]ES索引库名称index => "xc_course_media"document_id => "%{teachplan_id}"document_type => "doc"template => "D:/soft/elasticsearch/logstash-6.8.8/config/xc_course_media_template.json"template_name =>"xc_course_media"template_overwrite =>"true"} stdout {日志输出codec => json_lines} } 启动 logstash.bat 启动 logstash.bat 采集 teachplan_media_pub 中的数据,向 ES 写入索引。 logstash.bat -f ../config/mysql_course_media.conf 课程发布成功后,Logstash 会自动参加 teachplan_media_pub 表中新增的数据,效果如下 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ILPBxfXi-1595567273134)(https://qnoss.codeyee.com/20200704_15/image10)] Logstash多实例运行 由于之前我们还启动了一个 Logstash 对课程的发布信息进行采集,所以如果想两个 logstash 实例同时运行,因为每个实例都有一个.lock文件,所以不能使用同一个目录来存放数据,所以我们需要使用 --path.data= 为每个实例指定单独的数据目录,具体的代码如下: 该配置是在windows下进行的 课程发布实例 logstash_start_course_pub.bat @title logstash in course_publogstash.bat -f ..\config\mysql.conf --path.data=../data/course_pub 课程计划媒体发布实例 logstash_start_teachplan_media.bat @title logstash i n teachplan_media_publogstash.bat -f ../config/mysql_course_media.conf --path.data=../data/teachplan_media/ 同时运行效果如下 0x04 搜素服务:查询课程媒资接口 需求分析 搜索服务 提供查询课程媒资接口,此接口供学习服务调用。 Api接口定义 @ApiOperation("根据课程计划查询媒资信息")public TeachplanMediaPub getmedia(String teachplanId); Service 1、配置课程计划媒资索引库等信息 在 application.yml 中配置 xuecheng:elasticsearch:hostlist: ${eshostlist:127.0.0.1:9200} 多个结点中间用逗号分隔course:index: xc_coursetype: docsource_field: id,name,grade,mt,st,charge,valid,pic,qq,price,price_old,status,studymodel,teachmode,expires,pub_time,start_time,end_timemedia:index: xc_course_mediatype: docsource_field: courseid,media_id,media_url,teachplan_id,media_fileoriginalname 2、service 方法开发 在 课程搜索服务 中定义课程媒资查询接口,为了适应后续需求,service 参数定义为数组,可一次查询多个课程计划的媒资信息。 / 根据一个或者多个课程计划id查询媒资信息 @param teachplanIds 课程id @return QueryResponseResult/public QueryResponseResult<TeachplanMediaPub> getmedia(String [] teachplanIds){//设置索引SearchRequest searchRequest = new SearchRequest(media_index);//设置类型searchRequest.types(media_type);//创建搜索源对象SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();//源字段过滤String[] media_index_arr = media_field.split(",");searchSourceBuilder.fetchSource(media_index_arr, new String[]{});//查询条件,根据课程计划id查询(可以传入多个课程计划id)searchSourceBuilder.query(QueryBuilders.termsQuery("teachplan_id", teachplanIds));searchRequest.source(searchSourceBuilder);SearchResponse searchResponse = null;try {searchResponse = restHighLevelClient.search(searchRequest);} catch (IOException e) {e.printStackTrace();}//获取结果SearchHits hits = searchResponse.getHits();long totalHits = hits.getTotalHits();SearchHit[] searchHits = hits.getHits();//数据列表List<TeachplanMediaPub> teachplanMediaPubList = new ArrayList<>();for(SearchHit hit:searchHits){TeachplanMediaPub teachplanMediaPub =new TeachplanMediaPub();Map<String, Object> sourceAsMap = hit.getSourceAsMap();//取出课程计划媒资信息String courseid = (String) sourceAsMap.get("courseid");String media_id = (String) sourceAsMap.get("media_id");String media_url = (String) sourceAsMap.get("media_url");String teachplan_id = (String) sourceAsMap.get("teachplan_id");String media_fileoriginalname = (String) sourceAsMap.get("media_fileoriginalname");teachplanMediaPub.setCourseId(courseid);teachplanMediaPub.setMediaUrl(media_url);teachplanMediaPub.setMediaFileOriginalName(media_fileoriginalname);teachplanMediaPub.setMediaId(media_id);teachplanMediaPub.setTeachplanId(teachplan_id);//将对象加入到列表中teachplanMediaPubList.add(teachplanMediaPub);}//构建返回课程媒资信息对象QueryResult<TeachplanMediaPub> queryResult = new QueryResult<>();queryResult.setList(teachplanMediaPubList);queryResult.setTotal(totalHits);return new QueryResponseResult<TeachplanMediaPub>(CommonCode.SUCCESS,queryResult);} Controller / 根据课程计划id搜索发布后的媒资信息 @param teachplanId @return/@GetMapping(value="/getmedia/{teachplanId}")@Overridepublic TeachplanMediaPub getmedia(@PathVariable("teachplanId") String teachplanId) {//为了service的拓展性,所以我们service接收的是数组作为参数,以便后续开发查询多个ID的接口String[] teachplanIds = new String[]{teachplanId};//通过service查询ES获取课程媒资信息QueryResponseResult<TeachplanMediaPub> mediaPubQueryResponseResult = esCourseService.getmedia(teachplanIds);QueryResult<TeachplanMediaPub> queryResult = mediaPubQueryResponseResult.getQueryResult();if(queryResult!=null&& queryResult.getList()!=null&& queryResult.getList().size()>0){//返回课程计划对应课程媒资return queryResult.getList().get(0);} return new TeachplanMediaPub();} 测试 使用 swagger-ui 和 postman 测试课程媒资查询接口。 三、在线学习:接口开发 0x01 需求分析 根据下边的业务流程,本章节完成前端学习页面请求学习服务获取课程视频地址,并自动播放视频。 0x02 搭建开发环境 1、创建数据库 创建 xc_learning 数据库,学习数据库将记录学生的选课信息、学习信息。 导入:资料/xc_learning.sql 2、创建学习服务工程 参考课程管理服务工程结构,创建学习服务工程: 导入:资料/xc-service-learning.zip 项目工程结构如下 0x03 Api接口 此 api 接口是课程学习页面请求学习服务获取课程学习地址。 定义返回值类型: package com.xuecheng.framework.domain.learning.response;import com.xuecheng.framework.model.response.ResponseResult;import com.xuecheng.framework.model.response.ResultCode;import lombok.Data;import lombok.NoArgsConstructor;import lombok.ToString;@Data@ToString@NoArgsConstructorpublic class GetMediaResult extends ResponseResult {public GetMediaResult(ResultCode resultCode, String fileUrl) {super(resultCode);this.fileUrl = fileUrl;}//媒资文件播放地址private String fileUrl;} 定义接口,学习服务根据传入课程 ID、章节 Id(课程计划 ID)来取学习地址。 @Api(value = "录播课程学习管理",description = "录播课程学习管理")public interface CourseLearningControllerApi {@ApiOperation("获取课程学习地址")public GetMediaResult getMediaPlayUrl(String courseId,String teachplanId);} 0x04 服务端开发 需求分析 学习服务根据传入课程ID、章节Id(课程计划ID)请求搜索服务获取学习地址。 搜索服务注册Eureka 学习服务要调用搜索服务查询课程媒资信息,所以需要将搜索服务注册到 eureka 中。 1、查看服务名称是否为 xc-service-search 注意修改application.xml中的服务名称:spring:application:name: xc‐service‐search 2、配置搜索服务的配置文件 application.yml,加入 Eureka 配置 如下: eureka:client:registerWithEureka: true 服务注册开关fetchRegistry: true 服务发现开关serviceUrl: Eureka客户端与Eureka服务端进行交互的地址,多个中间用逗号分隔defaultZone: ${EUREKA_SERVER:http://localhost:50101/eureka/,http://localhost:50102/eureka/}instance:prefer-ip-address: true 将自己的ip地址注册到Eureka服务中ip-address: ${IP_ADDRESS:127.0.0.1}instance-id: ${spring.application.name}:${server.port} 指定实例idribbon:MaxAutoRetries: 2 最大重试次数,当Eureka中可以找到服务,但是服务连不上时将会重试,如果eureka中找不到服务则直接走断路器MaxAutoRetriesNextServer: 3 切换实例的重试次数OkToRetryOnAllOperations: false 对所有操作请求都进行重试,如果是get则可以,如果是post,put等操作没有实现幂等的情况下是很危险的,所以设置为falseConnectTimeout: 5000 请求连接的超时时间ReadTimeout: 6000 请求处理的超时时间 3、添加 eureka 依赖 <dependency><groupId>org.springframework.cloud</groupId><artifactId>spring‐cloud‐starter‐netflix‐eureka‐client</artifactId></dependency> 4、修改启动类,在class上添加如下注解: @EnableDiscoveryClient 搜索服务客户端 在 学习服务 创建搜索服务的客户端接口,此接口会生成代理对象,调用搜索服务: package com.xuecheng.learning.client;import com.xuecheng.framework.domain.course.TeachplanMediaPub;import org.springframework.cloud.openfeign.FeignClient;import org.springframework.web.bind.annotation.GetMapping;import org.springframework.web.bind.annotation.PathVariable;@FeignClient(value = "xc‐service‐search")public interface CourseSearchClient {@GetMapping(value="/getmedia/{teachplanId}")public TeachplanMediaPub getmedia(@PathVariable("teachplanId") String teachplanId);} 自定义错误代码 我们在 com.xuecheng.framework.domain.learning.response 包下自定义一个错误消息模型 package com.xuecheng.framework.domain.learning.response;import com.xuecheng.framework.model.response.ResultCode;import lombok.ToString;@ToStringpublic enum LearningCode implements ResultCode {LEARNING_GET_MEDIA_ERROR(false,23001,"学习中心获取媒资信息错误!");//操作代码boolean success;//操作代码int code;//提示信息String message;private LearningCode(boolean success, int code, String message){this.success = success;this.code = code;this.message = message;}@Overridepublic boolean success() {return success;}@Overridepublic int code() {return code;}@Overridepublic String message() {return message;} } 该消息模型基于 ResultCode 来实现,代码如下 package com.xuecheng.framework.model.response;/ Created by mrt on 2018/3/5. 10000-- 通用错误代码 22000-- 媒资错误代码 23000-- 用户中心错误代码 24000-- cms错误代码 25000-- 文件系统/public interface ResultCode {//操作是否成功,true为成功,false操作失败boolean success();//操作代码int code();//提示信息String message(); 从 ResultCode 中我们可以看出,我们约定了用户中心的错误代码使用 23000,所以我们定义的一些错误信息的代码就从 23000 开始计数。 Service 在学习服务中定义 service 方法,此方法远程请求课程管理服务、媒资管理服务获取课程学习地址。 package com.xuecheng.learning.service.impl;import com.netflix.discovery.converters.Auto;import com.xuecheng.framework.domain.course.TeachplanMediaPub;import com.xuecheng.framework.domain.learning.response.GetMediaResult;import com.xuecheng.framework.exception.ExceptionCast;import com.xuecheng.framework.model.response.CommonCode;import com.xuecheng.learning.client.CourseSearchClient;import com.xuecheng.learning.service.LearningService;import org.springframework.beans.factory.annotation.Autowired;import org.springframework.stereotype.Service;@Servicepublic class LearningServiceImpl implements LearningService {@AutowiredCourseSearchClient courseSearchClient;/ 远程调用搜索服务获取已发布媒体信息中的url @param courseId 课程id @param teachplanId 媒体信息id @return/@Overridepublic GetMediaResult getMediaPlayUrl(String courseId, String teachplanId) {//校验学生权限,是否已付费等//远程调用搜索服务进行查询媒体信息TeachplanMediaPub mediaPub = courseSearchClient.getmedia(teachplanId);if(mediaPub == null) ExceptionCast.cast(CommonCode.FAIL);return new GetMediaResult(CommonCode.SUCCESS, mediaPub.getMediaUrl());} } Controller 调用 service 根据课程计划 id 查询视频播放地址: @RestController@RequestMapping("/learning/course")public class CourseLearningController implements CourseLearningControllerApi {@AutowiredLearningService learningService;@Override@GetMapping("/getmedia/{courseId}/{teachplanId}")public GetMediaResult getMediaPlayUrl(@PathVariable String courseId, @PathVariable String teachplanId) {//获取课程学习地址return learningService.getMedia(courseId, teachplanId);} } 测试 使用 swagger-ui 或postman 测试学习服务查询课程视频地址接口。 0x05 前端开发 需求分析 需要在学习中心前端页面需要完成如下功能: 1、进入课程学习页面需要带上 课程 Id参数及课程计划Id的参数,其中 课程 Id 参数必带,课程计划 Id 可以为空。 2、进入页面根据 课程 Id 取出该课程的课程计划显示在右侧。 3、进入页面后判断如果请求参数中有课程计划 Id 则播放该章节的视频。 4、进入页面后判断如果 课程计划id 为0则需要取出本课程第一个 课程计划的Id,并播放第一个课程计划的视频。 进入到模块 xc-ui-pc-leanring/src/module/course api方法 let sysConfig = require('@/../config/sysConfig')let apiUrl = sysConfig.xcApiUrlPre;/获取播放地址/export const get_media = (courseId,chapter) => {return http.requestGet(apiUrl+'/api/learning/course/getmedia/'+courseId+'/'+chapter);} 配置代理 在 Nginx 中的 ucenter.xuecheng.com 虚拟主机中配置 /api/learning/ 的路径转发,此url 请转发到学习服务。 学习服务upstream learning_server_pool{server 127.0.0.1:40600 weight=10;}学成网用户中心server {listen 80;server_name ucenter.xuecheng.com;个人中心location / {proxy_pass http://ucenter_server_pool;}后端搜索服务location /openapi/search/ {proxy_pass http://search_server_pool/search/; }学习服务location ^~ /api/learning/ {proxy_pass http://learning_server_pool/learning/;} } 视频播放页面 1、如果传入的课程计划id为0则取出第一个课程计划id 在 created 钩子方法中完成 created(){//当前请求的urlthis.url = window.location//课程idthis.courseId = this.$route.params.courseId//章节idthis.chapter = this.$route.params.chapter//查询课程信息systemApi.course_view(this.courseId).then((view_course)=>{if(!view_course || !view_course[this.courseId]){this.$message.error("获取课程信息失败,请重新进入此页面!")return ;}let courseInfo = view_course[this.courseId]console.log(courseInfo)this.coursename = courseInfo.nameif(courseInfo.teachplan){console.log("准备开始播放视频")let teachplan = JSON.parse(courseInfo.teachplan);this.teachplanList = teachplan.children;//开始学习if(this.chapter == "0" || !this.chapter){//取出第一个教学计划this.chapter = this.getFirstTeachplan();console.log("第一个教学计划id为 ",this.chapter);this.study(this.chapter);}else{this.study(this.chapter);} }})}, 取出第一个章节 id,用户未输入课程计划 id 或者输入为 0 时,播放第一个。 //取出第一个章节getFirstTeachplan(){for(var i=0;i<this.teachplanList.length;i++){let firstTeachplan = this.teachplanList[i];//如果当前children存在,则取出第一个返回if(firstTeachplan.children && firstTeachplan.children.length>0){let secondTeachplan = firstTeachplan.children[0];return secondTeachplan.id;} }return ;}, 开始学习: //开始学习study(chapter){// 获取播放地址courseApi.get_media(this.courseId,chapter).then((res)=>{if(res.success){let fileUrl = sysConfig.videoUrl + res.fileUrl//播放视频this.playvideo(fileUrl)}else if(res.message){this.$message.error(res.message)}else{this.$message.error("播放视频失败,请刷新页面重试")} }).catch(res=>{this.$message.error("播放视频失败,请刷新页面重试")});}, 2、点击右侧课程章节切换播放 在原有代码基础上添加 click 事件,点击调用开始学习方法(study)。 <li v‐if="teachplan_first.children!=null" v‐for="(teachplan_second, index) inteachplan_first.children"><i class="glyphicon glyphicon‐check"></i><a :href="url" @click="study(teachplan_second.id)">{ {teachplan_second.pname} }</a></li> 3、地址栏路由url变更 这里需要注意一个问题,在用户点击课程章节切换播放时,地址栏的 url 也应该同步改变为当前所选择的课程计划 id 4、在线学习按钮 将 learnstatus 默认更改为 1,这样就能显示出马上学习的按钮,方便我们后续的集成测试。 文件路径为 xc-ui-pc-static-portal/include/course_detail_dynamic.html 部分代码块如下 <script>var body= new Vue({ //创建一个Vue的实例el: "body", //挂载点是id="app"的地方data: {editLoading: false,title:'测试',courseId:'',charge:'',//203001免费,203002收费learnstatus: 1 ,//课程状态,1:马上学习,2:立即报名、3:立即购买course:{},companyId:'template',company_stat:[],course_stat:{"s601001":"","s601002":"","s601003":""} }, 简单的测试 访问在线学习页面:http://ucenter.xuecheng.com//learning/课程id/课程计划id 通过 url 传入两个参数:课程id 和 课程计划id 如果没有课程计划则传入0 测试项目如下: 1、传入正确的课程id、课程计划id,自动播放本章节的视频 2、传入正确的课程id、课程计划id传入0,自动播放第一个视频 3、传入错误的课程id 或 课程计划id,提示错误信息。 4、通过右侧章节目录切换章节及播放视频。 访问: http://ucenter.xuecheng.com//learning/4028e58161bcf7f40161bcf8b77c0000/4028e58161bd18ea0161bd1f73190008 传入正确的课程id、课程计划id,自动播放本章节的视频 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Ef0xxym7-1595567273153)(https://qnoss.codeyee.com/20200704_15/image17)] 传入正确的课程id、课程计划id传入0,自动播放第一个视频 访问 http://ucenter.xuecheng.com//learning/4028e58161bcf7f40161bcf8b77c0000/0 识别出第一个课程计划的 id 需要注意的是这里的 chapter 参数是我自己在 study 函数里加上去的,可以忽略。 传入错误的课程id或课程计划id,提示错误信息。 通过右侧章节目录切换章节及播放视频。 点击章节即可播放,但是点击制定章节后 url 没有发生改变,这个问题暂时还没有解决,关注笔记后面的内容。 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-TOGdxwb4-1595567273158)(https://qnoss.codeyee.com/20200704_15/image20)] 完整的测试 准备工作 启动 RabbitMQ,启动 Logstash、ElasticSearch 建议把所有后端服务都开起来 启动 前端静态门户、启动 nginx 、启动课程管理前端 我们整理一下测试的流程 上传两个媒资视频文件,用于测试 进入到课程管理,为课程计划选择媒资信息 发布课程,等待 logstash 将数据采集到 ElasticSearch 的索引库中 进入学成网主页,点击课程,进入到搜索门户页面 搜索课程,进入到课程详情页面 点击开始学习,进入到课程学习页面,选择课程计划中的一个章节进行学习。 1、上传文件 首先我们使用之前开发的媒资管理模块,上传两个视频文件用于测试。 第一个文件上传成功 一些问题 在上传第二个文件时,发生了错误,我们来检查一下问题出在了哪里 在媒体服务的控制台中可以看到,在 mergeChunks 方法在校验文件 md5 时候抛出了异常 我们在 MD5 校验这里打个断点,重新上传文件,分析一下问题所在。 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-OpEMZGI8-1595567273166)(https://qnoss.codeyee.com/20200704_15/image23)] 单步调试后发现,合并文件后的MD5值与用户上传的源文件值不相等 方案1:删除本地分块文件重新尝试上传 考虑到可能是在用户上传完 视频的分块文件时发生了一些问题,导致合并文件后与源文件的大小不等,导致MD5也不相同,这里我们把这个视频上传到本地的文件全部删除,在媒资上传页面重新上传文件。 对比所有分块文件的字节大小和本地源文件的大小,完全是相等的 删除所有文件后重新上传,md5值还是不等,考虑从调试一下文件合并的代码。 方案2:检查前端提交的MD5值是否正确 在查阅是否有其他的MD5值获取方案时,发现了一个使用 windows 本地命令获取文件MD5值的方法 certutil -hashfile .\19-在线学习接口-集成测试.avi md5 惊奇的发现,TM的原来是前端那边转换的MD5值不正确,后端这边是没有问题的。 从前面的图可以看出,本地和后端转换的都是以一个 f6f0 开头的MD5值 那么问题就出现在前端了,还需要花一些时间去分析一下,这里暂时就先告一段落,因为上传了几个文件测试中只有这一个文件出现了问题。 2、为课程计划选择媒资信息 进入到一个课程的管理页面 http://localhost:12000//course/manage/baseinfo/4028e58161bcf7f40161bcf8b77c0000 将刚才我们上传的媒资文件的信息和课程计划绑定 选择效果如下 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-epKaqzCD-1595567273178)(https://qnoss.codeyee.com/20200704_15/image29)] 2、发布课程,等待 logstash 从 course_pub 以及 teachplan_media_pub 表中采集数据到 ElasticSearch 当中 发布成功后,我们可以从 teachplan_media_pub 表中看到刚才我们发布的媒资信息 再观察 Logstash 的控制台,发现两个 Logstash 的实例都对更新的课程发布信息进行了采集 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-hTUve2ik-1595567273183)(https://qnoss.codeyee.com/20200704_15/image32)] 3、前端门户测试 打开我们的门户主站 http://www.xuecheng.com/ [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-4wZe9R84-1595567273185)(https://qnoss.codeyee.com/20200704_15/image33)] 点击导航栏的课程,进入到我们的搜索门户页面 如果无法进入到搜索门户,请检查你的 xc-ui-pc-portal 前端工程是否已经启动 进入到搜索门户后,可以看到一些初始化时搜索的课程数据,默认是搜索第一页的数据,每页2个课程。 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-BJ1AKoJb-1595567273187)(https://qnoss.codeyee.com/20200704_15/image34)] 我们可以测试搜索一下前面我们选择媒资信息时所用的课程 点击课程,进入到课程详情页面,然后再点击开始学习。 点击马上学习后,会进入到该课程的在线学习页面,默认自动播放我们第一个课程计划中的视频。 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-tcuLWnf2-1595567273193)(https://qnoss.codeyee.com/20200704_15/image37)] 我们可以在右侧的目录中选择第二个课程计划,会自动播放所选的课程计划所对应的媒资视频播放地址,该 播放地址正是我们刚才通过 Logstash 自动采集到 ElasticSearch 的索引信息,效果图如下 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Cvi9Dr0Y-1595567273195)(https://qnoss.codeyee.com/20200704_15/image38)] 四、待完善的一些功能 课程发布前,校验课程计划里面是否包含二级课程计划 课程发布前,校验课程计划信息里面是否全部包含媒资信息 删除媒资信息,并且同步删除ES中的索引 在获取该课程的播放地址时校验用户的合法、 在线学习页面,点击右侧目录中的课程计划同时改变url中的课程计划地址 视频文件 19-在线学习接口-集成测试.avi 前端上传时提交的MD5值不正确 😁 认识作者 作者:👦 LCyee ,全干型代码🐕 自建博客:https://www.codeyee.com 记录学习以及项目开发过程中的笔记与心得,记录认知迭代的过程,分享想法与观点。 CSDN 博客:https://blog.csdn.net/codeyee 记录和分享一些开发过程中遇到的问题以及解决的思路。 欢迎加入微服务练习生的队伍,一起交流项目学习过程中的一些问题、分享学习心得等,不定期组织一起刷题、刷项目,共同见证成长。 本篇文章为转载内容。原文链接:https://blog.csdn.net/codeyee/article/details/107558901。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-12-16 12:41:01
73
转载
MySQL
MySQL , MySQL是一种开源的关系型数据库管理系统,广泛应用于网站和应用程序开发中,支持多种操作系统,提供SQL接口供用户查询、更新和管理数据。在本文语境下,MySQL是开发者需要导出其数据库结构及注释信息的主要操作对象。 mysqldump , mysqldump是MySQL自带的一个用于备份数据库的实用程序,它可以生成一个包含创建数据库表结构以及插入数据的SQL脚本文件。在文章中,mysqldump工具被用来执行导出MySQL数据库结构(包括注释)的操作,通过指定不同的参数可以控制是否包含数据或注释内容。 SQL结构 , SQL结构指的是使用SQL语言定义的数据库结构,它包括但不限于数据库、表、列、索引、视图等元素的定义以及它们之间的关系。在本文上下文中,SQL结构是指MySQL数据库中的表结构,包括表名、列名、数据类型、约束条件以及相关的注释信息,这些信息会被mysqldump命令以SQL语句的形式导出到一个文件中以便于迁移、备份或版本控制。 表结构注释 , 在MySQL数据库中,表结构注释是对表本身的一种描述性文本信息,可以通过特定的SQL语法添加至表定义中,为数据库使用者提供更多关于该表用途、字段含义等背景信息。在文章所讨论的场景中,表结构注释是希望在导出数据库结构时一并保留的重要内容,以方便其他开发者理解数据库设计意图和业务逻辑。 --skip-comments , 这是mysqldump工具的一个命令行选项,但在本文实际应用中应避免使用此选项,因为它的作用是跳过(忽略)在导出过程中遇到的所有注释信息。在文章给出的错误示例中,若要包含注释,则不应使用--skip-comments。
2023-03-21 16:29:33
108
电脑达人
MySQL
MySQL , MySQL是一种广泛使用、开源的关系型数据库管理系统(RDBMS),由Oracle公司开发并维护。在本文的上下文中,MySQL提供了一种结构化存储和管理数据的方式,通过SQL语言支持对数据进行增删改查等操作。在互联网应用、企业系统以及云计算、大数据环境下,MySQL因其稳定、高效和易于扩展的特性而得到广泛应用。 JDBC(Java Database Connectivity) , JDBC是Java编程语言中用于实现与各种关系型数据库交互的一套API标准,它允许Java程序访问和处理任何类型的数据库系统。在文章中提到的Java读取MySQL示例中,开发者正是通过导入java.sql.包并利用JDBC API来建立到MySQL数据库的连接,执行SQL语句,并获取查询结果。 缓存技术 , 缓存技术是一种提升数据读取速度的方法,通常用于减少数据库负载并提高应用程序性能。例如,Memcached和Redis就是两种常用的内存键值存储系统,可作为数据库前级缓存使用。当应用程序需要频繁读取的数据时,可以从高速缓存而非数据库直接获取,从而避免了每次请求都直接访问数据库带来的延迟。在本文中,为了提高MySQL读取效率,作者建议可以引入缓存技术以加速数据访问过程。
2024-02-28 15:31:14
130
逻辑鬼才
Impala
...MPP)数据库设计的SQL查询引擎。它以其卓越的性能和灵活性受到了广泛的好评。不过,在实际操作时,我们不能光盯着它的性能,还要深入地摸清楚它数据同步的门道。这样一来,咱们才能更好地驾驭和优化这些数据,让它们发挥出最大的价值。本文将详细介绍Impala的数据同步机制,并探讨其优缺点。 正文 一、什么是Impala? Impala是一个开源的分析工具,它可以让你以SQL查询的形式在Hadoop集群上执行分析任务。它的主要目标是提供高性能、可扩展性和易用性。与其他分析工具不同的是,Impala不依赖于复杂的MapReduce框架,而是通过多核CPU进行计算。这意味着你可以更快地获取结果,而且不会受到MapReduce框架的一些限制。 二、Impala的数据同步机制是什么? 在Impala中,数据同步是指当一个节点上的数据发生变化时,如何将其更新到其他节点上的过程。Impala使用一种称为"数据复制"的技术来实现这一功能。实际上呢,每个Impala节点都有一份数据的完整备份,这样一来,就像每人都有同样的剧本一样,保证了所有数据的一致性和同步性,一点儿都不会出岔子。当一个节点上的数据有了新动静,就像有人在广播里喊了一嗓子“注意啦,有数据更新了!”这时候,其他所有节点都像接到消息的小伙伴一样,会立刻自动把自己的数据副本刷新一下,保证和最新的信息同步。 三、Impala的数据同步机制的优点 1. 提高了数据一致性 由于每个节点都有完整的数据副本,所以即使某个节点发生故障,也不会影响整个系统的数据完整性。 2. 提升了数据读取效率 由于每个节点都有一份完整的数据副本,所以读取数据的速度会比从单个节点读取要快得多。 3. 提供了容错能力 如果一个节点发生故障,其他节点仍然可以通过其备份来提供服务,从而提高了系统的可用性。 四、Impala的数据同步机制的缺点 1. 需要大量的存储空间 由于每个节点都需要保存完整的数据副本,所以这会消耗大量的存储空间。 2. 对网络带宽的需求较高 因为数据需要被广播到所有节点,所以这会增加网络带宽的需求。 3. 增加了系统的复杂性 虽然数据复制可以提高数据的一致性和读取效率,但也增加了系统的复杂性,需要更多的管理和维护工作。 五、总结 Impala的数据同步机制是一种非常重要的技术,它确保了系统数据的一致性和可用性。不过呢,这种技术也存在一些小短板。比如,它对存储空间的需求可是相当大的,而且网络带宽的要求也不低,得要足够给力才行。所以,在考虑选用Impala的时候,咱们得把这些因素都掂量一下,根据实际情况,像挑西瓜那样,选出最对味儿的那个选择。总的来说,Impala这家伙可真是个实力派兼灵活的法宝,在大数据的世界里,它能帮我们更溜地进行数据分析,效率嗖嗖的。如果你还没有尝试过Impala,那么我强烈建议你试一试!
2023-09-29 21:29:11
499
昨夜星辰昨夜风-t
Hibernate
...ernate如何处理SQL方言?——理解与实践 1. 引言 在开发企业级应用程序时,数据库的多样性是一个无法忽视的问题。Hibernate作为一款强大的Java ORM框架,其核心价值之一就是为开发者提供了一层与底层数据库无关的抽象层。不过,各个数据库系统都有自己的SQL语法“小脾气”,这就引出了Hibernate如何巧妙地应对这些“方言”问题的关键机制。你看,就像咱们平时各地的方言一样,Hibernate也得学会跟各种SQL方言打交道,才能更好地服务大家伙儿。本文将深入探讨Hibernate如何通过SQL方言来适应不同数据库环境,并结合实例代码带你走进实战世界。 2. SQL方言 概念与作用 SQL方言,在Hibernate中,是一种特定于数据库的类,它负责将Hibernate生成的标准HQL或SQL-Query转换为特定数据库可以理解和执行的SQL语句。比如说吧,MySQL、Oracle、PostgreSQL还有DB2这些数据库,它们各有各的小脾气和小个性,都有自己特有的SQL扩展功能和一些限制。这就像是每种数据库都有自己的方言一样。而Hibernate这个家伙呢,它就像个超级厉害的语言翻译官,甭管你的应用要跟哪种数据库打交道,它都能确保你的查询操作既准确又高效地执行起来。这样一来,大家伙儿就不用担心因为“方言”不同而沟通不畅啦! 3. Hibernate中的SQL方言配置 配置SQL方言是使用Hibernate的第一步。在hibernate.cfg.xml或persistence.xml配置文件中,通常会看到如下设置: xml org.hibernate.dialect.MySQL57InnoDBDialect 在这个例子中,我们选择了针对MySQL 5.7版且支持InnoDB存储引擎的方言类。Hibernate内置了多种数据库对应的方言实现,可以根据实际使用的数据库类型选择合适的方言。 4. SQL方言的内部工作机制 当Hibernate执行一个查询时,会根据配置的SQL方言进行如下步骤: - 解析和转换HQL:首先,Hibernate会解析应用层发出的HQL查询,将其转化为内部表示形式。 - 生成SQL:接着,基于内部表示形式和当前配置的SQL方言,Hibernate会生成特定于目标数据库的SQL语句。 - 发送执行SQL:最后,生成的SQL语句被发送至数据库执行,并获取结果集。 5. 实战举例 SQL方言差异及处理 下面以分页查询为例,展示不同数据库下SQL方言的差异以及Hibernate如何处理: (a)MySQL方言示例 java String hql = "from Entity e"; Query query = session.createQuery(hql); query.setFirstResult(0).setMaxResults(10); // 分页参数 // MySQL方言下,Hibernate会自动生成类似LIMIT子句的SQL List entities = query.list(); (b)Oracle方言示例 对于不直接支持LIMIT关键字的Oracle数据库,Hibernate的Oracle方言则会生成带有ROWNUM伪列的查询: java // 配置使用Oracle方言 org.hibernate.dialect.Oracle10gDialect // Hibernate会生成如"SELECT FROM (SELECT ..., ROWNUM rn FROM ...) WHERE rn BETWEEN :offset AND :offset + :limit" 6. 结论与思考 面对多样的数据库环境,Hibernate通过SQL方言机制实现了对数据库特性的良好适配。这一设计不仅极大地简化了开发者的工作,还增强了应用的可移植性。不过,在实际做项目的时候,我们可能还是得根据具体的场景,对SQL的“土话”进行个性化的定制或者优化,这恰好就展现了Hibernate那牛哄哄的灵活性啦!作为开发者,我们得像个侦探一样,深入挖掘所用数据库的各种小秘密和独特之处。同时,咱们还得把Hibernate这位大神的好本领充分利用起来,才能稳稳地掌控住那些复杂的数据操作难题。这样一来,我们的程序不仅能跑得更快更流畅,代码也会变得既容易看懂,又方便后期维护,可读性和可维护性妥妥提升!
2023-12-01 18:18:30
613
春暖花开
MyBatis
...ngBuilder sql, Date date, BoundSql boundSql) { sql.append("TO_TIMESTAMP('").append(date).append("')"); } @Override public Date read(Class type, String source) { return new SimpleDateFormat("yyyy-MM-dd HH:mm:ss").parse(source); } } 在这里,我们首先调用了父类的write方法,然后在SQL语句中添加了一个函数TO_TIMESTAMP,这个函数可以将日期字符串转换为TIMESTAMP类型。而在read方法中,我们将数据库返回的字符串转换为了日期对象。 3. 在实体类中使用注解进行映射 除了全局映射之外,我们还可以在实体类中使用@Type注解来进行一对一的映射。例如,如果我们有一个User类,其中有一个Date类型的生日属性,我们可以这样使用@Type注解: java public class User { private String name; @Type(type = "com.example.mybatis.DateToTimestampTypeHandler") private Date birthday; // getters and setters... } 在这里,我们指定了birthday属性应该使用DateToTimestampTypeHandler进行映射。 三、总结 通过以上步骤,我们就可以在MyBatis中完成数据类型映射了。这个功能简直不要太重要,它简直就是我们提升开发效率、减少无谓错误的小帮手,最关键的是,它还能让我们的代码变得更加简洁明了,读起来就像看小说一样轻松愉快!所以,希望大家能够熟练掌握并使用这个功能。
2023-12-18 11:45:51
118
半夏微凉-t
Hive
...统中的重要组件,以其SQL-like查询语言和对大规模数据集的高效管理能力赢得了广泛的认可。然而,在我们日常运维的过程中,有时候会遇到个让人超级头疼的状况——Hive表的数据竟然出岔子了,或者干脆是损坏了。这篇东西咱们要实实在在地把这个难题掰开了、揉碎了讲明白,从它可能的“病因”一路聊到会带来哪些影响,再到解决这个问题的具体步骤和策略,还会手把手地带你瞅瞅实例代码是怎么操作演示的。 2. 数据损坏的原因剖析 (1)元数据错误 在Hive中,元数据存储在如MySQL或Derby等数据库中,若这部分信息出现丢失或损坏,可能导致Hive无法正确解析和定位数据块。例如,分区信息错误、表结构定义丢失等情况。 sql -- 假设某个分区信息在元数据库中被误删除 ALTER TABLE my_table DROP PARTITION (dt='2022-01-01'); (2)HDFS文件系统问题 Hive底层依赖于HDFS存储实际数据,若HDFS发生节点故障、网络中断导致数据复制因子不足或者数据块损坏,都可能导致Hive表数据不可用。 (3)并发写入冲突 多线程并发写入Hive表时,如果未做好事务隔离和并发控制,可能导致数据覆盖或损坏。 3. 数据损坏的影响及应对思考 数据损坏直接影响业务的正常运行,可能导致数据分析结果错误、报表异常、甚至业务决策失误。因此,发现数据损坏后,首要任务是尽快定位问题根源,并采取相应措施: - 立即停止受影响的服务,防止进一步的数据写入和错误传播。 - 备份当前状态,为后续分析和恢复提供依据。 - 根据日志排查,查找是否有异常操作记录或其他相关线索。 4. 数据恢复实战 (1)元数据恢复 对于元数据损坏,通常需要从备份中恢复,或重新执行DDL语句以重建表结构和分区信息。 sql -- 重新创建分区(假设已知分区详情) ALTER TABLE my_table ADD PARTITION (dt='2022-01-01') LOCATION '/path/to/backup/data'; (2)HDFS数据恢复 对于HDFS层的数据损坏,可利用Hadoop自带的hdfs fsck命令检测并修复损坏的文件块。 bash hdfs fsck /path/to/hive/table -blocks -locations -files -delete 此外,如果存在完整的数据备份,也可直接替换损坏的数据文件。 (3)并发控制优化 对于因并发写入引发的数据损坏,应在设计阶段就充分考虑并发控制策略,例如使用Hive的Transactional Tables(ACID特性),确保数据的一致性和完整性。 sql -- 开启Hive ACID支持 SET hive.support.concurrency=true; SET hive.txn.manager=org.apache.hadoop.hive.ql.lockmgr.DbTxnManager; 5. 结语 面对Hive表数据损坏的挑战,我们需要具备敏锐的问题洞察力和快速的应急响应能力。同时,别忘了在日常运维中做好预防工作,这就像给你的数据湖定期打个“小强针”,比如按时备份数据、设立警戒线进行监控告警、灵活配置并发策略等等,这样一来,咱们的数据湖就能健健康康,稳稳当当地运行啦。说实在的,对任何一个大数据平台来讲,数据安全和完整性可是咱们绝对不能马虎、时刻得捏在手心里的“命根子”啊!
2023-09-09 20:58:28
642
月影清风
站内搜索
用于搜索本网站内部文章,支持栏目切换。
知识学习
实践的时候请根据实际情况谨慎操作。
随机学习一条linux命令:
env -i command
- 在干净的环境变量状态下执行命令。
推荐内容
推荐本栏目内的其它文章,看看还有哪些文章让你感兴趣。
2023-04-28
2023-08-09
2023-06-18
2023-04-14
2023-02-18
2023-04-17
2024-01-11
2023-10-03
2023-09-09
2023-06-13
2023-08-07
2023-03-11
历史内容
快速导航到对应月份的历史文章列表。
随便看看
拉到页底了吧,随便看看还有哪些文章你可能感兴趣。
时光飞逝
"流光容易把人抛,红了樱桃,绿了芭蕉。"