IceOfSummerの博客还是自己搭的博客靠谱后面一辈子的博客都在这了!

筛选唯一值

关于这个操作,网上的操作要么是直接用自带的 删除重复值,或者 高级筛选 直接创建一个新的表格。但是这俩个操作有一个最大的问题:重复的值都被删除了。

假如我有一个列保存文件名,另外一个列保存文件中的一些关键内容,一个文件中可能有多个关键内容,也就是一个文件有多行。我删除重复值只是想看一下有哪些文件,看完又需要恢复,那么这个操作就非常不友好了。

这个时候就要请出我们的 COUNTIF 了。

先直接看效果:

效果图

Note

这里绿色背景是其它的效果,这里直接忽略就行.

可以发现,所有项目的第一个都会被标记出来,之后我们直接使用普通的 筛选,筛选出值为 FIRST 的行就可以了。

使用到的函数:=IF(COUNTIF(A:A,A2)>1,IF(COUNTIF(A$2:A2,A2)=1,"FIRST",""),"FIRST")

COUNTIF(range, criteria): 计算区域内满足条件的单元格数量。

  • range: 选中一个范围
  • criteria: 判断条件,可以是一个字符串,返回单元格内等于该字符串的数量。也可以是一个判断,例如 >5,则判断 range 内大于 5 的单元格数量。

IF(condition, val1, val2): 如果满足条件,则返回 val1 否则返回 val2

  • condition: 判断条件
  • val1: 为真的值
  • val2: 回退值

所以我们这里的思路就是:对于一个单元格,统计它上面和它自己所有单元格的范围内,值和自己相等的单元格数量。当值为 1 时,就说明该单元格的值是所有重复的值中的第一个,这时我们给他打上一个标记,就可以利用 Excel 的筛选功能就可以做到不删除数据,又能筛选出重复的第一个了。

碰到的坑

由于我们的判断条件是当前单元格和它上面的区域,也就是说如果我们对单元格进行排序或者其它操作,那么我们的标记就会发生变动。如果你只想给重复的第一个值进行一些其它的修改,那么可能一次排序就会毁掉你的所有修改。

这个问题的解决方法也很简单,我们只需要给所有行新建一列,名字叫做序号,值从任意值开始递增,在顺序被我们打乱后,只需要按照序号进行排序就可以恢复到原来的状态。

待补坑

挖个坑在这里,后面碰到了新的需要再来写。

Note

太长不看,直接看总结

前言

由于我原本是一个搞 Java 的,未来想要转型搞 GoLang。结果在使用的时候发现一个对我这种搞 Java 的非常难以理解的情况:

type Object struct { data int } func updateObj(obj Object) { obj.data++ } func main() { var obj Object // expect 0 fmt.Println(obj.data) updateObj(obj) // expect 1 fmt.Println(obj.data) }
go

"正常情况"下,这段代码应该依次打印 01. 但是实际却是:

执行结果\

可以发现输出了两个 0.

可以发现 GoLang 里面参数传递没有和 Java 一样那么无脑。。。很显然,这里直接把对象复制了一遍然后传给了函数,如果大家对 C/C++ 稍微了解过的话,就可以发现这个逻辑是一样的:调用函数是值传递

什么是引用

这里我直接说结论了,对于一个变量来说,它有两个关键属性:

  • 地址

例如下面的代码:

var obj Object var objRef = &obj
go

obj 来说,它的值为结构体的数据,这里为了方便我们称它为 a, obj 的地址这里假设为 b。那么对于 objRef 来说,它的值就是 b,地址就是内存中的另外一块地址。

示意图

如上图所示,蓝色方框里面代表变量当前的值。

对于 obj 的值具体是什么样的,个人猜测这里应该是一个 8 字节的指针指向结构体内存地址开始的位置(不一定都是全部表示开始位置,可能还会有其它信息),然后底层根据结构体大小信息读取相应范围内的数据,就能够表示一个结构体了。

但是我们在复制这个 的时候,不能仅只复制第一个 8 字节,也就是那个指针,也必须要把后面跟着的那一大块全部全部复制。

Important

这里只是我为了方便记忆根据个人经验写出来的!没有依据!没有依据!没有依据!

切片是否需要引用

再来看一个例子(Object结构体省略了):

func updateObj(arr []Object) { arr[0] = Object{data: 1} } func main() { arr := make([]Object, 1) fmt.Println(arr[0].data) updateObj(arr) fmt.Println(arr[0].data) }
go

输出:

0 1
log

可以发现切片使用函数传递后还能够影响原来的值。其实根据切片的结构就可以发现(internal/unsafeheader/unsafeheader.go):

type Slice struct { Data unsafe.Pointer Len int Cap int }
go

可以发现这个结构体里面还有一个指针指向了真正的数据。这一点让我想起当初刚学 C 语言的时候用 malloc 声明一串连续的内存地址然后用来当数组的时候。。。

所以我们将切片传给函数时,其实也复制了值,但是复制的没这么多,就只有结构体这三个字段,在 64 位系统上也就 24 字节。

所以切片你想用引用就用,但是一般的习惯是不用,因为也浪费不了多少空间,而且后面用的时候解引用也麻烦

除了切片外 stringmapchan 也可以这样使用。

真的不用引用吗

再来看个有意思的例子:

func updateObj(arr []Object) { arr[0].data++ } func main() { arr := make([]Object, 1) val := Object{data: 0} arr[0] = val updateObj(arr) fmt.Println(val.data) }
go

输出:

0
log

理论上这里应该输出 1,但是却输出了 0,这不是和我们之前得出的结论相违背吗?


不知道你还记不记得我之前说在 C 里面声明一串连续的内存地址,在这里,切片元素的类型是 Object,所以这一串内存中存的就是 Object 具体的值,而不是 val 的内存地址

如果你将 arr[0].data 打印,可以发现它的值确实自增了。

所以说我们将值添加到切片中时,也会发生值的复制

方法返回值

那么既然入参会复制值,那么返回值会怎么样呢?

type Object struct { data int data2 int data3 int } func createObj() Object { var obj = Object{data: 2} fmt.Printf("函数中的内存地址为: %p\n", &obj) return obj } func main() { r := createObj() fmt.Printf("函数返回后的内存地址为: %p\n", &r) fmt.Println(&r) }
go

输出:

函数中的内存地址为: 0xc0000ae018 函数返回后的内存地址为: 0xc0000ae000
go

可以发现两个内存地址相差 18, 转换为十进制,就是 24, 而我们的结构体也正好是 24 字节,说明返回时也发生了复制

总结

  1. 能用引用就用引用,不管是返回值还是方法参数,避免对象过多的复制。不需要担心垂悬引用,GoLang 会为方法进行逃逸分析,根据分析结果决定将对象创建在堆中还是在栈上。
  2. 切片、mapstringchan 可以不用引用直接传递。当然也可以用引用,区别不大。
  3. 在更新切片、map等第二点提到的数据结构前,应该将值更新至最新状态后再添加,因为每次添加到这些结构中都会发生一次复制。
Important

本文基于 spring-jdbc-6.1.13、mybatis-spring-boot-starter-3.0.3

本文主要是一些总结性的结论,不会大量展示源码,建议自己打断点边跟边看或者后面回顾的时候看。

开头废话

首先来一个非常现实的问题,当 Mybatis 离开了 Spring,你还会用吗?

首先我们来看一下没有 Spring 该怎么用:

DataSource dataSource = BlogDataSourceFactory.getBlogDataSource(); TransactionFactory transactionFactory = new JdbcTransactionFactory(); Environment environment = new Environment("development", transactionFactory, dataSource); Configuration configuration = new Configuration(environment); configuration.addMapper(BlogMapper.class); SqlSessionFactory sqlSessionFactory = new SqlSessionFactoryBuilder().build(configuration); try (SqlSession session = sqlSessionFactory.openSession(true)) { BlogMapper blogMapper = session.getMapper(BlogMapper.class); blogMapper.doSth(); // ... }
java

有没有发现这里很违背我们的"常识"?在 Spring 中,我们都是直接注入 Mapper 然后直接就开始用了。而在这里,我们还需要自己开 SqlSession 来获取 Mapper


接下来,本文将带你详细了解 Spring 是如何管理 Mybatis 资源的。

Mybatis-Spring 原理

Mybatis 文档的 作用域(Scope)和生命周期 中提到: 每个线程都应该有它自己的 SqlSession 实例。每次收到 HTTP 请求,就可以打开一个 SqlSession,返回一个响应后,就关闭它。所以 SqlSession不能在多线程复用的, 而 Mapper 是由 SqlSession 创建的,也是不能复用的。

那么在 Spring (实际是 Mybatis-Spring)为什么可以直接复用呢?我们先来打个断点看一下我们的 Mapper 类:

MapperProxy

通过上图可以发现,Mapper 中的用的 SqlSessionSqlSessionTemplate,而它的内部又代理了另外一个 SqlSession,这里就可以肯定它用了 代理模式,我们来看一下它的代理是怎么处理的:

private class SqlSessionInterceptor implements InvocationHandler { @Override public Object invoke(Object proxy, Method method, Object[] args) throws Throwable { // 获取 sqlSession SqlSession sqlSession = getSqlSession(SqlSessionTemplate.this.sqlSessionFactory, SqlSessionTemplate.this.executorType, SqlSessionTemplate.this.exceptionTranslator); try { // 调用**真正的** SqlSession 的方法 Object result = method.invoke(sqlSession, args); // 判断是否开启了事务 if (!isSqlSessionTransactional(sqlSession, SqlSessionTemplate.this.sqlSessionFactory)) { // force commit even on non-dirty sessions because some databases require // a commit/rollback before calling close() // 没开,就直接提交 sqlSession.commit(true); } return result; } catch (Throwable t) { Throwable unwrapped = unwrapThrowable(t); if (SqlSessionTemplate.this.exceptionTranslator != null && unwrapped instanceof PersistenceException) { // release the connection to avoid a deadlock if the translator is no loaded. See issue #22 closeSqlSession(sqlSession, SqlSessionTemplate.this.sqlSessionFactory); sqlSession = null; Throwable translated = SqlSessionTemplate.this.exceptionTranslator .translateExceptionIfPossible((PersistenceException) unwrapped); if (translated != null) { unwrapped = translated; } } throw unwrapped; } finally { // 关闭 if (sqlSession != null) { closeSqlSession(sqlSession, SqlSessionTemplate.this.sqlSessionFactory); } } } }
java

这里方法第一行 getSqlSession,这里就不进去看了,这个方法的作用是创建一个真正的 SqlSession,并且如果开启了事务,就把这个 SqlSession 绑定到线程变量里面。


好!这里就很清楚了:我 Mapper 用的 SqlSession 是一个假的(代理类) SqlSession,里面没有任何真正的数据库连接,当你真的去执行数据库操作需要创建连接的时候,我就给你创建一个。你要是开了事务,我还会给你把连接绑定到线程变量里面,你要是下次又要获取连接,我就直接从线程变量里面拿;要是没开事务,用完我就给你自动提交并且关了。

那么绑到线程变量里面的事务又由谁来关闭呢?这里最合适的做法就是:事务在哪里开启,你就在哪里关闭。

什么意思?例如我们一般就是在服务类中调用 Mapper,当方法上加上 @Transactional 注解就可以开启事务了。OK! 你要是用了这个注解,我就在执行方法前,也往线程变量里面写一个标识,表示我开启了一个事务。后面在假的 SqlSession 里面,我去查这个线程变量标识来判断你开了事务没有。同理,我在这里可以往线程变量里面绑,我也可以在方法结束后获取创建的连接,然后直接在这里关闭。

总结一下就是:

  1. 用动态代理增强入口类(一般是服务类),如果方法有 @Transactional, 就往线程变量里面写一个标识,这里我们叫 T。写完标识后,正常调用入口方法。
  2. 当入口类中的方法调用 Mapper 里面的方法时,里面的假 SqlSession 会判断线程变量有没有标识 T,如果有,返回之前在线程变量中缓存的、真正的 SqlSession,这里我们叫 S,如果 S 中没有数据,就创建一个新的连接并且保存到 S 中。如果没有标识 T,即没有开启事务,就创建一个新的数据库连接,并且在用完后关闭。
  3. 当入口类中的方法返回后,检查线程变量 S 是否有值,如果有,就将其提交并关闭。

现在你已经知道 Mybatis-Spring 的基础原理了,现在你可以

  1. 手搓一个简单的实现:[手搓一个简单的 Mybatis-Spring](#手搓一个简单的 Mybatis-Spring)
  2. 自己去研究源码
  3. 继续看这篇文章后面枯燥的部分

如果你选择自己看源码,这里给你两个入口:

  1. 第一个就是上面提到的 SqlSessionTemplate
  2. 第二个就是 org.springframework.transaction.interceptor.TransactionAspectSupport,这个类就是我们前面提到的"入口类"的动态代理。
Important

再次声明,源码强烈推荐自己打断点看,本文后面的东西大部分只提供总结性的内容!。 到目前为止,我真的很少见到有人能把枯燥的源码详解写的很有意思的,因为这种很难避免贴上大部分源码上去,所以我强烈推荐自己打断点, 然后写下自己的总结方便未来复习!所以我这篇文章后半部分就全是我的总结。

没错,我是个标题党,标题写了 详解 就是为了把你骗进来...


在继续看前,需要了解一个非常重要的类:TransactionSynchronizationManager:

public abstract class TransactionSynchronizationManager { private static final ThreadLocal<Map<Object, Object>> resources = new NamedThreadLocal<>("Transactional resources"); private static final ThreadLocal<Set<TransactionSynchronization>> synchronizations = new NamedThreadLocal<>("Transaction synchronizations"); private static final ThreadLocal<String> currentTransactionName = new NamedThreadLocal<>("Current transaction name"); private static final ThreadLocal<Boolean> currentTransactionReadOnly = new NamedThreadLocal<>("Current transaction read-only status"); private static final ThreadLocal<Integer> currentTransactionIsolationLevel = new NamedThreadLocal<>("Current transaction isolation level"); private static final ThreadLocal<Boolean> actualTransactionActive = new NamedThreadLocal<>("Actual transaction active"); // snip }
java

这个类就是用于管理我们线程变量的绑定的:

  • resources: 保存当前线程的数据库连接,便于后续事务获取
  • synchronizations: 保存事务同步的回调,例如 beforeCommitafterCompletion
  • currentTransactionName:保存事务的名称
  • currentTransactionReadOnly:标识当前事务是否只读
  • currentTransactionIsolationLevel: 当前事务隔离级别
  • actualTransactionActive: 当前线程是否真的开启了事务

例如调用 org.springframework.transaction.support.TransactionSynchronizationManager#isActualTransactionActive 就可以判断当前线程是否开启了事务。

SqlSession 的懒创建与 ThreadLocal 的绑定

在第一次尝试获取 SqlSession 时,就会尝试绑定相关的 ThreadLocal

org.mybatis.spring.SqlSessionTemplate.SqlSessionInterceptor#invoke -> org.mybatis.spring.SqlSessionUtils#getSqlSession -> org.mybatis.spring.SqlSessionUtils#registerSessionHolder(部分无关紧要的代码被省略):

private static void registerSessionHolder(SqlSessionFactory sessionFactory, ExecutorType executorType, PersistenceExceptionTranslator exceptionTranslator, SqlSession session) { SqlSessionHolder holder; // 判断是否需要开启事务. if (TransactionSynchronizationManager.isSynchronizationActive()) { Environment environment = sessionFactory.getConfiguration().getEnvironment(); if (environment.getTransactionFactory() instanceof SpringManagedTransactionFactory) { LOGGER.debug(() -> "Registering transaction synchronization for SqlSession [" + session + "]"); holder = new SqlSessionHolder(session, executorType, exceptionTranslator); // 绑定 resources 到 ThreadLocal TransactionSynchronizationManager.bindResource(sessionFactory, holder); // 绑定 synchronizations TransactionSynchronizationManager .registerSynchronization(new SqlSessionSynchronization(holder, sessionFactory)); // 标识当前事务已经绑定了 synchronizations holder.setSynchronizedWithTransaction(true); // 引用计数加一 holder.requested(); } else { // 判断当前是不是使用 SpringManagedTransactionFactory 来管理事务,如果不是则直接报错 } } else { // 啥都不做 } }
java

至此,事务就成功开启了。后面的 Mapper 想要获取 SqlSession 就可以直接复用了:

// org.mybatis.spring.SqlSessionUtils#getSqlSession public static SqlSession getSqlSession(SqlSessionFactory sessionFactory, ExecutorType executorType, PersistenceExceptionTranslator exceptionTranslator) { notNull(sessionFactory, NO_SQL_SESSION_FACTORY_SPECIFIED); notNull(executorType, NO_EXECUTOR_TYPE_SPECIFIED); // 获取绑定的资源 SqlSessionHolder holder = (SqlSessionHolder) TransactionSynchronizationManager.getResource(sessionFactory); // 获取对应的 SqlSession,并将引用计数加一 SqlSession session = sessionHolder(executorType, holder); if (session != null) { return session; } // 线程还没有绑定,创建新的并判断是否需要绑定,也就是我们上面看到的代码 LOGGER.debug(() -> "Creating a new SqlSession"); session = sessionFactory.openSession(executorType); registerSessionHolder(sessionFactory, executorType, exceptionTranslator, session); return session; }
java

SqlSession 的释放

在自动提交的情况下,SqlSession 用完就会被释放,在 org.mybatis.spring.SqlSessionTemplate.SqlSessionInterceptor#invoke 中的 finally 代码块就可以看到,最后调用了 org.mybatis.spring.SqlSessionUtils#closeSqlSession 来释放 SqlSession:

public static void closeSqlSession(SqlSession session, SqlSessionFactory sessionFactory) { notNull(session, NO_SQL_SESSION_SPECIFIED); notNull(sessionFactory, NO_SQL_SESSION_FACTORY_SPECIFIED); SqlSessionHolder holder = (SqlSessionHolder) TransactionSynchronizationManager.getResource(sessionFactory); if ((holder != null) && (holder.getSqlSession() == session)) { LOGGER.debug(() -> "Releasing transactional SqlSession [" + session + "]"); // 引用计数减一 holder.released(); } else { LOGGER.debug(() -> "Closing non transactional SqlSession [" + session + "]"); // 自动提交,直接关闭 session.close(); } }
java

可以发现在开启事务的情况下,这里仅仅是将引用计数减一,那么真正的关闭在哪呢?

其实也不难猜到,我们在哪个方法上的 @Transactional,这个方法结束后肯定就会去关闭 SqlSession。这里是通过动态代理实现的,具体的类为:org.springframework.transaction.interceptor.TransactionAspectSupport,直接从 invokeWithinTransaction 开始看就可以了。

可以在里面找到 commitTransactionAfterReturning 这个方法,很显然,这个方法就是用来提交并关闭连接的:

protected void commitTransactionAfterReturning(@Nullable TransactionInfo txInfo) { if (txInfo != null && txInfo.getTransactionStatus() != null) { if (logger.isTraceEnabled()) { logger.trace("Completing transaction for [" + txInfo.getJoinpointIdentification() + "]"); } txInfo.getTransactionManager().commit(txInfo.getTransactionStatus()); } }
java

可以发现,如果没有开启事务,则不会做任何事。否则将会获取 TransactionManager 然后调用 commit 方法。

点进去继续追 org.springframework.transaction.support.AbstractPlatformTransactionManager#commit -> org.springframework.transaction.support.AbstractPlatformTransactionManager#processCommit(这里方法很长,只保留部分代码):

private void processCommit(DefaultTransactionStatus status) throws TransactionException { try { boolean beforeCompletionInvoked = false; boolean commitListenerInvoked = false; try { boolean unexpectedRollback = false; prepareForCommit(status); triggerBeforeCommit(status); triggerBeforeCompletion(status); beforeCompletionInvoked = true; if (status.hasSavepoint()) { // snip } else if (status.isNewTransaction()) { if (status.isDebug()) { logger.debug("Initiating transaction commit"); } unexpectedRollback = status.isGlobalRollbackOnly(); this.transactionExecutionListeners.forEach(listener -> listener.beforeCommit(status)); commitListenerInvoked = true; doCommit(status); } else if (isFailEarlyOnGlobalRollbackOnly()) { unexpectedRollback = status.isGlobalRollbackOnly(); } // Throw UnexpectedRollbackException if we have a global rollback-only // marker but still didn't get a corresponding exception from commit. if (unexpectedRollback) { throw new UnexpectedRollbackException( "Transaction silently rolled back because it has been marked as rollback-only"); } } catch (UnexpectedRollbackException ex) { // snip } catch (TransactionException ex) { // snip } catch (RuntimeException | Error ex) { // snip } // Trigger afterCommit callbacks, with an exception thrown there // propagated to callers but the transaction still considered as committed. try { triggerAfterCommit(status); } finally { triggerAfterCompletion(status, TransactionSynchronization.STATUS_COMMITTED); if (commitListenerInvoked) { this.transactionExecutionListeners.forEach(listener -> listener.afterCommit(status, null)); } } } finally { cleanupAfterCompletion(status); } }
java

正常情况下(没有异常、事务正常提交),主要是这样的流程(TransactionManager 的实现类默认是 JdbcTransactionManager):

  1. prepareForCommit: 在提交前进行一些准备工作。
  2. triggerBeforeCommit: 调用同步器(TransactionSynchronization)的 beforeCommit 方法
  3. triggerBeforeCompletion: 调用同步器(TransactionSynchronization)的 beforeCompletion 方法
  4. doCommit: 获取到 Connection 并提交
  5. triggerAfterCommit: 调用同步器(TransactionSynchronization)的 afterCommit 方法
  6. triggerAfterCompletion: 调用同步器(TransactionSynchronization)的 afterCompletion 方法
  7. cleanupAfterCompletion: 清除绑定的 ThreadLocal,恢复 Connection 的状态等(设置自动提交、隔离级别等),如果有被挂起的事务,则恢复对应的事务。

事务提交了两次?

在之前我们可以看到,默认的同步器是 SqlSessionSynchronization。而在 org.mybatis.spring.SqlSessionUtils.SqlSessionSynchronization#beforeCommit 中我们可以发现,这里又调用了 SqlSessioncommit 方法,所以这个事务一共提交了两次 !?

beforeCommit

没错,第一次看到这里我确实被迷惑住了。但是其实上面的注释已经说的很清楚了,吃了不懂英语的坑😢。

这段大致意思如下:

Connection提交 或者 回滚 将会被 ConnectionSynchronizationDataSourceTransactionManager 处理。

但是,请清理 SqlSession / Executor ,包括 批处理 操作,以确保它们实际被执行过。

SpringManagedTransaction 不会真的在 jdbc 连接的层面上 提交

还是不太诗人话,简单来说就是你在同步器里只需要确保刷新 SqlSessionExecutor 和批处理操作就行了,提交的事情不用你管。

那么实际是怎么样的呢,在继续前我们需要再回到没有 Spring 的 mybatis。

TransactionFactory

还记得前面我们不使用 Spring 来配置 mybatis 的时候吗?我们需要手动配置一个 TransactionFactory,在文档中直接使用了 JdbcTransactionFactory,我们来看看它的实现。

既然是工厂类,就只需要关注它返回的类型了,这里它返回的是 JdbcTransaction,我们接着看。

这里主要关注它的 commit 方法:

@Override public void commit() throws SQLException { if (connection != null && !connection.getAutoCommit()) { if (log.isDebugEnabled()) { log.debug("Committing JDBC Connection [" + connection + "]"); } connection.commit(); } }
java

可以发现它的 commit 方法是真的直接调用 jdbc 连接提交了。还记得我们之前翻译的吗,在 Spring 里面:SpringManagedTransaction不会真的在 jdbc 连接的层面上 *提交* 。 我们来看 Spring 实现里的commit`:

@Override public void commit() throws SQLException { if (this.connection != null && !this.isConnectionTransactional && !this.autoCommit) { LOGGER.debug(() -> "Committing JDBC Connection [" + this.connection + "]"); this.connection.commit(); } }
java

可以发现它加了一个最关键的判断:!this.isConnectionTransactional。那么可以说明,如果当前开启了事务,那么调用 SqlSession#commit 就不会真正的提交。

Note

这里省略了部分上下文。SqlSession#commit 会调用 Executor#commit(org.apache.ibatis.executor.BaseExecutor#commit),最终会调用 org.apache.ibatis.transaction.Transaction#commit

所以在这里调用 SqlSessioncommit,只是为了清除缓存而已,并没有真正提交的意思。

事务的创建

在 Spring 中可以设置事务的传播级别(TransactionDefinition):

  • PROPAGATION_REQUIRED(默认): 如果当前存在事务,则加入该事务;如果当前没有事务,则创建一个新的事务。
  • PROPAGATION_REQUIRES_NEW: 创建一个新的事务,如果当前存在事务,则把当前事务挂起。
  • PROPAGATION_NESTED:创建一个子事务,如果子事务回滚,对应的父事务也会回滚(如果有)。
  • PROPAGATION_MANDATORY:如果当前存在事务,则加入该事务;如果当前没有事务,则抛出异常。
  • PROPAGATION_SUPPORTS: 如果当前存在事务,则加入该事务;如果当前没有事务,则以非事务的方式继续运行。
  • PROPAGATION_NOT_SUPPORTED: 以非事务方式运行,如果当前存在事务,则把当前事务挂起。
  • PROPAGATION_NEVER: 以非事务方式运行,如果当前存在事务,则抛出异常。

那么事务在创建时,是如何根据不同的传播级别来创建事务的呢?


org.springframework.transaction.interceptor.TransactionAspectSupport#createTransactionIfNecessary -> org.springframework.transaction.support.AbstractPlatformTransactionManager#getTransaction 就可以找到相关开启事务的代码。

这里代码很长,但不管怎么样,最终都是返回一个 TransactionStatus,默认的实现是 org.springframework.transaction.support.DefaultTransactionStatus:

public class DefaultTransactionStatus extends AbstractTransactionStatus { @Nullable private final String transactionName; @Nullable private final Object transaction; private final boolean newTransaction; private final boolean newSynchronization; private final boolean nested; private final boolean readOnly; private final boolean debug; @Nullable private final Object suspendedResources; // snip }
java

这些字段的意思分别是:

  • transactionName: 事务的名称,一般是被代理的方法全限定名称,例如 foo.bar.TestService.doService
  • transaction: 保存了 org.springframework.transaction.support.AbstractPlatformTransactionManager#doGetTransaction 的返回值,默认类型为 org.springframework.jdbc.datasource.DataSourceTransactionManager.DataSourceTransactionObject
  • newTransaction: 是不是一个新的事务。例如多个 Transactional 方法嵌套,第一个开启事务的方法该值为 true,其它的均为 false
  • newSynchronization: 当前事务是否创建了一个新的事务同步器。
  • nested: 是否嵌套(子事务)。
  • readOnly: 是否只读。
  • debug: 用于 debug。
  • suspendedResources: 被挂起的资源,例如在 PROPAGATION_REQUIRES_NEW 的传播级别下,会创建一个新的事务,旧的事务将会在这里被挂起。

transactionSynchronization

关于 newSynchronization 这个属性,一开始可能还挺懵逼的。如果不想管太多,只需要记住该值为 true 时,后面的事务获取 SqlSession 时才会创建相关同步器。

Note

当该值为 trueorg.springframework.transaction.support.AbstractPlatformTransactionManager#prepareSynchronization 将会绑定相关线程变量,后面线程在获取 SqlSession 时,org.mybatis.spring.SqlSessionUtils#registerSessionHolder 会判断当前是否激活同步器,然后再去绑定相关资源。

那么这个值具体有什么用呢?这里就不得不再回到我们前面的传播级别了。例如 PROPAGATION_NOT_SUPPORTED 级别,它会挂起已有的事务,并且以非事务的状态继续执行,所以这里很明显就不需要绑定同步器。

但是,实际上 Spring 默认会给所有类型的传播级别创建同步器。

newSynchronization 的值由 org.springframework.transaction.support.AbstractPlatformTransactionManager#transactionSynchronization 的值决定,而这个值默认为 SYNCHRONIZATION_ALWAYS。也就是永远都会创建同步器,即使没有开启事务。

一共有三个可用的值:

  • SYNCHRONIZATION_ALWAYS(默认): 永远创建同步器,即使没有事务。
  • SYNCHRONIZATION_ON_ACTUAL_TRANSACTION:仅在有事务的情况下创建。
  • SYNCHRONIZATION_NEVER:永远不创建。

事务的挂起和恢复

在 Spring 是可以嵌套事务的,例如我们使用 REQUIRES_NEW 的传播级别,就能够在已有事务的前提下开启一个完全隔离的新事务。那么旧的事务在这里会怎么处理呢?

眼见的大伙已经可以看到了,在 org.springframework.transaction.support.AbstractPlatformTransactionManager#getTransaction 中,有一个判断是否已经存在事务的代码:

@Override public final TransactionStatus getTransaction(@Nullable TransactionDefinition definition) throws TransactionException { // snip if (isExistingTransaction(transaction)) { // Existing transaction found -> check propagation behavior to find out how to behave. return handleExistingTransaction(def, transaction, debugEnabled); } // snip }
java

具体的代码就不细看了,大致流程如下:

  1. 调用同步器的 suspend 方法(org.springframework.transaction.support.AbstractPlatformTransactionManager#suspend)。
  2. 清除旧事务绑定的相关线程变量(org.springframework.transaction.support.AbstractPlatformTransactionManager#suspend)。
  3. 将旧事务保存(SuspendedResourcesHolder),开启新的事务,并将新事务 status#suspendedResources 设置为旧的 Holder

事务恢复的代码在 org.springframework.transaction.support.AbstractPlatformTransactionManager#cleanupAfterCompletion 里面的最后一段,它会调用 resume 方法来恢复事务:

protected final void resume(@Nullable Object transaction, @Nullable SuspendedResourcesHolder resourcesHolder) throws TransactionException { if (resourcesHolder != null) { Object suspendedResources = resourcesHolder.suspendedResources; if (suspendedResources != null) { doResume(transaction, suspendedResources); } List<TransactionSynchronization> suspendedSynchronizations = resourcesHolder.suspendedSynchronizations; if (suspendedSynchronizations != null) { TransactionSynchronizationManager.setActualTransactionActive(resourcesHolder.wasActive); TransactionSynchronizationManager.setCurrentTransactionIsolationLevel(resourcesHolder.isolationLevel); TransactionSynchronizationManager.setCurrentTransactionReadOnly(resourcesHolder.readOnly); TransactionSynchronizationManager.setCurrentTransactionName(resourcesHolder.name); doResumeSynchronization(suspendedSynchronizations); } } }
java

代码很简单,其实就是调用同步器的 resume, 然后再重新绑定相关的线程变量。

手动开启事务

下面就直接贴代码了:

@Component class Test { @Autowired private PlatformTransactionManager txManager; public void test() { DefaultTransactionDefinition def = new DefaultTransactionDefinition(); def.setPropagationBehavior(TransactionDefinition.PROPAGATION_REQUIRES_NEW); TransactionStatus status = txManager.getTransaction(def); try { // ... txManager.commit(status); } catch (Exception e) { txManager.rollback(status); } } }
java

非 Spring 环境指定 Mapper 位置

在非 Spring 环境中用 mybatis 一定会碰到这个问题:怎么修改 Mapper 的路径?

在 Spring 中可以通过下面的配置实现:

mybatis: mapper-locations: classpath:mapper/*.xml
yaml

但是很遗憾,Mybatis 本身是没有提供任何配置项来修改 xml 存放位置的。也就是说默认情况下,你只能把 XML 和 接口 放到一个文件夹里面。


这里我们来看一下 Spring 是怎么做到自定义 mapper 位置的(org.mybatis.spring.SqlSessionFactoryBean#buildSqlSessionFactory):

Configuration targetConfiguration; // ... for (Resource mapperLocation : this.mapperLocations) { // ... XMLMapperBuilder xmlMapperBuilder = new XMLMapperBuilder(mapperLocation.getInputStream(), targetConfiguration, mapperLocation.toString(), targetConfiguration.getSqlFragments()); xmlMapperBuilder.parse(); }
java

这里只需要获取到 xml 的输入流,就可以自定义解析 Mapper了。

手搓一个简单的 Mybatis-Spring

由于我之前想开发一个 IDEA 插件,需要用到 sqlite, 所以上了 Mybatis 并且顺便照着 Mybatis-Spring 封装了一遍。虽然插件我已经弃坑了,但是这份代码封装的还是没有问题的。

最终封装的效果是:支持声明式主键,但是不支持传播级别等其它高级特性。

直接看代码(kotlin 写的,但没有用很高级的特性,不会的话也能看懂):Github

推荐从下面的类开始看:

安装

Ansible 不支持在 windows 上作为控制节点使用,虽然可以安装,但是运行不了: Why no Ansible controller for Windows?

但是 windows 可以作为被控制的节点来使用

创建虚拟环境并安装:

python3 -m venv ansible source ansible/bin/activate python3 -m pip install ansible-core
shell

如果是 python3.6 最高只能装 2.11 更高的版本需要升级 python 版本。

基础概念

ansible 中有下面几种常用的特殊名词:

  • Inventory: "物品栏"(不知道该怎么翻译...),包含了一组或多组远程服务器
  • Play: 剧本,可以理解为一个完整的工作流程,一般由多个 Task 组成。其中每个 Play 都会指定 Inventory 中的一组服务器。
  • Task: 任务,通常同来定义一个操作.
  • Role: 与 Play 类似,但是在声明时不需要指定 Inventory,所以一般不会直接写 Play,而是直接使用 Role 来编写,方便多次复用。

可以这样理解: 一个 Play 代表已经编辑好的一部电影。通过指定好角色(Inventory)和剧情(Task),构成一部电影(Play)。

所以通常一个 Play 文件包含了 InventoryTask。由于 Inventory 在这里直接写死了,一般会直接使用 Role 来代替 Play,在实际运行的时候指定对应的 Inventory

创建 Inventory

创建一个 Inventory(inventory.ini):

[myhosts] 192.0.2.50 192.0.2.51 192.0.2.52
ini

测试连接:

# verify ansible-inventory -i inventory.ini --list # ping ansible myhosts -m ping -i inventory.ini
bash

使用 ansible

一个常用的目录结构如下:

. ├── env ├── inventory └── project └── roles └── my_role ├── handlers ├── tasks ├── templates └── vars
text

自定义 filter

想要创建一个 filter,首先在任意目录中创建一个 python 文件:

def greet(name): return f"Hello, {name}!" class FilterModule(object): def filters(self): return { 'greet': greet, }
python

上面的代码就实现了一个 filter,然后使用环境变量来指向对应的目录:

export ANSIBLE_FILTER_PLUGINS=/path/to/custom/filter_plugins
bash

使用:

# playbook.yml --- - hosts: localhost tasks: - name: Use global custom greet filter debug: msg: "{{ 'World' | greet }}"
yaml

输出:

TASK [Use global custom greet filter] ********************************* ok: [localhost] => { "msg": "Hello, World!" }
text

注意,这么调用是错误的:

- name: Debug debug: msg: "{{ greet('World') }}"
text

必须使用前一种类似管道符的语法。

传递多个参数

上面的代码中,我们使用 filter 传递了一个参数进去,然后返回一个值。但是如果要传递多个参数该怎么办?

解决方法如下:

# filter_plugins/custom_filters.py def greet(name, greeting="Hello"): return f"{greeting}, {name}!" class FilterModule(object): def filters(self): return { 'greet': greet, }
python

使用:

# playbook.yml - hosts: localhost tasks: - name: Use custom greet filter with multiple arguments debug: msg: "{{ 'World' | greet('Good morning') }}"
yaml

巨奇怪有木有...

加载外部参数

developing-lookup-plugins

在前面我们说过可以通过 ansible-runner 来提前获取好参数来提供给 ansible 使用,但是 ansible 自己也可以主动通过调用 Python 脚本来动态获取外部参数。

和 filter 插件一样,创建一个 Python 文件:

# lookup_plugins/my_custom_lookup.py from ansible.plugins.lookup import LookupBase class LookupModule(LookupBase): def run(self, terms, variables=None, **kwargs): # Custom logic here return [f"Hello, {terms[0]}!"]
python

然后使用环境变量指向这个目录:

export ANSIBLE_LOOKUP_PLUGINS=/path/to/custom/filter_plugins
bash

使用:

# playbook.yml - hosts: localhost tasks: - name: Use custom lookup plugin debug: msg: "{{ lookup('my_custom_lookup', 'World') }}"
yaml

输出:

TASK [Use custom lookup plugin] ************************************* ok: [localhost] => { "msg": "Hello, World!" }
text

每个参数的意思

这里文档非常🌿🥚,完全没讲每个参数是什么意思,这里就详细记一下,防止以后忘了。

terms 参数

terms 代表在使用 lookup 时后面的列表参数。

使用时这样传:

# In a playbook or template {{ lookup('my_custom_lookup', 'argument1', 'argument2') }}
yaml

terms 就是 ['argument1', 'argument2']

variables 参数

这个很好理解,就是可以获取到上下文中的参数:

# In the lookup plugin def run(self, terms, variables=None, **kwargs): # 获取上下文中的 my_var 参数 value_from_var = variables.get('my_var') return [f"{value_from_var}, {terms[0]}"]
python
kwargs 参数

这个可以理解为具名参数,类型是一个字典:

# In a playbook or template {{ lookup('my_custom_lookup', 'term', option1='value1', option2='value2') }}
yaml

对于 option1option2 就可以直接在 kwargs 通过字典的方式获取到。

动态加载模板文件并转移

例如在上面一个 role 的目录中,我们有一个 templates 模板,一般这个文件夹里面放的都是配置文件,如果我们想要一口气全部发送到远程服务器里面, 除了可以一个一个写,还可以这样写:

- name: Transfer Template with_fileglob: - "templates/*.j2" ansible.builtin.template: src: "{{ item }}" dest: "/dest/{{ item | template_glob_path_to_dest }}"
yaml

这里需要声明一个 filter 来去掉多余的路径:

def template_glob_path_to_dest(string: str): target = 'templates/' pos = string.rfind(target) if pos == -1: raise RuntimeError('Could not find template relative path') return string[pos + len(target):-3] class FilterModule(object): def filters(self): return { 'template_glob_path_to_dest': template_glob_path_to_dest }
python

注入参数

在 task 中注入参数

在 task 中注入参数需要使用 set_fact,而不是 vars:

- name: My play hosts: localhost tasks: - name: Ping my hosts set_fact: who: world - name: Print message debug: msg: "hello {{ who }}"
yaml

对于 vars 声明的参数,仅在当前任务中有效

组合多个 role

一般在多个 role 中,可能会出现通用的逻辑,例如多个 Tomcat 应用,每个应用都需要单独的 Tomcat 目录,如果每个服务都写一遍会导致十分臃肿,所以我们完全可以将通用的 role 抽离出来,供其它的 role 使用。

假设我们已经有了一个安装 Tomcat 的 role:roles/common/tasks/main.yaml, 详细代码见 安装 tomcat

假设我们有服务 A 和 B 都需要安装 Tomcat,分别编辑 roles/A/meta/main.yamlroles/B/meta/main.yaml:

dependencies: - { role: common, service_root: "{{ Values.metadata.rootPath }}/xxx" }
yaml

上面的内容两个应用需要指定不同的 service_root 参数,否则对应的 role 只会执行一遍。

common 具体的代码可以看下面的 安装 tomcat

例子

安装 tomcat

这个例子会在本地缓存一份 tomcat 包,只要文件名称满足 apache-tomcat-*.tar.gz 就可以被自动获取,并安装到远程服务器。 如果本地不存在任何包时,将会自动从远程服务器中下载。

需要提供下面两个参数:

  • ansible_cache_directory: 存放 tomcat 包的位置
  • service_root: 远程服务器的应用根路径

创建文件 roles/common/tasks/main.yaml:

- name: Check Tomcat Exist stat: path: "{{ service_root }}/tomcat" register: tomcat - name: Init Tomcat when: not tomcat.stat.exists import_tasks: install.yaml - name: Fail if tomcat occupied when: - tomcat.stat.exists - not tomcat.stat.isdir fail: msg: "Tomcat directory '{{ tomcat_directory }}' exist, but it's a file!"
yaml

具体的安装逻辑(roles/common/tasks/install.yaml):

- name: Search local Tomcat vars: search_path: "{{ ansible_cache_directory }}/apache-tomcat-*.tar.gz" set_fact: tomcat_files: "{{ lookup('ansible.builtin.fileglob', search_path, wantlist = True ) }}" - name: Download tomcat delegate_to: localhost when: tomcat_files.__len__() == 0 block: - shell: cmd: "mkdir -p {{ ansible_cache_directory }}" - vars: dest: "{{ ansible_cache_directory }}/apache-tomcat-10.1.28.tar.gz" get_url: url: 'https://mirrors.huaweicloud.com/apache/tomcat/tomcat-10/v10.1.28/bin/apache-tomcat-10.1.28.tar.gz' checksum: sha512:b3177fb594e909364abc8074338de24f0441514ee81fa13bcc0b23126a5e3980cc5a6a96aab3b49798ba58d42087bf2c5db7cee3e494cc6653a6c70d872117e5 dest: "{{ dest }}" - vars: dest: "{{ ansible_cache_directory }}/apache-tomcat-10.1.28.tar.gz" set_fact: tomcat_files: "{{ [dest] }}" rescue: - name: Tip how to fix fail: msg: 'Failed to download Tomcat. You need to download Tomcat manually and then place it in `{{ ansible_cache_directory }}`. Please ensure that the file name follows the pattern `apache-tomcat-*.tar.gz`.' - name: Fail if multi package fail: msg: 'Multiply Tomcat packages found: {{ tomcat_files }}. Either rename it to not follow the pattern `apache-tomcat-*.tar.gz` or keep only one file there.' when: tomcat_files.__len__() > 1 - name: Send and unzip file. unarchive: src: "{{ tomcat_files[0] }}" dest: "{{ service_root }}" - name: Adjust folder name vars: zip_name: "{{ tomcat_files[0] | to_file_name }}" shell: cmd: > cd {{ service_root }} && rm -f {{ service_root }}/{{ zip_name }} && mv {{ zip_name[:-7] }} tomcat
yaml

install.yaml 每一步具体的功能如下:

  1. Search local Tomcat:使用 ansible.builtin.fileglob 模块搜索管理节点的缓存目录中的 tomcat 文件,注意需要提供wantlist = True参数,否则返回的将会是一个用逗号分割的字符串,而不是数据。

  2. Download tomcat:首先使用 when 判断上一步中搜素到的 tomcat 文件列表是否为空,如果为空,则从远程下载。这里使用 block 将具体的下载任务组合为一个整体,任意一个步骤发生错误都会触发 rescue 中的代码。同时这里使用了 delegate_to: localhost 来将这个任务交给管理节点处理,而不是远程节点。

    2.1. 这是一个脚本,确保远程服务器的目录存在

    2.2. 从远程下载 tomcat

    2.3. 覆盖 tomcat_files 变量,以便后续运行

  3. Fail if multi package: 判断 tomcat 文件是否有多个,如果有,发出提示并报错返回。

  4. Send and unzip file:将 tomcat 发送到远程服务器并解压

  5. Adjust folder name:删除多余的压缩包并且重命名 tomcat 目录以便于后续升级

这里还用到了一个 filterto_file_name。代码如下:

import os def to_file_name(path: str) -> str: return os.path.basename(path) class FilterModule(object): def filters(self): return { 'to_file_name': to_file_name, }
python

自定义模块创建文件夹

在这里自定义一个模块,用于递归创建文件夹,如果文件夹已经存在,返回 Unchanged 状态。

这里实际 ansible 已经提供了响应的模块:

- name: Recrusion create directory ansible.builtin.file: path: /opt/app/work state: directory
yaml
# recursion_mkdir.py import os.path from ansible.module_utils.basic import AnsibleModule def run_module(): module_args = dict( path=dict(type='list', required=True) ) result = dict( changed=False ) module = AnsibleModule( argument_spec=module_args, supports_check_mode=True ) paths = module.params['path'] if isinstance(paths, str): paths = [paths] for path in paths: if not os.path.isdir(path): os.makedirs(path, exist_ok=True) result['changed'] = True module.exit_json(**result) def main(): run_module() if __name__ == '__main__': main()
python

上面的代码中,虽然指定了 path 的类型为 list,但实际上是可以直接传一个字符串进来的,所以在代码中要做兼容。

之后使用环境变量指定模块目录:

ANSIBLE_LIBRARY=/your/module/directory/
bash

使用模块:

- name: Create required directory recursion_mkdir: path: - "/opt/app/home" - "/opt/app/configuration"
yaml

碰见的坑

使用 shell 启动后台服务立即退出

起因是我打算使用 shell 模块来启动 tomcat 服务:

- name: 'Restart Tomcat' shell: chdir: "{{ service_root }}/{{ tomcat_directory_name }}/bin" cmd: sh startup.sh
yaml

结构执行后,ansible 没保存,tomcat 这里没有运行,也没有日志...

最后查了一下,这里是需要用 nohup 直接在外面启动服务:

- name: 'Restart Tomcat' shell: chdir: "{{ service_root }}/{{ tomcat_directory_name }}/bin" cmd: nohup sh startup.sh 2>&1 > last-boot-log.log &
yaml

使用 ansible-runner

ansible-runner 可以帮助我们通过 Python 代码来调用 ansible 的 API,当需要从外部传入非常多的参数时可以考虑使用这个库。

安装依赖:

# python latest python3 -m pip install ansible-runner # python 3.6 python3 -m pip install ansible-runner==2.2.2
shell

运行一个 role:

import ansible_runner ansible_runner.interface.run( inventory=inventory_str, private_data_dir='./', playbook=play_yaml, extravars={ 'USERNAME': data.username, 'PASSWORD': data.password, 'HOST': data.host } )
python

所有的参数需要自己点开 run 方法看里面的注释。

详见:Introduction to Ansible Runner

在上面,我们有一个 private_data_dir,只需要将其指向目录结构的根目录,就可以不输入目录,直接使用文件名称就可以读取到相关的文件了。

已有环境

目前是有一套 webpack 的 vue2 环境,打生产包需要 2 ~ 3 分钟左右,开发启动需要 1 分钟左右。

迁移后,打生产包仅需 1 分钟,开发启动 10 秒左右。

注意,由于 vite v5 版本需要 node18 或者 node20+,所以一般只能升级到 v4,等稳定后再升 v5从 v4 迁移

vite v4 版本只需要 node14 就可以了,我自己目前的环境是 node12,可以直接升级,不会有很多坑。

准备迁移

安装依赖

安装下面的依赖:

npm install @vitejs/plugin-vue2 vite vite-plugin-html -D
bash

修改配置文件

在项目根目录创建 vite-config 目录,然后依次创建下面的文件:

// config.ts import { UserConfig } from 'vite' import vue from '@vitejs/plugin-vue2' import { createHtmlPlugin } from 'vite-plugin-html' import { resolve } from 'path' export const env = { // 页面 context path base: process.env.NODE_ENV === 'production' ? '/app' : '' } const config: UserConfig = { plugins: [ vue(), createHtmlPlugin({ entry: 'src/main.js', template: 'index.html', inject: { data: { base: env.base } } }) ], publicDir: 'static', resolve: { alias: { '@': resolve(__dirname, '../src'), '~@': resolve(__dirname, '../src') }, extensions: ['.mjs', '.js', '.ts', '.vue'] } } export default config
typescript
// dev.config.js import { defineConfig } from 'vite' import baseConfig, { env } from './config' const PROXY_TARGET = 'https://abc.com' export default defineConfig({ ...baseConfig, base: env.base, define: { 'process.env': { NODE_ENV: 'development', BASE_API: '/app-api' } }, server: { port: 1002, proxy: { '/app-api': { target: PROXY_TARGET, changeOrigin: true, secure: false, headers: { host: new URL(PROXY_TARGET).host, Referer: `${PROXY_TARGET}/app-api/`, Origin: PROXY_TARGET } } } }, })
typescript
// prod.config.ts import { defineConfig } from 'vite' import baseConfig, { env } from './config' export default defineConfig({ ...baseConfig, base: env.base, define: { 'process.env': { NODE_ENV: 'production', BASE_API: '/app-api' } }, esbuild: { drop: ['debugger'] }, build: { outDir: "app", assetsDir: 'static', cssCodeSplit: true, emptyOutDir: true, } })
typescript

不用多说,既然都来搞 vite 升级,肯定都能一眼看懂。

之后修改 pakcage.json 的启动配置:

{ // snip "scripts": { "dev": "vite --config vite-config/dev.config.ts", "start": "npm run dev", "build": "vite --config vite-config/prod.config.ts build", "lint": "eslint --fix --ext .js --ext .vue src/" }, // snip }
json

配置入口文件

主要是修改 vue 创建的方式:

new Vue({ router, store, i18n, render: h => h(App) }).$mount('#app')
javascript

然后修改我们的入口 html 文件:

<!DOCTYPE html> <html> <head> <meta charset="UTF-8"> <title>App</title> <meta name="viewport" content="width=device-width, initial-scale=1.0"> <meta name="renderer" content="webkit"> <meta http-equiv="X-UA-Compatible" content="ie=edge,chrome=1"> <link rel="stylesheet" type="text/css" href="/css/reset.css"> </head> <body> <div id="app"></div> <script> // 可以注入属性. window.base = '<%- base %>' </script> </body> </html>
html

至此理论上就可以直接启动了,启动后就可以根据编译的报错一个一个改了,后面就讲一下我碰到的坑。

迁移碰到的坑

静态资源获取

首先 vite 专门有个静态资源目录,如果你用的是我上面的配置,那么静态资源目录就在项目根目录下的 static 目录中。

假设有这样一个文件 static/img/hello.png,如果想要使用,直接使用根路径引用即可:

<img src="/img/hello.png">
html

而不是:

<img src="/static/img/hello.png"> <img src="<context path>/static/img/hello.png"> <img src="<context path>/img/hello.png">
html

上面几种写法均为错误写法!

对于第一种和第二种,不需要加上静态资源目录的名称,对于第三种,不需要加上 <context path>在打生产包时,如果你在配置文件中配置了 base 属性,vite 会自动给你加上!

此外下面的写法会让 vite 的自动添加路径失效:

<div style="background-image: url('/img/hello.png')"></div>
plaintext

这里直接将文件路径写在了 style 中,如果在生产模式下配置了 base,就会导致生产模式无法读取到图片,对于这种写法必须要以 css 的形式写,不能用内联样式!

'require' is not defined

这里 webpack 有两种用途:

  • 导入 nodejs 模块
  • 使用 require.context 动态导入模块或文件

对于前者,我建议赶快把 nodejs 模块全都换掉,别想着适配了,一般这种情况经常会出现在一些加密算法的库里,直接找到一个适合前端的库替换就行了。

而对于后者,就比较麻烦了...


我的项目里是这样的一个操作:

const requireAll = requireContext => requireContext.keys().map(requireContext) const req = require.context('./svg', false, /\.svg$/) requireAll(req)
javascript

上面的代码,会将 svg 目录下的所有文件注册为一个组件,然后放在页面上,然后使用 svg 的 use 来引用:

<svg> <use :xlink:href="iconName"></use> </svg>
html

这里建议直接改造,将图片直接封装成组件使用:

import { defineAsyncComponent } from 'vue' const components = {} { const files = import.meta.glob('./svg/*.svg', { query: 'component' }) for (const filesKey in files) { // remove prefix './svg/' and suffix '.svg' const key = filesKey.substring(6, filesKey.length - 4) components[key] = defineAsyncComponent(files[filesKey]) } } const getIcon = (name) => { const entity = components[name] if (!entity) { console.warn('Icon not found: ' + name) } return entity } export default getIcon
javascript

这里很容易理解,就是 getIcon 方法只需要传入文件的名称就会返回一个异步组件,然后在外部直接使用就可以了。

然后另外一个问题就来了,defineAsyncComponent 是 vue3 的 API (如果报错了,请把你的 vue2 升级到 2 的最后一个版本),那么我使用也得使用 vue3 的写法 (至少我是没找到怎么用 vue2 的写法来渲染这个组件的...):

<template> <div :class="svgClass" aria-hidden="true" > <Icon width="100%" height="100%" /> </div> </template> <script setup> import getIcon from './index' const props = defineProps({ iconClass: { type: String, required: true }, className: { type: String, default: undefined } }) const Icon = getIcon(props.iconClass) const svgClass = props.className ? 'svg-icon ' + props.className : 'svg-icon' </script>
html

vue3 写法 eslint 报错

如果直接用 vue3 setup 写法,eslint 可能会报错,但是仍然能够通过编译并使用,这里也需要一起升级一下 eslint。

安装/更新依赖:

npm i eslint@^8 eslint-plugin-vue@^9 vue-eslint-parser@^9 -D
bash

修改 eslint 配置:

module.exports = { root: true, parser: 'vue-eslint-parser', parserOptions: { sourceType: 'module' }, env: { browser: true, node: true, es6: true }, extends: ['eslint:recommended', 'plugin:vue/recommended'], rules: { // snip } }
javascript

主要是注意 parser 那个配置,别的根据自己的需求修改。

以 base64 导入文件

虽然是个很奇葩的需求,但是还是写一下。这里要求以 base64 格式导入 src (非静态资源目录)下的某个文件,默认情况下 vite 肯定是做不到的,这里要求我们自己定义插件:

// base64Loader.ts import type { Plugin } from 'rollup' import * as fs from 'fs' const base64Loader: Plugin = { name: 'base64-loader', transform(_: any, id: string) { const [path, query] = id.split('?') if (query !== 'base64') return null const data = fs.readFileSync(path) const base64 = data.toString('base64') return `export default '${base64}';` } } export default base64Loader
typescript

这段代码的作用是,如果在导入一个模块时加上了 ?base,则会以 base 格式进行导入。

然后在 vite 配置文件中配置:

// vite.config.ts import base64Loader from './base64Loader' const config: UserConfig = { plugins: [ // snip base64Loader ] // snip }
typescript