导航
当前位置:首页 > 生肖

形容两个人很像的词(描写两个人相似的句子)

形容两个人很像的词(描写两个人相似的句子)

本文目录一览:

随笔:年年岁岁雨相似,岁岁年年人不同

——匆匆更替的四季,忙碌的日子,阴晴不定的天气……万物都在以自己的法则生活,时间慢慢带走年少轻狂,也渐渐沉淀冷暖自知。

——题记

雨一直下,挡住了太阳升起的脚步。松果菊不管不顾,依旧在雨里旖旎,撑一把伞路过,掏出手机拍照,路人投过来各色的目光。没什么。我拍我的,左右腾转挪,选取着最佳角度。

想想,人过中年以后,就开始慢慢活得不那么慌张,拘束了。连写文章也是。想写的时候涂鸦几句,不想写的时候束之高阁。甚至没有立意,没有结构,句子不句子,段落不段落,也没有关系,就是随心随性地去表达下。

我的认识是,时光匆匆,人生需尽意。

(二)

睁开眼睛,耳畔同步到雨声。

其实已经不舍昼夜的下了两三天。

两三天,睡在雨里,也醒在雨里。情绪也落脚在雨里——年年岁岁雨相似,岁岁年年人不同。雨的境界一直未变,变的是人……

每逢下雨,码字的欲望就强些,文字的敏感度也高些。

也是,文化传承几千年,雨一直是文字的宠儿。

正好,这几天有琐事扰心,一场雨正好清亮思路——夏天,连雨也是青绿色的,清新,明亮。趁雨天,赶紧去‬收集‬‬那些被雨打湿‬‬的美意吧。

你看,匆匆更替的四季,忙碌的日子,阴晴不定的天气……万物都在以自己的法则生活,时间慢慢带走了年少轻狂,也渐渐沉淀了冷暖自知——人间事,好或不好,都在成为过去。

好吧,等雨停了,再写艳阳,且祝你无恙,也祝你夏安。

带你认识常见的修辞手法——比拟(拟人+拟物)

比拟是一种常见的修辞手法,诗歌、散文、小说或者戏剧中都常常能见到它的身影!

一、比拟的定义

比拟是根据想象把物当作人来写或把人当作物来写,或把甲物当作乙物来写的一种修辞手法。

二、比拟的形式

把事物“人化”,或把人“物化”,或把甲物“乙物化”。

三、比拟的种类(一)拟人

定义:把物当作人来写,赋予物以人的情感、意志、动作等,让无生命的事物变得有生命,或像人一样有情感和思维。

表达效果:1.赋予事物以人类的行为特点,使作者表达的情感更生动形象、感人;2.使描写的事物显得更活泼、亲切。

类型:1.把动物拟人

例句:……一只探险的蜜蜂正绕着布满的柳树枝头的金色的花朵嗡嗡着。看不见的云雀在天鹅绒般的绿油油的田野和盖满了冰的,收割后的田地上颤巍巍地歌唱着;田凫在那积满了塘水的洼地和沼泽上面哀鸣;鹤和鸿雁高高地飞过天空,发出春的叫喊;脱落了的毛还没有全长起来的家畜在牧场上吼叫起来了;弯腿的小羊在它们那掉了毛的咩咩地叫着的母亲身边跳跃;……真正的春天已经到来了。——(托尔斯泰《安娜·卡列尼娜》)

【简析】列文处在失恋的苦闷中,可是,春风给他带来了安慰、希望和信心。上述文字具体地、有层次地描写了春天给动物带来的变化。作者将动物人格化,赋予它们以人的品格。蜜蜂在“探险”,云雀在“歌唱”,田凫在“哀鸣”,鹤和鸿雁发出“叫喊”,小羊在“母亲”身边跳跃。作者将这些动物写得栩栩如生,画面洋溢着春天到来的蓬勃生机。

2.把植物拟人

例句:高粱好似一队队的“红领巾”,悄悄地把周围的道路观察;向日葵摇着头微笑着,望不尽太阳起处的红色天涯;矮小而年高的垂柳,用苍绿的叶子抚摸着快熟的庄稼;密集的芦苇,细心地护卫着脚下偷偷开放的野花。——(郭小川《团泊洼的秋天》)

【简析】诗人满怀,以拟人符合的方式描绘了团泊洼色彩缤纷,生机勃勃的动人秋景:高粱在“悄悄”“观察”,向日葵“摇着头微笑”着,“望”着,“年高”的垂柳“抚摸”着庄稼,芦苇“细心地护卫”着“偷偷开放的野花”。如此拟人,使画面上的这些自然景物静谧美好,多情和谐,栩栩如生,使诗人在特定环境中的满腔情怀形象化了。

3.把非生物拟人

例句:枪口对准星星,星星大吃一惊!看它呀,躲躲闪闪,看它呀,跳跳蹦蹦。星星,不要害怕,战士的眼睛最清!我们揍的是空中强盗,瞄你,只是练功。星星笑了,笑着跳上了准星。眼睛——星星,一条线,牵来了多少黎明! ——(石祥《瞄星星》)

【简析】星星,怎么会“大吃一惊”?怎么能“躲躲闪闪”“跳跳蹦蹦”?又怎么会“笑”?怎么会“跳上准星”?因为战士在用枪口瞄准它,然后作者又解释这是练功。之所以写得如此生动、形象,是因为作者展开想象之翼,根据星星的形象特征,让其人格化,赋予它以人的动作和情态。

4.以事理拟人

例句:这里叫洋八股废止,有些同志却实际上还在提倡。这里叫空洞抽象的调头少唱,有些同志却硬要多唱。这里叫教条主义休息,有些同志却叫它起床。——(《反对党八股》)

【简析】“教条主义”是个抽象的概念,看不见,摸不着。可是实行起来,害人不浅。许多反对教条主义的同志要它罢休,有的同志却偏要推之以出。作者将教条主义人格化,形象地说明它躺着休息,便安然无事;若是活动起来,便害人至深。

(二)拟物

定义:把人当作物来写,或把此物当作彼物来写。

表达效果:拟物可以给人以形象感,新奇感,使语言表达更生动,更富有情趣。

类型:1.把人当作动物、植物或无生物来描写,赋予人以动物、植物或无生物的某些特征。

(1)人拟为动物

例句:金色的太阳照耀着金色的麦浪,丰收的歌儿在田野里荡漾;维吾尔族姑娘插上金色的翅膀,在广阔的天地里飞翔。——(阿不都热西提《女拖拉机手》)

【简析】翅膀是属于鸟类的。作者却赋予维吾尔族姑娘以翅膀,并热情地讴歌:维吾尔族女拖拉机手驾驶铁牛,在肥沃的田野上自由地飞驰。

(2)人拟为植物

例句:那肥大的荷叶下面,有一个人的脸,下半截身子长在水里。荷花变成了人,那不是我们的水生吗?又往左右看去,不久,各人便找到了各人丈夫的脸,啊,原来是他们! ——(孙犁《荷花淀》)

【简析】几个妇女去前方看望丈夫。在荷花淀,看见荷叶下面的人“下半截身子长在水里”,人拟为荷,将隐蔽在荷叶下面的战士物化了,显得那么清新、美丽、可爱。

2.将物拟为物。包括以生物拟为无生物,以无生物拟为生物,以物拟为抽象事理,以抽象事理拟为物。

(1)拟无生物为动物

例句:予观夫巴陵胜状,在洞庭一湖。衔远山,吞长江,浩浩汤汤,横无际涯;朝晖夕阴,气象万千。此则岳阳楼之大观也。——(范仲淹《岳阳楼记》)

【简析】“衔”与“吞”都是动词,可以表示人或动物的动作。根据文意,作者是将“洞庭一湖”拟为动物。巍巍群山,能“衔”住,滚滚长江,能吞吐,可见洞庭湖之阔大,气势之宏伟。

(2)拟抽象事理为物

例句:三百年过去了,台伯河还像当年一样淙淙地流着,亚平宁半岛上的阳光也像当年一样和煦。罗马经历过战争,流血,唯物主义者——战士布鲁诺的思想在自由的人民当中翱翔。——(郑文光《火刑》)

【简析】“翱翔”是鸟特有的本领,“思想”不是鸟,是个抽象的概念,可以在人民中迅速传播。作者抓住这一点,运用比拟手法,赋予布鲁诺的思想以雄健的翅膀,把“思想”写活了,形象地说明了他的唯物主义思想具有强大的力量。

四、比拟的表达效果

比拟的特点是作者凭借客观事物来表达自己的感情,因为它是把甲事物当作乙事物来写,所以它具有思想的跳跃性,有助于读者或听众展开想象的翅膀,获得对事物的鲜明的印象。比拟的修辞效果主要有三点:

1.运用比拟可以鲜明地表达爱憎之情。运用比拟表现喜爱的事物,可以使之栩栩如生,让人倍感亲切。运用比拟表现讨厌的事物,可以使之生动形象,增强读者的厌恶感。

2.运用比拟可以使语言风趣幽默,这一种修辞效果多见于拟物的句子中。

3.运用比拟可以使抽象的东西具体化。

五、使用比拟应注意的问题

1.比拟要与情境相协调。

比拟是通过联想把甲事物当作乙事物来描写的一种修辞手段,必然会融进表达者的真情实感。在运用中应注意情与景相协调,即情景交融。

2.比拟的拟体要符合本体的特点。

运用比拟的目的是为了突出事物的特征,所以,拟体要尽量符合本体的特点。否则就会不伦不类。

3.比拟要避免褒贬不当。

比拟,不管是拟人还是拟物,都带有强烈的感彩,在使用比拟时要注意感彩协调一致,避免褒贬不当。

4.比拟要注意语体。

运用比拟要根据不同的情境,并不是任何场合都可以使用这种修辞手法。一般而言,文艺语体中使用比拟手法较多一些,科技语体、公文语体一般要慎用,否则会削弱公文的严肃性和科技文章的严谨性。

六、比拟与比喻

语言学家王希杰的《修辞学通论》中说:“比拟,向来是一个独立的辞格。但是,如果从本质上看,比拟其实就是比喻,比喻中的一种。比拟分为拟人和拟物两种:把人当作物,把物当作人。为什么要把,为什么可以把两个不同的事物混淆起来,把甲当作乙呢?因为这两种事物之间有某种相似之处,这种相似之处或者是客观存在的,或者是说写者主观心理上的一种情绪。”从本质上讲,比拟确实可以看成是比喻的一种。因此,比拟和比喻的界限有时确实不好划分。

但说到底,这还是两种不同的修辞手法。比喻与比拟的性质不同、作用不同。

比喻是用与本体事物有相似点的另一事物作比,也就是打比方;一定得有相似点,通过相似点使本体同喻体联系起来,唤起人们的联想,使人更具体地感知事物。

比拟即模拟,它是用乙事物具有的特性(包括称谓、动作、行为等)写甲事物,或者说是把乙事物的特性“强加”于甲事物。乙事物一般是有生命力的,能活动,有感情的;它比甲事物具体实在,于是本来较抽象、不太实在的事物变得具体实在了,当然就增添了语言的生动性。

由此可见,比喻强调的是甲乙两物的相似性,而比拟却是利用它们之间的不同特性,使两体融为一体,这是区别比喻和比拟最重要的标志。

句子的相似性-Sentence Transformer入门

AI生成的图片

Transformesr已经完全重建了自然语言处理(NLP)的领域。在Transformer出现之前,由于循环神经网络(RNNs)的语言理解能力有限,语言翻译和语言分类仅仅达到了一般的水平,存在许多小错误,而且对于更大的文本计算几乎是不可能实现的。

自从2017年第一个Transformer模型”Attention is all you need”出现以来,NLP已经从RNNs模型转向了像BERT和ChatGPT这样的模型。这些新模型可用于回答问题、撰写文章,实现非常直观的语义搜索等功能。

对于许多任务来说,这些模型的后半部分与RNNs中的相同——通常是几个前馈神经网络输出。但是模型预测这些层的输入已经改变了,transformer模型创建的密集嵌入包含更丰富的信息,尽管使用相同的最终输出层,我们也能获得巨大的性能提升。

这些日益丰富的句子嵌入可以用于快速比较句子相似度,如:

语义文本相似性—比较句子对。我们可能希望在数据集中识别模式,但这通常用于基准测试。

语义搜索—使用语义含义进行信息检索。给定一组句子,我们可以使用“查询”句子进行搜索并识别最相似的记录。使搜索能够基于概念(而不是特定的单词)进行。

聚类—我们可以对句子进行聚类。

在本文中,我们将使用Sentence Transformer模型去计算句子的密集词向量,并根据这些句子词向量来计算文本的相似性。

Sentence Transforme简介

我们先了解一下为什么Sentence Transformer方法生成的句子向量包含更多的语义。

Sentence Transformer是RNN模型的间接后代。这些旧的循环模型通常由许多循环单元(如LSTM或GRU)构建。

在机器翻译中,一般都会包含编码器-解码器网络。编码器模型将原始语言编码为上下文向量,解码器模型将其解码为目标语言。

编码器-解码器网络

这里的问题是我们在两个模型之间创建了一个信息瓶颈。我们在多个时间步骤中创造了大量的信息,试图将它们全部通过单一连接传递。这限制了编码器-解码器性能,因为在到达解码器之前,编码器产生的许多信息都会丢失。

注意机制提供了解决瓶颈问题的方法。它提供了另一条信息通过的路径。

带注意力的编码器-解码器网络

在解码期间,模型每次解码一个单词/时间步骤。对于每个步骤,计算该单词与所有编码器标记之间的alignment (例如,相似性)。

更高的alignment 导致在解码器步骤的输出上给编码器标记更大的权重。这意味着计算出哪些编码器单词值得关注。所有的最好的RNN编码器解码器模型,都使用了注意力机制。

2017年之后完全使用注意力机制来替代了RNN网络,并且获得更优秀的性能。而基于这种新的基于注意力机制的模型被命名为“transformer”。从那时起,NLP生态系统完全从RNN转向transformer,这归功于它们极为出色的性能和惊人的泛化能力。

第一个transformer通过使用三个关键组成部分消除了对RNN的需要:位置编码,自注意力,多头注意力。

预训练模型

新的transformer模型比以前为每个专门构建的RNN更具有普适性。使用transformer模型,可以使用相同的“核心”模型,并仅换掉最后几层以适应不同的需求(而无需重新训练核心)。

这种新属性导致了预训练模型在NLP领域的兴起。预训练的transformer模型是在大量的训练数据上进行训练的 - 通常是由Google或OpenAI等公司承担高成本,并发布供公众免费使用。

例如已经广泛使用的预训练模型BERT,即Google AI提出的双向编码器来自Transformer

BERT产生了一系列其他模型和派生模型,如distilBERT、RoBERTa和ALBERT,涵盖了分类、问答、词性标注等任务。

使用BERT用于句子相似度

到目前为止,但是这些transformer模型在构建句子向量时存在一个问题:transformer模型使用的是单词或token级别的嵌入,而不是句子级别的嵌入。

在引入句子transformer之前,使用BERT计算准确的句子相似度的方法是使用交叉编码器结构。这意味着我们将两个句子传递给BERT,将分类头添加到BERT的顶部,并使用此头将相似度得分输出。

使用Bert计算句子相似度的方法

交叉编码器网络确实可以产生非常准确的相似度评分(优于SBERT),但它不具备可扩展性。如果我们想要在一个小的10万个句子数据集中执行相似性搜索,我们需要完成100K次交叉编码器推断计算。

为了对句子进行聚类,我们需要比较我们100K数据集中的所有句子,导致近5亿次比较——这根本不现实。

理想情况下,我们需要预先计算可以存储的句子向量,然后在需要时使用。如果这些向量表示很好,我们只需要计算每个向量之间的余弦相似度即可。

使用原始的BERT(以及其他Transformer),我们可以通过对BERT输出的所有token嵌入值求平均(如果我们输入512个token,则输出512个嵌入)来构建句子嵌入。

使用这种方给我们带来句子嵌入,这些嵌入可以更快地存储和比较,将搜索时间大幅降低到秒级别,然而,准确率不高。

Sentence-BERT(SBERT)被设计用来能解决这个问题,它属于sentence-transformers之一。SBERT在几乎所有常见的语义文本相似性任务中都超越了之前的最先进模型。SBERT可以产生句子嵌入表达—因此我们不需要为每个句子对比较执行整个推断计算。

使用BERT从10K句子中找到最相似的句子对需要65小时。使用SBERT,嵌入可以在约5秒钟内创建,并与余弦相似度进行比较,耗时约0.01秒。

自SBERT论文以来,已经使用类似的概念构建了许多sentence-transformers模型,这些概念涉及训练原始SBERT。它们都是在许多相似和不相似的句子对上进行训练。

使用softmax损失、multiple negatives ranking loss等损失函数,这些模型被优化以产生相似的嵌入来表示相似的句子,不相似的嵌入代表不相似的句子。

sentence-transformers

我们解释了使用BERT进行句子相似性的交叉编码器架构。SBERT类似,但是放弃了最终的分类网络,并一次处理一个句子。然后,SBERT在最终输出层上使用平均池化来生成句子嵌入。

与BERT不同的是,SBERT使用孪生架构网络对句子对进行微调。我们可以将其看作是并行具有完全相同网络权重的两个相同的BERT。

SBERT计算句子向量表达

实际上,我们使用单个BERT模型。但是由于我们在训练期间将句子A和句子B作为成对处理,因此更容易将其视为具有绑定权重的两个模型。

孪生BERT预训练训练sentence-transformers有不同的方法。讲一下最初在原始SBERT中基于softmax-loss优化的流程。

训练语料库中的句对都包括前提和假设。每个句对被赋予三个标签:

0-蕴涵,例如前提暗示了假设。

1-中性,前提和假设都可能是真的,但它们不必相关。

2-矛盾,前提和假设相互矛盾。

根据这些数据,我们将句子A(假设是前提)馈送到孪生BERT A中,将句子B(假设是假设)馈送到孪生BERT B中。

孪生BERT输出我们的汇聚句子嵌入。在SBERT论文中,有三种不同的池化方法,分别是mean、max和[CLS]-pooling。大部分情况下mean-pooling方法表现最佳。

现在有两个句子嵌入。我们将嵌入A称为u,嵌入B称为v。下一步是将u和v拼接起来。同样,测试了多种拼接方法,但最高性能的是(u、v、|u-v|)操作。

向量拼接

|u-v|被计算出来用于给出两个向量之间每个元素的差异。除了原始的两个嵌入(u和v)外,它们都被传递到一个具有三个输出的前馈神经网络中。

这三个输出与我们的相似度标签0、1和2相对应。我们需要计算来自我们的前馈网络的softmax,使用交叉熵损失函数。

计算损失

这导致我们相似句子(标签0)的句子嵌入更加相似,而不相似句子(标签2)的嵌入变得更不相似。

需要注意的是(孪生神经网络)Siamese BERT不是两个网络。这意味着我们不使用两个独立的BERT模型,而是使用一个BERT模型依次处理句子A和句子B。

这意味着当我们优化模型权重时,使得模型在看到蕴含标签时输出更相似的向量,在看到矛盾标签时输出更不相似的向量。

使用sentence-transformers模型

使用sentence-transformers非常简单,首先安装sentence-transformers库

pip install sentence-transformers

我们首先使用all-mpnet-base-v2模型做一下实验,首先初始化模型

from sentence_transformers import SentenceTransformermodel = SentenceTransformer('all-mpnet-base-v2')print(model)

SentenceTransformer((0): Transformer({'max_seq_length': 384, 'do_lower_case': False}) with Transformer model: MPNetModel(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False})(2): Normalize())

可以看到输出的模型信息,输出词向量长度是768,最大允许的输入长度是384.

例子2:

计算句子的相似性

from sentence_transformers import SentenceTransformermodel=SentenceTransformer('C:\\Users\\xuetao\\.cache\\torch\\sentence_transformers\\sentence-transformers_chinese-roberta-wwm-ext')sentences = ["小鳄鱼爱洗澡","小明爱吹牛","小明的数学成绩比较好","小明的理想是做一个探险家","小鳄鱼的洗澡喜欢肥皂泡泡","这座亭子是题的","名医华佗是被曹操杀死的","我国四大名亭中陶然亭的亭名是题的( B )\nA.正确 B.错误\n","中国古代名医华佗为谁所杀?(D)A.刘邦 B.项羽 C.孙权 D.曹操","中国古代名医华佗为谁所杀","名医华佗是怎么死的"]embeddings = model.encode(sentences)print(embeddings)print(embeddings.shape)from sentence_transformers.util import cos_simscores = cos_sim(embeddings[-1], embeddings[:-1])print(sentences[-1])for i, score in enumerate(scores[0]):print(f"{round(score.item(), 4)} | {sentences[i]}")

输出:

名医华佗是怎么死的0.5757 | 小鳄鱼爱洗澡0.5982 | 小明爱吹牛0.631 | 小明的数学成绩比较好0.648 | 小明的理想是做一个探险家0.5724 | 小鳄鱼的洗澡喜欢肥皂泡泡0.6568 | 这座亭子是题的0.8773 | 名医华佗是被曹操杀死的0.658 | 我国四大名亭中陶然亭的亭名是题的( B )A.正确 B.错误0.7349 | 中国古代名医华佗为谁所杀?(D)A.刘邦 B.项羽 C.孙权 D.曹操0.8626 | 中国古代名医华佗为谁所杀

这个例子中我们使用了另一个模型sentence-transformers_chinese-roberta-wwm-ext汉语模型来计算句子的相似性,我们使用问题”名医华佗是怎么死的”,去和数据集合中中每一个段落的句子向量进行cosin相似性对比,从结果可以看出最匹配的句子是“名医华佗是被曹操杀死的”,相似性数值为0.87

我们将模型切换为all-mpnet-base-v2 再次运行这个程序

from sentence_transformers import SentenceTransformermodel = SentenceTransformer('all-mpnet-base-v2')

结果如下:

0.5537 | 小鳄鱼爱洗澡0.5795 | 小明爱吹牛0.6115 | 小明的数学成绩比较好0.6477 | 小明的理想是做一个探险家0.6701 | 小鳄鱼的洗澡喜欢肥皂泡泡0.6911 | 这座亭子是题的0.9952 | 名医华佗是被曹操杀死的0.7393 | 我国四大名亭中陶然亭的亭名是题的( B )A.正确 B.错误0.6029 | 中国古代名医华佗为谁所杀?(D)A.刘邦 B.项羽 C.孙权 D.曹操0.6708 | 中国古代名医华佗为谁所杀

可以看到"名医华佗是被曹操杀死的"的得分变得更加的高。

其他sentence-transformers模型

原始SBERT模型中在当时获得了不错的结果,但是此后已经建立了许多sentence-transformers模型,其中许多可以在sentence-transformers库中找到,这些新模型可以明显优于原始的SBERT。

登录huggingface官网,在模型库中有很多已经训练好的模型可以选择。

huggingface的sentence-transformers库

官网上有几百个模型可以选择,很多都是支持中文的,如果这些模型不能满足细分领域的需求,也可以自己动手根据huggingface的教程来训练自己的中文sentence-transformers。

总结

本文介绍了句子嵌入和当前最先进的sentence-transformers模型,用于构建这些句子或者段落的密集向量嵌入表达。在后面的文章中,我们将深入探讨其中一些新模型以及如何训练自己的sentence-transformers。

随笔:年年岁岁雨相似,岁岁年年人不同

——匆匆更替的四季,忙碌的日子,阴晴不定的天气……万物都在以自己的法则生活,时间慢慢带走年少轻狂,也渐渐沉淀冷暖自知。

——题记

雨一直下,挡住了太阳升起的脚步。松果菊不管不顾,依旧在雨里旖旎,撑一把伞路过,掏出手机拍照,路人投过来各色的目光。没什么。我拍我的,左右腾转挪,选取着最佳角度。

想想,人过中年以后,就开始慢慢活得不那么慌张,拘束了。连写文章也是。想写的时候涂鸦几句,不想写的时候束之高阁。甚至没有立意,没有结构,句子不句子,段落不段落,也没有关系,就是随心随性地去表达下。

我的认识是,时光匆匆,人生需尽意。

(二)

睁开眼睛,耳畔同步到雨声。

其实已经不舍昼夜的下了两三天。

两三天,睡在雨里,也醒在雨里。情绪也落脚在雨里——年年岁岁雨相似,岁岁年年人不同。雨的境界一直未变,变的是人……

每逢下雨,码字的欲望就强些,文字的敏感度也高些。

也是,文化传承几千年,雨一直是文字的宠儿。

正好,这几天有琐事扰心,一场雨正好清亮思路——夏天,连雨也是青绿色的,清新,明亮。趁雨天,赶紧去‬收集‬‬那些被雨打湿‬‬的美意吧。

你看,匆匆更替的四季,忙碌的日子,阴晴不定的天气……万物都在以自己的法则生活,时间慢慢带走了年少轻狂,也渐渐沉淀了冷暖自知——人间事,好或不好,都在成为过去。

好吧,等雨停了,再写艳阳,且祝你无恙,也祝你夏安。

论历史相似性:此人与岳飞都矢志北伐,但最后只留两个成语传世

本文内容来自于网络,若与实际情况不相符或存在侵权行为,请联系删除。本文仅在今日头条首发,请勿搬运。

历史之潮汹涌澎湃,时而呈现出惊人的相似。这是一段将我们带回了1127年北伐后的南宋时期,岳飞作为南宋的名将,胸怀北伐之志,但最终却身陷囹圄,身命不保。然而,在这段历史背后,隐藏着另一个令人唏嘘的故事,一个比岳飞早发生800多年的悲剧,那就是祖逖。

祖逖,字士雅,出生在河北范阳,家境中等,父亲是太守,他并不是名门望族的子弟,却从小怀抱远大抱负。他刻苦修习剑术,常常梦想担负国家大任,心怀报国之志。成语“闻鸡起舞”便源自他早年练剑的故事。然而,311年,刘曜的匈奴军攻占了洛阳,西晋灭亡,晋怀帝被俘,祖逖被迫南渡,而他的机会随之来临。

祖逖在江南遇到了晋元帝司马睿,被任命为徐州刺史和军谘祭酒。他趁机上疏司马睿,恳请北伐,恢复失地。尽管司马睿初来乍到,对江南尚不稳固,内心并没有北伐的决心。但祖逖的劝告道出了情理,司马睿只得表面答应,却只提供微薄的军粮和物资。祖逖不得已自行募兵和筹备兵器,于是,他开始了北伐的征程。

313年,祖逖被封为奋威将军和豫州刺史,带领数百亲族以及自己募集的士兵北伐。中流击楫,他誓言不回渡长江,直到平复中原,恢复失地。祖逖的军队到达淮阴,并在雍丘安营扎寨。此时,入侵中原的主要敌人是石勒,后来的后赵明帝。

祖逖面临重重困难,特别是军粮短缺,但凭借自己的军事智慧和坚韧不拔的意志,他成功收复了黄河以南的失地。晋元帝封他为镇西将军,他的军功世人传颂。

然而,祖逖的北伐之志并未实现,他的光辉战绩在权臣王敦的阴谋中夭折。王敦及其家族掌握了朝政,并排挤祖逖,尤其是在晋元帝开始怀疑祖逖的忠诚后。最终,晋元帝任命文臣戴渊前来压制祖逖,而戴渊对军事一窍不通,仅知道助纣为虐。祖逖的生活陷入了痛苦之中,最后因忧愁成疾,于一天的黄昏辗转于军营。他看到一颗流星划过,感慨万分,预感天命已至,但北伐大业未能完成。不久后,他辞世,享年56岁。

祖逖一去,权臣奸佞交替执政,北伐大业化为泡影。他的弟弟祖约继续领导遗腹部队,但士气已然低落,不久后再度失去了那片重要领土,被后赵军队夺走。

历史的相似性时常令人不禁感慨。祖逖和岳飞,西晋和南宋,晋元帝和宋高宗,王敦和秦桧,这些历史时期、人物和命运,以惊人的相似性相互映衬。他们都是历史长河中的英雄,为国家和民族的命运挥洒着热血,却最终都面临着无法逆转的悲剧。

以上内容资料均来源于网络,本文作者无意针对,影射任何现实国家,政体,组织,种族,个人。相关数据,理论考证于网络资料,以上内容并不代表本文作者赞同文章中的律法,规则,观点,行为以及对相关资料的真实性负责。本文作者就以上或相关所产生的任何问题任何概不负责,亦不承担任何直接与间接的法律责任。