爱看书吧

爱看书吧 > 其他小说 > 离语 > 正文 第371章 我要听师父讲故事

正文 第371章 我要听师父讲故事(第2页/共2页)

本站最新域名:m.xakshu8.com
老域名即将停用!

出了利用《新华字典》构建向量空间来做中

    文文本语义相似度分析的方法,该方法在中文文本相似度计算方面取得了显着的效果。放眼国外,

    google 的研究者提出了 word2vec 算法,该算法将词语表示为高维向量空间中的点,通过计算点之

    间的距离来衡量词语之间的相似度。word2vec 算法在文本相似度计算领域具有广泛的影响。斯坦

    福大学等机构的研究者提出了 bert 模型,该模型通过大量的无监督学习来捕捉文本的上下文信

    息,可以实现高精度的文本相似度计算。bert 模型在多项自然语言处理任务中均取得了优异的表

    现。

    2.5 本章小结

    本章主要介绍了本项目中使用的四种关键技术与模型。这些技术主要基于大型语言模型,并且

    小主,这个章节后面还有哦,请点击下一页继续阅读,后面更精彩!

    依赖于 rag 技术的原理。介绍了知识抽取技术,它利用先进的自然语言处理技术从文本中提取有意

    义的信息和知识,随后讨论了文本处理中所使用的 rag 技术,该技术可以显着提高大型语言模型在

    专业领域的性能,增强信息检索的准确性和效率。最后探讨了在文本比对过程中所需的相似度计算

    方法,这对于评估文本之间的相似程度至关重要。

    了解清楚数据获取来源后,进行数据采集,数据采集的方法包括自动化和手动两种方式:

    自动化采集:利用编写的 python 脚本通过 api 接口自动从上述数据库和期刊中下载文献和元

    数据,部分代码如图 3.2 所示。这种方法的优点是效率高,可以大量快速地收集数据。使用

    beautifulsoup 和 requests 库从开放获取的期刊网站爬取数据。

    手动采集:通过访问图书馆、研究机构以及联系文章作者等方式获取不易自动下载的资源。虽

    然此方法更费时,但有助于获取更全面的数据集,特别是一些最新或尚未公开的研究成果。

    将两种方法采集到的文献数据进行汇总,最大范围的将有关电力 lca 领域的英文文献进行汇

    总,共获得 507 篇。

    最后是将各个途径获取到的文献数据和元数据汇总,进行数据预处理。

    采集到的数据需经过清洗和预处理,才能用于后续的分析。

    数据预处理的步骤包括:

    数据清洗:删除重复的记录,校正错误的数据格式,填补缺失值。

    数据整合:将来自不同来源的数据整合到一个统一的格式和数据库中,如表 3.1 所示,以便进

    行进一步的分析。

    为了使后续知识库生成更加准确与完善,对文献具体内容进行筛选。例如部分文献中并未提到

    所用数据,而是指出所用数据库链接,如图 3.3 所示,在对该篇文献进行解析后,数据部分就是欠

    缺的,最终构建的知识库就不完整,在调用大模型回答相关问题时,极大概率产生幻觉。因此为了

    构建更为准确的专业模型,对爬取下来的 507 篇文献进行筛选,选择包括流程图(system

    boundaries)、各单元过程或生产环节的投入( input),产出( output),数据( life cycle

    inventory),以及数据的时间、地点、获取方法、技术细节的文献作为最后应用的数据。核对内容

    后的文献数据集共 98 篇英文文献。

    喜欢离语请大家收藏:离语m.ikbook.com网更新速度全网最快。
『加入书签,方便阅读』