Neural Networks

Neural Networks是一份国际专业期刊,致力于汇集全球范围内最优秀的计算机科学-COMPUTER SCIENCE, ARTIFICIAL INTELLIGENCE研究者,为他们提供一个展示最新研究成果、交流学术思想的平台。该期刊中文名称:神经网络,国际简称:NEURAL NETWORKS,在中科院分区表2023年12月升级版中大类学科位于1区。本刊是一本OA未开放访问期刊,该刊预计审稿周期: 约12.0个月 约10.5周。

基础信息
  • 大类学科:计算机科学
  • 小类学科:COMPUTER SCIENCE, ARTIFICIAL INTELLIGENCE
  • 是否预警:否
  • 影响因子:6
  • ISSN:0893-6080
  • E-ISSN:1879-2782
  • CiteScore:13.9
  • H-index:128
  • 出版语言:English
  • 出版商:Elsevier Ltd
  • 出版地区:ENGLAND
  • 出版周期:Monthly
  • 是否预警:否
  • 创刊时间:1988
  • 文章自引率:0.0769...
  • 是否OA:未开放
  • 出版地区:ENGLAND
  • 影响因子:6
  • 年发文量:595
  • 出版周期:Monthly
  • CiteScore:13.9
  • H-index:128
  • 研究类文章占比:98.15%
  • Gold OA文章占比:19.75%
  • 开源占比:0.1207
  • OA被引用占比:0.0623...
  • 出版国人文章占比:0.35

期刊简介

Neural Networks杂志是一本未开放获取期刊,由Elsevier Ltd出版,Monthly发行一次。该杂志是计算机科学领域方面发表综合文章的国际论坛。此外,该期刊还有助于促进这些研究领域的科学家之间的交流,从而开发新的研究机会,通过新发现推动该领域的发展,并接触到各个层次的科学家。该刊入选的论文应具有广泛意义的数据、综合研究或概念。

Neural Networks已被国际权威数据库SCIE收录。该刊欢迎来自所有计算机科学及其相关领域的投稿,编辑们致力于迅速评估和发表提交的论文,同时坚持高标准,该期刊发表多种类型的内容,包括原创研究论文、综述、信件、通讯和评论,这些内容详细阐述了该领域的重大进展并涵盖热门话题。近年在Neural Networks期刊上发表文章的机构主要的有:CHINESE ACADEMY OF SCIENCES、SOUTHEAST UNIVERSITY - CHINA、UNIVERSITY OF ELECTRONIC SCIENCE & TECHNOLOGY OF CHINA、TEXAS A&M UNIVERSITY QATAR、HUAZHONG UNIVERSITY OF SCIENCE & TECHNOLOGY;在该期刊上发表文章的主要国家和地区有:CHINA MAINLAND、USA、England、Japan、Australia。

中科院SCI分区表

中科院分区 2023年12月升级版
大类学科 小类学科 Top期刊 综述期刊
计算机科学 1区
COMPUTER SCIENCE, ARTIFICIAL INTELLIGENCE 计算机:人工智能 NEUROSCIENCES 神经科学
2区 2区
中科院分区 2022年12月升级版
大类学科 小类学科 Top期刊 综述期刊
计算机科学 1区
COMPUTER SCIENCE, ARTIFICIAL INTELLIGENCE 计算机:人工智能 NEUROSCIENCES 神经科学
2区 2区
中科院分区 2021年12月旧的升级版
大类学科 小类学科 Top期刊 综述期刊
计算机科学 2区
COMPUTER SCIENCE, ARTIFICIAL INTELLIGENCE 计算机:人工智能 NEUROSCIENCES 神经科学
2区 2区
中科院分区 2021年12月基础版
大类学科 小类学科 Top期刊 综述期刊
工程技术 2区
COMPUTER SCIENCE, ARTIFICIAL INTELLIGENCE 计算机:人工智能 NEUROSCIENCES 神经科学
2区 2区
中科院分区 2021年12月升级版
大类学科 小类学科 Top期刊 综述期刊
计算机科学 2区
COMPUTER SCIENCE, ARTIFICIAL INTELLIGENCE 计算机:人工智能 NEUROSCIENCES 神经科学
2区 2区
中科院分区 2020年12月旧的升级版
大类学科 小类学科 Top期刊 综述期刊
计算机科学 2区
COMPUTER SCIENCE, ARTIFICIAL INTELLIGENCE 计算机:人工智能 NEUROSCIENCES 神经科学
2区 2区

中科院分区表被广泛应用于国际科研评价体系中。许多国际学术机构、研究基金以及大学都采用这种分区方式来评估研究者的学术贡献和水平,这使得中科院SCI期刊分区在国际上得到了广泛的认可和应用。中科院SCI期刊分区的计算方式主要基于期刊的三年平均影响因子, 这一计算方式更准确地反映期刊在一段时间内的学术影响力和水平。

JCR分区(2023-2024年最新版)

按JIF指标学科分区 收录子集 分区 排名 百分位
学科:COMPUTER SCIENCE, ARTIFICIAL INTELLIGENCE SCIE Q1 38 / 197

81%

学科:NEUROSCIENCES SCIE Q1 34 / 310

89.2%

按JCI指标学科分区 收录子集 分区 排名 百分位
学科:COMPUTER SCIENCE, ARTIFICIAL INTELLIGENCE SCIE Q1 28 / 198

86.11%

学科:NEUROSCIENCES SCIE Q1 32 / 310

89.84%

Cite Score(2024年最新版)

  • CiteScore:13.9
  • SJR:2.605
  • SNIP:2.442
学科类别 分区 排名 百分位
大类:Neuroscience 小类:Cognitive Neuroscience Q1 4 / 115

96%

大类:Neuroscience 小类:Artificial Intelligence Q1 35 / 350

90%

CiteScore分区标准主要是基于学科领域期刊的引用次数排名进行划分的。具体来说,这个标准将期刊分为四个区域:Q1、Q2、Q3和Q4。Q1区包含的是引用次数排名最前的前25%的期刊,这些期刊在学科领域内具有最高的影响力。接下来的Q2区包含引用次数排名次高的25%的期刊,以此类推,Q3和Q4区分别包含引用次数排名中等的和后25%的期刊。

期刊指数

影响因子和CiteScore统计图

影响因子和CiteScore都是重要的学术评价指标,能够帮助研究者和学者了解期刊的学术影响力。影响因子(Impact Factor)和CiteScore在计算方式和覆盖范围上有所不同。影响因子主要关注期刊过去两年内发表的论文被引用的次数,而CiteScore则考虑了过去三年的数据。此外,影响因子是基于Web of Science数据库计算的,而CiteScore则是基于Scopus数据库。这使得两种指标在评估学术期刊时具有不同的侧重点和覆盖范围。

中科院分区表统计图
被他刊引用次数统计
引用他刊次数统计

期刊被他刊引用次数反映了期刊上发表的论文被其他研究者和学者引用的频率。被引指数越高,说明该期刊的论文在学术界受到的关注越广泛,影响力也越大。

期刊引用他刊次数指标通常指的是该期刊所发表的论文中引用其他期刊文献的次数。这个指标可以反映期刊在学术交流和知识传播中的活跃程度,以及期刊对外部研究成果的引用和整合能力。

该期刊中国学者近期发表论文选摘

  • Lifelong learning with Shared and Private Latent Representations learned through synaptic intelligence Journal: NEURAL NETWORKS. 2023; Vol. 163, Issue , pp. 165-177. DOI: 10.1016/j.neunet.2023.04.005
  • Collaborative-guided spectral abundance learning with bilinear mixing model for hyperspectral subpixel target detection Journal: NEURAL NETWORKS. 2023; Vol. 163, Issue , pp. 205-218. DOI: 10.1016/j.neunet.2023.02.002
  • Unsupervised graph-level representation learning with hierarchical contrasts Journal: NEURAL NETWORKS. 2023; Vol. 158, Issue , pp. 359-368. DOI: 10.1016/j.neunet.2022.11.019
  • Monte Carlo Ensemble Neural Network for the diagnosis of Alzheimer's disease Journal: NEURAL NETWORKS. 2023; Vol. 159, Issue , pp. 14-24. DOI: 10.1016/j.neunet.2022.10.032
  • Factorizing time-heterogeneous Markov transition for temporal recommendation? Journal: NEURAL NETWORKS. 2023; Vol. 159, Issue , pp. 84-96. DOI: 10.1016/j.neunet.2022.11.032
  • Efficient Perturbation Inference and Expandable Network for continual learning Journal: NEURAL NETWORKS. 2023; Vol. 159, Issue , pp. 97-106. DOI: 10.1016/j.neunet.2022.10.030
  • Variable three-term conjugate gradient method for training artificial neural networks Journal: NEURAL NETWORKS. 2023; Vol. 159, Issue , pp. 125-136. DOI: 10.1016/j.neunet.2022.12.001
  • Representation learning for continuous action spaces is beneficial for efficient policy learning Journal: NEURAL NETWORKS. 2023; Vol. 159, Issue , pp. 137-152. DOI: 10.1016/j.neunet.2022.12.009
  • Path reliability-based graph attention networks Journal: NEURAL NETWORKS. 2023; Vol. 159, Issue , pp. 153-160. DOI: 10.1016/j.neunet.2022.11.021
  • An explainable autoencoder with multi-paradigm fMRI fusion for identifying differences in dynamic functional connectivity during brain development Journal: NEURAL NETWORKS. 2023; Vol. 159, Issue , pp. 185-197. DOI: 10.1016/j.neunet.2022.12.007
免责声明

若用户需要出版服务,请联系出版商:PERGAMON-ELSEVIER SCIENCE LTD, THE BOULEVARD, LANGFORD LANE, KIDLINGTON, OXFORD, ENGLAND, OX5 1GB。