Lustre 2.12.7 更新日志

来自Lustre文件系统
跳转至: 导航搜索

服务器支持的内核:

  • RHEL 7.9 (3.10.0-1160.25.1.el7)

客户端支持的无补丁内核:

  • RHEL 7.9 (3.10.0-1160.25.1.el7)
  • RHEL 8.4 (4.18.0-305.3.1.el8_4)
  • sles12 sp5 (4.12.14-122.66.2)
  • Ubuntu 18.04 (4.15.0-72)

推荐的e2fsprogs版本:

  • v1.46.2.wc3

互操作性支持。

  • 客户端和服务器:最新的2.10.X和最新的2.11.X

在2.12.6和2.12.7之间修复的问题

版本说明 - Lustre - 版本 Lustre 2.12.7

改进

   * [LU-14075] - 内核更新 [RHEL8.2 4.18.0-193.28.1.el8_2] 。
   * [LU-14376] - 内核更新[SLES12 SP5 4.12.14-122.57.1] 。
   * [LU-14395] - 内核更新[RHEL7.9 3.10.0-1160.15.2.el7] 。
   * [LU-14450] - 内核更新[RHEL8.3 4.18.0-240.15.1.el8_3] 。
   * [LU-14488] - 支持rdma_connect_locked()
   * [LU-14527] - 内核更新 [RHEL7.9 3.10.0-1160.21.1.el7] 。
   * [LU-14604] - 内核更新[RHEL8.3 4.18.0-240.22.1.el8_3] 。
   * [LU-14617] - 为llog_reader添加updatelog支持
   * [LU-14670] - 内核更新 [RHEL7.9 3.10.0-1160.25.1.el7] 。
   * [LU-14672] - 内核更新[SLES12 SP5 4.12.14-122.66.2]。
   * [LU-14690] - RHEL8.4支持


错误

   * [LU-9193] - 在许多open/getattr中观察到多个挂起。
   * [LU-10157] - LNET_MAX_IOV硬编码为256
   * [LU-10350] - ost-pool测试1n失败,"未能写入/mnt/lustre/d1n.ost-pool/file。1'
   * [LU-10632] - recovery-small test 26a 测试失败: 'client not evicted from OST' (客户未从OST驱逐)
   * [LU-10753] - sanity测试300c失败,"创建5k文件失败 "
   * [LU-11409] - 只有前100个OSC可以缩减赋权
   * [LU-11665] - sanity test 101c: 失败:小4k读取IO 240 !
   * [LU-11835] - DOM打开重新发送不返回大小
   * [LU-12003] - 在osd_trunc_unlock_all(ldiskfs)中访问无效的semaphore
   * [LU-12506] - 客户端无法挂载包含非常多的MDT的文件系统
   * [LU-12564] - ptlrpcd守护进程在持有imp_lock自旋锁的情况下睡眠
   * [LU-12675] - LBUG "(lu_object.c:1196:lu_device_fini()) ASSERTION( atomic_read(&D->ld_ref) == 0 ) 失败:在最新的master上运行sanity.sh,Refcount为1"
   * [LU-12681] - 数据损坏 - 由于不正确的KMS与SEL文件
   * [LU-12866] - 互操作测试sanity-hsm test 113 失败 '大小不一样 1048580 1048576'.
   * [LU-12999] - gcc8编译时对name_create_mdt的字符串溢出发出警告
   * [LU-13073] - OSS崩溃后,多个MDS死锁(在lod_qos_prep_create)。
   * [LU-13181] - 在有64k页的AARCH64上出现kiblnd_fmr_pool_map错误
   * [LU-13182] - MAP_POPULATE在Linux 5.4下挂起。
   * [LU-13498] - sanity测试56w失败,"/usr/bin/lfs_migrate -y -c 7 /mnt/lustre/d56w.sanity/file1 failed ' 。
   * [LU-13608] - MDT卡在等待中,abort_recov也阻塞了。
   * [LU-13609] - lctl --device MGS llog_catlist 没有列出所有配置文件。
   * [LU-13649] - osd_destroy()) ASSERTION( !lu_object_is_dying(dt->do_lu.lo_header) )失败
   * [LU-13754] - CentOS/RHEL 7.8上基于GSS的认证失败
   * [LU-13759] - sanity-dom sanityn_test_20失败,"锁取消后缓存中还剩1页"。
   * [LU-13972] - kiblnd可以无限期地继续尝试重新连接。
   * [LU-14024] - ofd_inconsistency_verification_main在关机时释放后使用。
   * [LU-14027] - 客户端恢复statemachine在恢复断开连接时挂起的锁定回复
   * [LU-14031] - 重新连接之间的时间很长
   * [LU-14036] - lbuild无法构建MOFED 5.1。
   * [LU-14109] - lnetctl man page中缺少export --backup选项
   * [LU-14119] - FID-in-LMA [fid1] 与对象的self-fid [fid2] 不匹配。
   * [LU-14121] - EACESS 当使用nodemap与admin=0时,slurm日志文件的权限被拒绝。
   * [LU-14327] - 互操作:sanity-sec测试55失败,"test_55 failed with 13"
   * [LU-14355] - LustreError: 3782:0:(sec.c:411:import_sec_validate_get()) import ffff8dff56545800 (CONNECTING) with no sec.
   * [LU-14490] - 如果将条带目录作为子目录挂载,会出现额外的getattr RPC。
   * [LU-14553] - 由于lfs changelog_clear,出现不适当的控制台日志信息
   * [LU-14588] - LNet:使配置脚本感知到ofed符号的存在 
   * [LU-14603] - OST:没有操作码0x16的处理程序
   * [LU-14627] - 在发现过程中丢失了lnet_peer上的ref,导致LNetError: 24909:0:(peer.c:292:lnet_destroy_peer_locked() ASSERTION( list_empty(&lp->lp_peer_nets) )失败。
   * [LU-14673] - panic: crc32-table: crc32 alg self 测试在fips模式下失败!


阅读英文原文