GDAL 实现自定义数据坐标系

作者:GIS之路日期:2026/1/3

^ 关注我,带你一起学GIS ^

前言

在GIS开发中,经常需要进行数据的转换处理,特别是Shapefile数据的投影转换更是重中之重,如何高效、准确的将源数据坐标系转换到目标坐标系是我们需要研究解决的问题。

在之前的文章中讲了如何使用GDAL或者ogr2ogr工具将txt以及csv文本数据转换为Shp格式,本篇教程在之前一系列文章的基础上讲解如何使用GDAL实现自定义数据坐标系。

如果你还没有看过,建议从以上内容开始。

1. 开发环境

本文使用如下开发环境,以供参考。

时间:2025年

系统:Windows 11

Python:3.11.7

GDAL:3.11.1

2. 数据重投影

定义一个方法ShpProjection用于实现Shp数据的投影转换,其中参数sourcePath为源数据路径,targetPath为目标文件路径。

1"""
2说明:Shapfile 文件重投影
3参数:
4    -sourcePath:Shp 源文件路径
5    -targetPath:投影文件目标路径
6"""
7def ShpProjection(sourcePath,targetPath):
8

先检查源数据文件是否存在,若不存在则退出程序

1# 检查Shp源文件是否存在
2if os.path.exists(sourcePath):
3    print("源文件存在!")
4else:
5    print(f"源文件不存在:{sourcePath}")
6    return
7

添加Shp数据驱动用于创建Shp数据源和图层,GetDriverByName方法需要一个驱动器名称。还需要检查一下目标数据路径是否正常,只有在目标路径正常时才创建数据源。

1# 获取Shp数据驱动
2shpDriver = gdal.GetDriverByName("ESRI Shapefile")
3
4# 检查Shp文件是否存在
5if os.path.exists(targetPath):
6    try:
7        shpDriver.DeleteDataSource(targetPath)
8        print("文件已删除!")
9    except Exception as e:
10        print(f"文件路径不存在!:{e}")
11        return False
12# 创建数据源
13targetDataSource = shpDriver.CreateDataSource(targetPath)
14

获取源数据图层信息并创建坐标系统。osr模块下的SpatialReference方法用于定义空间参考信息。其中空间参考信息具有三种形式,可以传递字符串名称,EPSG代码或者wkt形式的坐标定义内容。如下采用name参数形式。

1# 获取Shp数据图层
2sourceDataSource = ogr.Open(sourcePath)
3sourceLayer = sourceDataSource.GetLayer()
4
5# 获取坐标系
6srs = osr.SpatialReference(epsg=5646)
7print(f"坐标系统名称:{srs.GetName()}")
8

打印坐标系统名称如下:

使用CreateLayer方法创建目标图层,本例中数据类型为LineString,所以geom_type参数为ogr.wkbLineString。之后遍历源图层数据,将属性字段和要素值写入投影图层之中。

1# 创建Shp投影数据图层
2geomType = sourceLayer.GetGeomType()
3shpProjectLayer = targetDataSource.CreateLayer(
4    "layer",
5    srs=srs,
6    geom_type=ogr.wkbLineString
7)
8
9# 获取源图层属性结构
10layerDefn = sourceLayer.GetLayerDefn()
11print(layerDefn.GetFieldCount())
12
13fieldCount = layerDefn.GetFieldCount()
14
15# 添加属性字段
16for i in range(fieldCount):
17    fieldDefn = layerDefn.GetFieldDefn(i)
18    shpProjectLayer.CreateField(fieldDefn)
19
20for feature in sourceLayer:
21    shpProjectLayer.CreateFeature(feature)
22
23if __name__  == "__main__":
24
25    sourcePath = "E:\data\test_data\geojson\river.shp"
26    targetPath = "E:\data\test_data\geojson\river_project.shp"
27
28    ShpProjection(sourcePath,targetPath)
29

运行成功之后在ArcGIS中打开图层属性显示如下:

OpenLayers示例数据下载,请在公众号后台回复:ol数据

全国信息化工程师-GIS 应用水平考试资料,请在公众号后台回复:GIS考试

GIS之路 公众号已经接入了智能 助手,可以在对话框进行提问,也可以直接搜索历史文章进行查看。

都看到这了,不要忘记_点赞、收藏_ + 关注

本号不定时更新有关 GIS开发 相关内容,欢迎关注


GeoTools 开发合集(全)

OpenLayers 开发合集

GDAL 实现矢量数据读写

GDAL 数据类型大全

百度宣布,良心画图工具停服!

GDAL 实现 GIS 数据读取转换(全)

GIS 数据转换:使用 GDAL 将 Shp 转换为 GeoJSON 数据

GIS 数据转换:使用 GDAL 将 GeoJSON 转换为 Shp 数据

GIS 数据转换:使用 GDAL 将 TXT 转换为 Shp 数据


GDAL 实现自定义数据坐标系》 是转载文章,点击查看原文


相关推荐


刷新后点赞全变 0?别急着怪 Redis,这八成是 Long 被 JavaScript 偷偷“改号”了(一次线上复盘)
WanderInk2025/12/25

做社区功能的人,多半都经历过这种抓狂时刻:你在帖子上点了个赞,按钮立刻高亮,数字也加一,用户体验看起来很丝滑;可你一刷新页面,点赞数像被人清空了一样,全部回到 0。你打开 Redis 客户端看,计数 key 明明存在,值也不是 0。于是你开始怀疑缓存一致性,怀疑是不是读了另一台 Redis,怀疑线上 jar 没更新,甚至怀疑自己是不是在梦里写代码。 我得说,这类问题最阴的地方就在于它特别像缓存问题,实际上却往往跟缓存一点关系都没有。真正的凶手是数据类型边界,准确地说,是 Java 的 long


【金猿人物展】涛思数据创始人、CEO陶建辉:实现AI时代时序数据库向“数据平台”的转型
数据猿2025/12/16

陶建辉 “【提示】2025第八届年度金猿颁奖典礼将在上海举行,此次榜单/奖项的评选依然会进行初审、公审、终审三轮严格评定,并会在国内外渠道大规模发布传播欢迎申报。 大数据产业创新服务媒体 ——聚焦数据 · 改变商业 在数字化转型与AI技术爆发的浪潮中,时序数据库作为处理海量实时数据的核心工具,已成为工业互联网、自动驾驶、能源电力等领域的刚需。 作为国内时序数据库赛道的领军企业,涛思数据从2016年入局至今,凭借精准的赛道选择、持续的技术迭代与独特的发展策略,实现了从单一产品到生


深度学习在教育数据挖掘(EDM)中的方法体系:从任务建模到算法范式的理论梳理与总结
智算菩萨2025/12/8

目录 1 引言 2 理论知识与技术基础 2.1 教育数据的形式化:事件流、序列、图与稀疏矩阵 2.2 监督学习的目标函数:从分类到排序 2.3 表示学习与自编码器:从重构到迁移 2.4 图神经网络与知识图谱:结构归纳偏置 2.5 生成模型与能量函数:RBM/DBN 的另一条线 2.6 强化学习:把推荐与学习路径当作序列决策 3 EDM 的典型任务与场景:问题定义、输入输出与评价方式 4 深度学习范式在 EDM 中的总体框架:监督、无监督与强化学习如何落到教育任务 4.1 监


一文搞懂 Webpack 分包:async、initial 与 all 的区别【附源码】
程序员大卫2025/11/28

大家好,我是前端架构师,关注微信公众号【程序员大卫】免费领取精品资料。 1. 背景 最近在优化一个项目的加载性能时,对 optimization.splitChunks.chunks 的三个可选值 async、initial 和 all 的具体效果产生了疑惑。为了彻底搞清楚它们的区别,我专门搭建了一个 Demo 进行对比研究。 2. 核心区别:async vs initial chunks 属性决定了 Webpack 对哪些类型的代码块进行分割。其中 async 是默认配置。 经过测试发现:在单


hive问题
心止水j2026/1/11

一、基础概念 问题:简述 Hive 的定义及核心作用?答案:Hive 是基于 Hadoop 的数据仓库工具,支持类 SQL(HQL)查询分析;核心作用是让非开发人员通过 SQL 分析 Hadoop 上的海量数据。 问题:Hive 的元数据默认存储在哪里?生产环境中为什么要替换为 MySQL?答案:默认存 Derby;生产换 MySQL 因 Derby 仅单用户、不支持并发,MySQL 支持多用户并发、数据持久化且易维护。 问题:Hive 支持哪些执行引擎?它们的区别是什么?答案


2025.12.17华为软开
ゞ 正在缓冲99%…2026/1/19

细胞增殖 import java.util.HashMap; import java.util.Map; import java.util.Scanner; public class Main { public static void main(String[] args) { Scanner scanner = new Scanner(System.in); long n = scanner.nextLong();//n个观测值

首页编辑器站点地图

本站内容在 CC BY-SA 4.0 协议下发布

Copyright © 2026 XYZ博客