当前位置: 首页 > news >正文

注册网站英语台州建站程序

注册网站英语,台州建站程序,深圳网站建设网站推广方案,网站建设项目报价有没有想过如何在 3D Web 应用程序中模拟物理相机#xff1f; 在这篇博文中#xff0c;我将向你展示如何使用 Three.js和 OpenCV 来完成此操作。 我们将从模拟针孔相机模型开始#xff0c;然后添加真实的镜头畸变。 具体来说#xff0c;我们将仔细研究 OpenCV 的两个失真模…有没有想过如何在 3D Web 应用程序中模拟物理相机 在这篇博文中我将向你展示如何使用 Three.js和 OpenCV 来完成此操作。 我们将从模拟针孔相机模型开始然后添加真实的镜头畸变。 具体来说我们将仔细研究 OpenCV 的两个失真模型并使用后处理着色器复制它们。 拥有逼真的模拟相机可以让你在真实相机捕获的图像上渲染 3D 场景。 例如这可以用于增强现实也可以用于机器人和自动驾驶车辆。 这是因为机器人和自动驾驶汽车通常结合了 3D 传感器如激光雷达和摄像头在摄像头图像上可视化 3D 数据对于验证传感器校准非常重要。 在创建和检查 3D 标注时它也非常有帮助这就是我在 Segments.ai 上解决这个问题的原因。 为了测试我们的相机模拟我们将使用 nuScenes 数据集中的帧将激光雷达捕获的 3D 点云放置在相机图像的顶部。 无论你是从事机器人/AV 工作、开发可视化工具、开发 AR 应用程序还是只是对计算机视觉和 3D 图形感兴趣本指南都希望能教会你一些新知识。 那么让我们开始吧 1、针孔相机模型 为了以 3D 方式复制相机我们首先需要一种以数学方式表示相机的方法即相机模型。 从根本上来说相机将 3D 世界点映射到 2D 图像平面。 因此我们寻找一个输入3D 点 [x y z] 输出2D点 [u v]的函数通常以像素坐标定义。 针孔相机 最简单的相机模型是针孔相机模型。 针孔相机没有镜头 光只是通过一个点“针孔”进入并在图像平面上形成图像。 这种类型的相机也称为暗箱已经被制造了数千年很可能你小时候就自己制作过一台。 如果我们使用齐次坐标则针孔模型可以在数学上表示为简单的线性变换。 该变换可以写成 3 x 4 矩阵称为相机矩阵M。通常我们将这个矩阵分成两个矩阵一个 3 x 3 内部相机矩阵和一个 3 x 4 外部矩阵。 相机姿态即它在世界中的位置和旋转被编码在外部矩阵中。 内在矩阵包含相机的焦距、像素大小和图像原点。 其中 fx和fy是以像素为单位的焦距对于正方形像素来说fxfys表示x轴和y轴之间的倾斜系数通常为0Ox和Oy是基准点距图像帧左上角的绝对偏移量以像素为单位[R T]是从世界坐标到相机坐标的变换R 是旋转矩阵T是平移向量因为我们在齐次坐标中工作所以我们向K添加一列额外的0向[R T]矩阵 添加一排以 1 结尾的 0 内部和外部参数可以通过称为相机校准的过程来估计。 这通常涉及从不同视点捕获已知校准图案例如棋盘的图像。 OpenCV 包含估计相机内在和外在参数以及畸变系数的函数稍后会详细介绍。 查看此 OpenCV 教程了解如何使用棋盘图案校准相机。 对于上述示例图像校准参数为 {K: [809.2209905677063, 0, 829.2196003259838, 0, 809.2209905677063, 481.77842384512485, 0, 0, 1],R: [-0.99994107, -0.00469355, 0.00978885, -0.00982374, 0.0074685, -0.99992385,0.00462008, -0.9999611, -0.00751417],T: [-0.00526441, -0.27648432, -0.91085728],imageWidth: 1600,imageHeight: 900 } 2、Three.js 中的针孔相机模型 校准相机后我们现在可以在浏览器中模拟相机。 浏览器有两个主要的 API 可用于高效渲染 3D 内容WebGL 和较新的 WebGPU。 然而这些 API 非常底层因此我们将使用流行的 Three.js 库而不是直接使用它们。 我们首先创建一个网页其中包含图像和覆盖在其上的 3D 应用程序 htmlheadtitlePinholeCamera/titlestylebody {margin: 0;overflow: hidden;}canvas {width: 100%;height: 100%;position: absolute;top: 0;left: 0;}img {width: 100%;height: 100%;object-fit: contain;}/style/headbodyimg srchttps://segmentsai-prod.s3.eu-west-2.amazonaws.com/assets/admin-tobias/353346e3-1d10-4343-94d2-95c826755ab9.jpgdiv idapp/divscript srcsrc/index.ts/script/body /html 接下来我们将创建 index.ts 文件在其中使用我们将要制作的相机和渲染器设置基本的 Three.js 场景。 通过将渲染器的alpha值设置为true我们就可以看到3D场景下的图像。 我们将使用 Three.js 中的 PCDLoader 来加载点云。 加载后我们将为其指定颜色并将其添加到场景中。 import {WebGLRenderer,Scene,Matrix3,Vector3,PointsMaterial,Color, } from three; import calibration from ./calibration.json; import PinholeCamera from ./PinholeCamera; import { PCDLoader } from three/examples/jsm/loaders/PCDLoader;const { K, R, T, imageWidth, imageHeight } calibration; // fromArray reads in column-major order const matrixK new Matrix3().fromArray(K).transpose(); const matrixR new Matrix3().fromArray(R).transpose(); const vectorT new Vector3().fromArray(T);const scene new Scene(); const camera new PinholeCamera(matrixK,matrixR,vectorT,imageWidth,imageHeight,window.innerWidth / window.innerHeight,0.1,1000 );const loader new PCDLoader(); loader.load(https://segmentsai-prod.s3.eu-west-2.amazonaws.com/assets/admin-tobias/41089c53-efca-4634-a92a-0c4143092374.pcd,function (points) {(points.material as PointsMaterial).size 2;(points.material as PointsMaterial).color new Color(0x00ffff);scene.add(points);},function (xhr) {console.log((xhr.loaded / xhr.total) * 100 % loaded);},function (e) {console.error(Error when loading the point cloud, e);} );const renderer new WebGLRenderer({alpha: true, }); renderer.setSize(window.innerWidth, window.innerHeight); document.body.appendChild(renderer.domElement);function animate() {requestAnimationFrame(animate);renderer.render(scene, camera); }animate(); 要创建我们的针孔相机我们首先创建一个新类该类扩展了 Three.js 中的 PerspectiveCamera 类 export default class PinholeCamera extends PerspectiveCamera {K: Matrix3;imageWidth: number;imageHeight: number;constructor(K: Matrix3,R: Matrix3,T: Vector3,imageWidth: number,imageHeight: number,aspect: number,near: number,far: number) {super(45, aspect, near, far);this.setExtrinsicMatrix(R, T);this.K K;this.imageWidth imageWidth;this.imageHeight imageHeight;this.updateProjectionMatrix();}setExtrinsicMatrix(R: Matrix3, T: Vector3) {// TODO}updateProjectionMatrix() {// TODO} } 当我们调用 PerspectiveCamera 的构造函数时我们必须传入一个视野 (FOV) 值。 Three.js 在 updateProjectionMatrix 方法中使用该值但我们将重写该方法并使用内部矩阵中的焦距因此不会使用初始 FOV。 3、设置相机外部参数 我们可以根据相机外参数设置相机位姿位置方向如下所示 setExtrinsicMatrix(R, T) {const rotationMatrix4 new Matrix4().setFromMatrix3(R);rotationMatrix4.setPosition(T);rotationMatrix4.invert();this.quaternion.setFromRotationMatrix(rotationMatrix4);this.position.setFromMatrixPosition(rotationMatrix4); } 请注意在使用外部矩阵设置相机位置和航向之前我们必须先反转外部矩阵。 这是因为 [R T]表示从世界到相机的变换我们需要从相机到世界的变换相当于相机在世界坐标中的位置/航向。 4、设置相机内部参数 设置相机内部参数有点复杂。 Three.js 不使用与我们在相机校准过程中获得的相同的内在矩阵。 相反它使用与 WebGL 相同的矩阵我们的内在矩阵大致对应于 WebGL 中的“投影矩阵”。 对我们来说幸运的是Kyle Simek 写了一篇博文解释如何将内参矩阵转换为有效的投影矩阵。 我们将使用博客中描述的 glOrtho 方法来获取透视矩阵。 然而我们无法直接访问OpenGL函数因此我们必须在makeNdcMatrix函数中重新实现glOrtho。 对于 makePerspectiveMatrix 方法我们还将进行一个小更改我们不必对内参矩阵的第三列取反因为相机在 OpenCV 中向下看正 z 轴。 function makeNdcMatrix(left: number,right: number,bottom: number,top: number,near: number,far: number ) {const tx -(right left) / (right - left);const ty -(top bottom) / (top - bottom);const tz -(far near) / (far - near);const ndc new Matrix4();// prettier-ignorendc.set(2 / (right - left), 0, 0, tx,0, 2 / (top - bottom), 0, ty,0, 0, -2 / (far - near), tz,0, 0, 0, 1,);return ndc; }function makePerspectiveMatrix(s: number,alpha: number,beta: number,x0: number,y0: number,near: number,far: number ) {const A near far;const B near * far;const perspective new Matrix4();// prettier-ignoreperspective.set(alpha, s, x0, 0,0, beta, y0, 0,0, 0, -A, B,0, 0, 1, 0,);return perspective; } 现在我们可以重写 PerspectiveCamera 类的 updateProjectionMatrix 方法。 updateProjectionMatrix() {if (!this.K) {return;}// column-major orderconst fx this.K.elements[0 0 * 3];const fy this.K.elements[1 1 * 3];const ox this.K.elements[0 2 * 3];const oy this.K.elements[1 2 * 3];const s this.K.elements[0 1 * 3];const imageAspect this.imageWidth / this.imageHeight;const relAspect this.aspect / imageAspect;const relAspectFactorX Math.max(1, relAspect);const relAspectFactorY Math.max(1, 1 / relAspect);const relAspectOffsetX ((1 - relAspectFactorX) / 2) * this.imageWidth;const relAspectOffsetY ((1 - relAspectFactorY) / 2) * this.imageHeight;const left relAspectOffsetX;const right this.imageWidth - relAspectOffsetX;const top relAspectOffsetY;const bottom this.imageHeight - relAspectOffsetY;const persp makePerspectiveMatrix(s, fx, fy, ox, oy, this.near, this.far);const ndc makeNdcMatrix(left, right, bottom, top, this.near, this.far);const projection ndc.multiply(persp);this.projectionMatrix.copy(projection);this.projectionMatrixInverse.copy(this.projectionMatrix).invert(); } relAspect 对于考虑原始相机图像和浏览器窗口之间的宽高比差异是必要的。 将它们放在一起我们可以看到点云叠加在相机图像上。 5、模拟镜头畸变 具有鱼眼镜头畸变的图像 大多数镜头相机镜头都会导致图像扭曲特殊镜头除外。 使用鱼眼相机时失真可能特别严重。 模拟针孔相机不会考虑这种镜头畸变因此如果你将其用于直接来自相机的图像点云将不会与图像完美对齐。 nuScenes 数据集中的图像经过校正即镜头畸变已被消除这就是点云与上一节中的图像对齐的原因。 你可以遵循 nuScenes 的方法在相机校准期间估计镜头畸变例如遵循前面提到的 OpenCV 教程然后使用畸变系数使图像不畸变。 然而当对鱼眼图像进行去畸变时图像的很大一部分会被丢弃。 因此在本节中我们将展示如何使用 Three.js 中的畸变系数来模拟镜头畸变。 这样我们就可以将 3D 场景直接叠加在扭曲的相机图像上。 5.1 使用着色器实现镜头畸变 在开始编写代码之前我们首先需要了解失真模型的工作原理以及如何使用着色器来实现它们。 在OpenCV文档中我们可以找到多种畸变模型。 默认相机模型使用以下畸变系数 k1, ..., k6用于径向畸变p1, p2用于切向畸变s1,..., s4用于薄棱镜畸变tx, ty用于倾斜图像传感器 只有k1/k2/p1/p2/k3失真系数的镜头模型被称为 Brown-Conrady 或“铅锤”模型。以 Brown (1966) 和 Conrady (1919) 的论文命名。 这是最流行的失真模型也是我们将在 Three.js 中复现的第一种失真。 我们将复现的第二个失真模型是 OpenCV 文档本页中描述的鱼眼模型。 该模型基于 Kannala-Brandt 模型该模型可以比 Brown-Conrady 模型更好地模拟广角镜头。 鱼眼相机模型有四个畸变系数k1, ..., k4。 需要注意的是两个畸变模型的 OpenCV 文档中的公式都将未畸变点映射到畸变点。 为了在 Three.js 中实现镜头畸变我们将使用 GLSLOpenGL 着色器语言编写一个后处理着色器。 着色器是渲染场景时对每个顶点 顶点着色器或每个像素 片段着色器并行运行的函数。 这种并行执行发生在 GPU 上GPU 是专门为此类计算而设计的。 通常不同的着色器用于渲染 3D 场景中不同材质的对象。 对于我们的用例我们希望在后处理步骤中将镜头畸变着色器应用到整个渲染的 3D 场景。 为了模拟镜头失真我们可以使用顶点着色器或片段着色器。 使用顶点着色器的优点是我们可以直接使用畸变公式来确定每个顶点在畸变图像中的最终位置。 缺点是顶点之间的边缘保持笔直而在现实生活中镜头畸变会使它们弯曲。 如果你正在使用每条边都很短的高分辨率 3D 模型这可能不是问题。 如果你只想在相机图像上叠加点云这种方法也很有效因为没有边缘。 下表摘自 Lambers 等人的“Realistic Lens Distortion Rendering”。 包含一些进一步的优点和缺点 顶点着色器片段着色器畸变模型完整性完全限于径向和切向先决条件精细的几何形状无结果完整性完全可能有未填充的区域渲染数据类型全部限于可插值可重定位数据复杂性取决于几何形状取决于分辨率 在本教程中我们将使用片段或像素着色器来模拟镜头失真。 这种方法的优点是无论 3D 场景中有什么它都可以工作。 我们还可以通过缩小针孔相机并在着色器中放大来克服未填充区域的问题请参阅稍后的zoomForDistortionFactor。 使用片段着色器确实会使着色器的实现变得更加复杂因为我们不能直接使用 OpenCV 文档中的公式。 要了解原因你可以想象将着色器应用为在空图像上循环并用特定颜色填充每个像素如以下伪代码所示 function applyShader(renderedImage)outputImage new Image(imageWidth, imageHeight)for i in [0, imageWidth[for j in [0, imageHeight[outputImage[i, j] distortionShader(i, j, renderedImage) 因此片段着色器函数的目的是输出单个像素的颜色将先前渲染的图像作为输入。 对于镜头畸变之前渲染的图像是未畸变的3D场景即我们在针孔相机部分获得的渲染输出图像应该是畸变的3D场景。 因此对于输出图像中的每个像素我们必须找出输入图像中的哪个像素最终到达那里并复制其颜色。 也就是说给定输出坐标i和j我们希望找到未扭曲的坐标i和j并获取这些未扭曲坐标处的颜色。 你可以看到这与 OpenCV 页面上的公式相反因为它们将未扭曲坐标映射到扭曲坐标。 function distortionShader(i, j, renderedImage)iPrime, jPrime calculateUndistortedCoordinates(i, j)return renderedImage[iPrime, jPrime] 现在我们准备为之前介绍的两个失真模型编写实际的 GLSL 着色器。 我不会详细介绍 GLSL 的所有细节。 如果你以前从未编写过着色器可能需要在继续之前查看 Maxime Heckel 的这篇博客文章这样你就可以轻松理解代码。 5.2 Brown-Conrady铅锤失真 正如上一节所解释的我们需要找到一种方法来计算着色器中的未扭曲坐标。 对于 Brown-Conrady 模型我们可以使用“Realistic Lens Distortion Rendering”论文中的公式 2。 这个公式只是一个近似值并没有使用k3畸变系数。 如果你对更精确的相机模拟感兴趣可以使用下一节有关鱼眼失真的技术。 uniform sampler2D tDiffuse; uniform float uCoefficients[5]; uniform vec2 uPrincipalPoint; uniform vec2 uFocalLength; uniform float uImageWidth; uniform float uImageHeight; uniform float uRelAspect; uniform float uZoomForDistortionFactor; varying vec2 vUv;void main() {float relAspectFactorX max(1.0, uRelAspect);float relAspectFactorY max(1.0, 1.0 / uRelAspect);float relAspectOffsetX ((1.0 - relAspectFactorX) / 2.0);float relAspectOffsetY ((1.0 - relAspectFactorY) / 2.0);vec2 inputCoordinatesWithAspectOffset vec2(vUv.x * relAspectFactorX relAspectOffsetX, vUv.y * relAspectFactorY relAspectOffsetY);float k1 uCoefficients[0];float k2 uCoefficients[1];float p1 uCoefficients[2];float p2 uCoefficients[3];vec2 imageCoordinates (inputCoordinatesWithAspectOffset * vec2(uImageWidth, uImageHeight) - uPrincipalPoint) / uFocalLength;float x imageCoordinates.x;float y imageCoordinates.y;float r2 x * x y * y;float r4 r2 * r2;float invFactor 1.0 / (4.0 * k1 * r2 6.0 * k2 * r4 8.0 * p1 * y 8.0 * p2 * x 1.0);float dx x * (k1 * r2 k2 * r4) 2.0 * p1 * x * y p2 * (r2 2.0 * x * x);float dy y * (k1 * r2 k2 * r4) p1 * (r2 2.0 * y * y) 2.0 * p2 * x * y;x - invFactor * dx;y - invFactor * dy;vec2 coordinates vec2(x, y);vec2 principalPointOffset vec2((uImageWidth / 2.0) - uPrincipalPoint.x, (uImageHeight / 2.0) - uPrincipalPoint.y) * (1.0 - uZoomForDistortionFactor);vec2 outputCoordinates (coordinates * uFocalLength * uZoomForDistortionFactor uPrincipalPoint principalPointOffset) / vec2(uImageWidth, uImageHeight);vec2 coordinatesWithAspectOffset vec2((outputCoordinates.x - relAspectOffsetX) / relAspectFactorX, (outputCoordinates.y - relAspectOffsetY) / relAspectFactorY);gl_FragColor texture2D(tDiffuse, coordinatesWithAspectOffset); } 关于着色器代码的一些注释 vUv向量包含伪代码中i和j对应的输出图像坐标。 tDiffuse纹理对应伪代码中的renderedImage由Three.js自动设置。我们再次需要 relAspect 来考虑相机图像和浏览器窗口之间的纵横比差异因为不希望我们的镜头失真被拉伸。着色器使用称为“UV 坐标”的标准化坐标。 然而畸变公式适用于像素坐标因此我们需要将坐标乘以图像的宽度和高度最后再除以。我们需要在最后考虑 uZoomForDistortionFactor 用于避免扭曲图像中的未填充区域。texture2D 函数用于查找未失真输入图像中未失真坐标处的颜色。 5.3 鱼眼Kannala-Brandt失真 对于鱼眼失真我们没有可以在着色器中评估的反函数。 相反我们将使用查找表 (LUT)。 LUT 是一个矩阵我们可以在其中存储一些预先计算的值。 我们将把未失真的坐标存储在 LUT 中。 在着色器中我们只需使用扭曲坐标作为索引来“查找”未扭曲坐标即可。 等等这如何解决我们的问题 如果没有逆畸变公式我们如何计算LUT的值呢 诀窍是使用法线畸变公式将未畸变点映射到畸变点。 我们将这样做 循环未失真的图像像素。对于每个像素使用 OpenCV 文档中的公式计算扭曲坐标。将未失真坐标保存在 LUT 中失真坐标处。 代码如下 export interface FisheyeCoefficients {k1: number;k2: number;k3: number;k4: number; }export function computeFisheyeLUT(intrinsicMatrix: Matrix3,coefficients: FisheyeCoefficients,imageWidth: number,imageHeight: number,zoomForDistortionFactor: number ) {const resolutionOfLUT 256;const rgbaDistortionLUT Array.from({ length: resolutionOfLUT * resolutionOfLUT * 4 },() 0);const newIntrinsicMatrixInverse computeIntrinsicMatrixInverseWithZoomForDistortion(intrinsicMatrix,zoomForDistortionFactor,imageWidth,imageHeight);const sampleDomainExtension 0.3;const minSampleDomain 0 - sampleDomainExtension;const maxSampleDomain 1 sampleDomainExtension;const sampleStep 1 / (resolutionOfLUT * 4);for (let i minSampleDomain; i maxSampleDomain; i sampleStep) {for (let j minSampleDomain; j maxSampleDomain; j sampleStep) {const undistortedCoordinate { x: i * imageHeight, y: j * imageWidth };const { x: distortedX, y: distortedY } distortCoordinateFisheye(undistortedCoordinate,intrinsicMatrix,coefficients,newIntrinsicMatrixInverse);const distortionLUTIndexX Math.round((distortedX / imageWidth) * (resolutionOfLUT - 1));const distortionLUTIndexY Math.round((1 - distortedY / imageHeight) * (resolutionOfLUT - 1));if (distortionLUTIndexX 0 ||distortionLUTIndexX resolutionOfLUT ||distortionLUTIndexY 0 ||distortionLUTIndexY resolutionOfLUT) {continue;}const u j;const v 1 - i;rgbaDistortionLUT[distortionLUTIndexY * resolutionOfLUT * 4 distortionLUTIndexX * 4] u;rgbaDistortionLUT[distortionLUTIndexY * resolutionOfLUT * 4 distortionLUTIndexX * 4 1] v;// Blue and Alpha channels will remain 0.}}const distortionLUTData new Float32Array(rgbaDistortionLUT);const distortionLUTTexture new DataTexture(distortionLUTData,resolutionOfLUT,resolutionOfLUT,RGBAFormat,FloatType);distortionLUTTexture.minFilter LinearFilter;distortionLUTTexture.magFilter LinearFilter;distortionLUTTexture.needsUpdate true;return distortionLUTTexture; } 更多代码注释 我们不会创建与图像一样大的 LUT而是使用 256x256 的矩阵。 增加 LUT 大小将提高失真模拟的准确性但也会增加计算时间和内存使用量。我们必须再次考虑变焦。我们将样本域扩展到图像尺寸之外sampleDomainExtension因为图像之外的未扭曲点仍然可能会出现在扭曲的图像边界中。我们使用 DataTexture 将 LUT 传递给着色器。 这也将使我们在着色器中自由进行插值。 interface Coordinate {x: number;y: number; }function distortCoordinateFisheye(undistortedCoordinate: Coordinate,intrinsicMatrix: Matrix3,coefficients: FisheyeCoefficients,newIntrinsicMatrixInverse: Matrix3 ): Coordinate {const { x, y } undistortedCoordinate;const { k1, k2, k3, k4 } coefficients;const fx intrinsicMatrix.elements[0 0 * 3];const fy intrinsicMatrix.elements[1 1 * 3];const cx intrinsicMatrix.elements[0 2 * 3];const cy intrinsicMatrix.elements[1 2 * 3];const iR newIntrinsicMatrixInverse;let distortedX: number, distortedY: number;const _x x * iR.elements[1 * 3 0] y * iR.elements[0 * 3 0] iR.elements[2 * 3 0];const _y x * iR.elements[1 * 3 1] y * iR.elements[0 * 3 1] iR.elements[2 * 3 1];const _w x * iR.elements[1 * 3 2] y * iR.elements[0 * 3 2] iR.elements[2 * 3 2];if (_w 0) {distortedX _x 0 ? -Infinity : Infinity;distortedY _y 0 ? -Infinity : Infinity;} else {const r Math.sqrt(_x * _x _y * _y);const theta Math.atan(r);const theta2 theta * theta;const theta4 theta2 * theta2;const theta6 theta4 * theta2;const theta8 theta4 * theta4;const theta_d theta * (1 k1 * theta2 k2 * theta4 k3 * theta6 k4 * theta8);const scale r 0 ? 1.0 : theta_d / r;distortedX fx * _x * scale cx;distortedY fy * _y * scale cy;}return { x: distortedX, y: distortedY }; } 该函数改编自OpenCV中的initUn DistorifyMap方法。 源代码可以在这里找到。 请注意本征矩阵和逆本征矩阵彼此不同即不仅仅是逆矩阵。 这是因为我们需要考虑后者的 ZoomForDistortionFactor 以及主点偏移。 我们计算这个调整后的逆内参矩阵一次因为它在整个循环中保持不变。 function computeIntrinsicMatrixInverseWithZoomForDistortion(intrinsicMatrix: Matrix3,zoomForDistortionFactor: number,width: number,height: number ) {const principalPointOffsetX (width / 2 - intrinsicMatrix.elements[0 2 * 3]) *(1 - zoomForDistortionFactor);const principalPointOffsetY (height / 2 - intrinsicMatrix.elements[1 2 * 3]) *(1 - zoomForDistortionFactor);const newIntrinsicMatrix [[intrinsicMatrix.elements[0 0 * 3] * zoomForDistortionFactor,0,intrinsicMatrix.elements[0 2 * 3] principalPointOffsetX,],[0,intrinsicMatrix.elements[1 1 * 3] * zoomForDistortionFactor,intrinsicMatrix.elements[1 2 * 3] principalPointOffsetY,],[0, 0, 1],];const newIntrinsicMatrixInverse new Matrix3().fromArray(newIntrinsicMatrix.flat()).transpose().invert();return newIntrinsicMatrixInverse; } 最后我们可以实现鱼眼失真着色器本身。 这个非常简单因为它只需要在 LUT 中查找未失真的坐标即可。 然而与 Brown-Conrady 着色器中相同的标准化是必要的。 uniform sampler2D tDiffuse; uniform sampler2D uDistortionLUT; uniform float uRelAspect; varying vec2 vUv;void main() {float relAspectFactorX max(1.0, uRelAspect);float relAspectFactorY max(1.0, 1.0 / uRelAspect);float relAspectOffsetX ((1.0 - relAspectFactorX) / 2.0);float relAspectOffsetY ((1.0 - relAspectFactorY) / 2.0);vec2 inputCoordinatesWithAspectOffset vec2(vUv.x * relAspectFactorX relAspectOffsetX , vUv.y * relAspectFactorY relAspectOffsetY);// discard pixels on the edge to avoid streakingfloat threshold 0.001;if (inputCoordinatesWithAspectOffset.x 0.0 threshold ||inputCoordinatesWithAspectOffset.x 1.0 - threshold ||inputCoordinatesWithAspectOffset.y 0.0 threshold ||inputCoordinatesWithAspectOffset.y 1.0 - threshold) {// show black overlaygl_FragColor vec4(0.0, 0.0, 0.0, 0.4);return;}// look up distortion in LUTvec2 outputCoordinates texture2D(uDistortionLUT, inputCoordinatesWithAspectOffset).rg;if (outputCoordinates.x 0.0 outputCoordinates.y 0.0) {// show black overlaygl_FragColor vec4(0.0, 0.0, 0.0, 0.4);return;}vec2 coordinatesWithAspectOffset vec2((outputCoordinates.x - relAspectOffsetX) / relAspectFactorX, (outputCoordinates.y - relAspectOffsetY) / relAspectFactorY); gl_FragColor texture2D(tDiffuse, coordinatesWithAspectOffset); } 两个小注意事项 扭曲图像边缘上的像素将在图像左/右或上方/下方的边缘上重复。 为了避免条纹效果我们将这些边框像素设置为不透明度为 40% 的黑色叠加层。如果 LUT 中的值为零则意味着它可能没有被填充因此我们忽略这些像素并简单地返回黑色覆盖层。 5.4 在 Three.js 中实现后处理着色器 现在我们有了着色器是时候在后处理过程中使用它们了。 要使用该通道我们首先将场景渲染到“渲染目标”缓冲区然后将通道应用于该渲染目标最后将结果渲染到屏幕上。 为了设置这个管道我们将使用 Three.js 中的 EffectComposer。 将场景渲染到渲染目标是通过使用 RenderPass 来实现的。 我们还需要调整动画函数。 ... const composer new EffectComposer(renderer);const renderPass new RenderPass(scene, camera); composer.addPass(renderPass); composer.setPixelRatio(1 / zoomForDistortionFactor);function animate() {requestAnimationFrame(animate);composer.render(); }animate(); 现在我们需要为扭曲着色器创建一个通道。 为此我们可以使用 Three.js 中的 ShaderPass。 之后我们可以使用传递中存在的uniforms对象将变量传递给我们的自定义着色器。 Brown-Conrady 失真的着色器通道设置 const distortionPass new ShaderPass(BrownConradyDistortionShader); distortionPass.uniforms.uCoefficients.value [distortionCoefficients.k1,distortionCoefficients.k2,distortionCoefficients.p1,distortionCoefficients.p2,distortionCoefficients.k3, ]; distortionPass.uniforms.uPrincipalPoint.value new Vector2(matrixK.elements[0 2 * 3],matrixK.elements[1 2 * 3] ); distortionPass.uniforms.uFocalLength.value new Vector2(matrixK.elements[0 0 * 3],matrixK.elements[1 1 * 3] ); distortionPass.uniforms.uImageWidth.value imageWidth; distortionPass.uniforms.uImageHeight.value imageHeight; distortionPass.uniforms.uZoomForDistortionFactor.value zoomForDistortionFactor; distortionPass.uniforms.uRelAspect.value window.innerWidth / window.innerHeight / (imageWidth / imageHeight); composer.addPass(distortionPass); 使用 Brown-Conrady 畸变系数更新calibration.json 并在 PinholeCamera 中实现 ZoomForDistortionFactor 后我们现在可以将点云覆盖在原始未畸变图像上。 鱼眼失真的着色器通道设置 const distortionPass new ShaderPass(FisheyeDistortionShader); const distortionLUTTexture computeFisheyeLUT(matrixK,distortionCoefficients,imageWidth,imageHeight,zoomForDistortionFactor ); distortionPass.uniforms.uDistortionLUT.value distortionLUTTexture; distortionPass.uniforms.uRelAspect.value window.innerWidth / window.innerHeight / (imageWidth / imageHeight); composer.addPass(distortionPass); 6、结束语 总之模拟真实相机使我们能够以逼真的方式将 3D 场景叠加在相机图像上。 在这篇博文中我们向你展示了如何在 Three.js 中模拟针孔相机模型并通过使用后处理着色器实现 OpenCV 的畸变模型来添加真实的镜头畸变。
http://www.zqtcl.cn/news/598446/

相关文章:

  • wordpress的别名获得页面的别名优化大师电视版
  • 怎么查网站关键词排名微信上的h5页面是怎么制作的
  • 如何为一个网站做app手机软件大全
  • 哪家网络公司做网站工信部网站原来是
  • json取数据做网站asp网站 模板
  • 漳州做网站多少钱乐清网红餐厅
  • 淮安网站开发sem推广案例
  • 义乌网站建设郭云砺信息科技做网站
  • 重庆御临建筑公司官网网站更换域名seo
  • 北京大兴专业网站建设公司wordpress 加速乐
  • win7怎么做网站域名绑定邯郸最新通知今天
  • 苏州企业网站设计开发个人 网站备案
  • 威海哪有网站建设中国建设部网站失信名单
  • 重庆哪家在做网站建设php网站后台验证码不显示
  • 开发网站开票写什么google收录查询
  • dw做的网站如何上传图片服务器配置wordpress
  • 恩施网站优化七牛云可以做网站的存储空间吗
  • 网站建设的源代码有什么作用网站维护包括哪些
  • 广东广东网站建设工作网站qq登录 开发
  • 中山网页网站设计模板access 数据库做网站
  • 阿里云网站做网站的服务器用什么系统
  • 什么公司做网站最好怎么给网站做快照
  • 官方网站建设的方法有哪些方面邮箱号码大全
  • 电商app软件山东网络推广优化排名
  • 国内产品网站w源码1688网站关键词描述字数
  • 网站404 模板wordpress 文字插件下载
  • 河南民基建设工程有限公司网站齐齐哈尔建设局网站首页
  • 响应式网站建设推荐乐云践新三丰云免费云服务器
  • 长沙网站建设模板uc浏览器访问网站
  • 擼擼擼做最好的导航网站陕西政务服务网注册公司流程