javacv和opencv对图文视频编辑-裸眼3D图片制作

通过斗鸡眼,将左右两张相似的图片叠加到一起看,就会有3D效果。

3D图片,3D眼镜,3D视频等原理类似,都是通过两眼视觉差引起脑补产生3D效果。

图片:

javacv和opencv对图文视频编辑-裸眼3D图片制作_第1张图片

javacv和opencv对图文视频编辑-裸眼3D图片制作_第2张图片

 图片来源:

一些我拍摄的真*裸眼3D照片 - 哔哩哔哩icon-default.png?t=N7T8https://www.bilibili.com/read/cv13066106/?spm_id_from=333.999.0.0

上边两幅图片在斗鸡眼下,具有3D效果,那两张图片有什么区别吗?

1)通过ps我们将两张图片叠加,然后快速反复隐藏一张图片,就可以看到两张图片有角度差。

也就是拍照的时候,两张图片的镜头有移动。

2)简单的分析,就知道如何拍照,但是如果我只有一张图片怎么处理下游3D效果呢,开干。

单张图片处理成裸眼3D图片,使图片叠加具有3D效果

先上效果图:

javacv和opencv对图文视频编辑-裸眼3D图片制作_第3张图片

斗鸡眼叠加图片,就可以看到任务和背景分层次了,因为我对背景和人物两个层次处理了。

如果仅仅把一个图片复制2次,就算斗鸡眼叠加和原图一样效果即没有3D效果,因为没有角度差。

步骤:

首先打开ps打开原图,原图是256*256,将人物勾选

javacv和opencv对图文视频编辑-裸眼3D图片制作_第4张图片

然后复制图层,并把图层拉扁,即左边位置不动,把右侧往左拉(shift+鼠标移动右边界)

效果:

javacv和opencv对图文视频编辑-裸眼3D图片制作_第5张图片

到这里人物就处理好了,原图和移动后叠加图,(导出时把原图隐藏再导出)

接下来处理背景,

同理,前边的人物向左压缩,那么背景我们就反着来,把背景往右压扁。

ctrl+shift+i可以对选取反选,就很容易找到背景。

效果:

javacv和opencv对图文视频编辑-裸眼3D图片制作_第6张图片

可以看到右侧门框位置不动,仅仅把背景往左拉伸了。

ps图层如下:

javacv和opencv对图文视频编辑-裸眼3D图片制作_第7张图片

原图不用变,我们仅仅做一个256的前景右移,背景左移的图片导出即可。

最终制作的人物和背景偏移图片就好了,

javacv和opencv对图文视频编辑-裸眼3D图片制作_第8张图片

将此图片和处理后的图片放到图片中。

上代码:

import org.bytedeco.ffmpeg.global.avcodec;
import org.bytedeco.ffmpeg.global.avutil;
import org.bytedeco.javacv.FFmpegFrameGrabber;
import org.bytedeco.javacv.FFmpegFrameRecorder;
import org.bytedeco.javacv.FFmpegLogCallback;
import org.bytedeco.javacv.Frame;
import org.bytedeco.javacv.Java2DFrameConverter;

import javax.imageio.ImageIO;
import java.awt.*;
import java.awt.image.BufferedImage;
import java.io.File;


//裸眼3d图片,斗鸡眼
public class TwoPic2 {
    private static final String LEFT_IMAGE_PATH = "D:\\desktop\\left.png";
    private static final String RIGHT_IMAGE_PATH = "D:\\desktop\\right2.png";
    private static final String all = "D:\\desktop\\all.png";

    //把图片交替合并为视频
    public static void main(String[] args) throws Exception {

        String outPutFile = "D:\\desktop\\all.mp4";
        FFmpegLogCallback.set();

        int imgWidth = 256;
        int imgHeight = 256;

        // FFmpegFrameRecorder:处理视频帧
        //视频宽高最好是按照常见的视频的宽高  16:9  或者 9:16
        FFmpegFrameRecorder recorder = new FFmpegFrameRecorder(outPutFile, imgWidth, imgHeight);
        //设置视频编码层模式
        recorder.setVideoCodec(avcodec.AV_CODEC_ID_MPEG4);
        //1-代表1帧/s
        Double FrameRate = 30d;
        recorder.setFrameRate(FrameRate);

        /*
         * videoBitRate这个参数很重要,当然越大,越清晰,但最终的生成的视频也越大。
         * 查看一个资料,说均衡考虑建议设为videoWidth*videoHeight*frameRate*0.07*运动因子,运动因子则与视频中画面活动频繁程度有关,如果很频繁就设为4,不频繁则设为1
         */
        int motionFactory = 1;
        recorder.setVideoBitrate((int) ((imgWidth * imgHeight * FrameRate) * motionFactory * 0.07));

        //设置视频图像数据格式
        int pixelFormat = avutil.AV_PIX_FMT_YUV420P;
        recorder.setPixelFormat(pixelFormat);
        String format = "mp4";
        recorder.setFormat(format);
        //         双通道(立体声)
        // recorder.setAudioChannels(grabber.getAudioChannels());
        recorder.setAudioChannels(2);

        recorder.setAudioCodec(avcodec.AV_CODEC_ID_AAC);

        recorder.start();
        // 录制视频
        Java2DFrameConverter converter = new Java2DFrameConverter();
        //URL imgUrl = new URL("D:\\desktop\\test\\img1.png");

        //根据每秒的帧数 记录多少次图片,

        BufferedImage left= ImageIO.read(new File(LEFT_IMAGE_PATH));
        BufferedImage right= ImageIO.read(new File(RIGHT_IMAGE_PATH));
        Frame a =converter.getFrame(left);
        Frame b =converter.getFrame(right);

        int c=20;
        while (c>=0){
            c--;
            for (int i = 0; i < 15; i++) {
                recorder.record(converter.getFrame(ImageIO.read(new File(LEFT_IMAGE_PATH))));
                recorder.record(converter.getFrame(ImageIO.read(new File(RIGHT_IMAGE_PATH))));
            }

        }

        //
        recorder.close();

    }
}

这个代码是将两个256*256图片放到一张图片。

教程完毕。

通过本文章,你应该理解了裸眼3D其实很简单。

欢迎大家关注下哈,javacv相关文章持续增加。

你可能感兴趣的:(opencv,java,音视频,javacv)