Articles of video

JME3-JFX中的LWJGLexception!

在jMonkeyEngine 3.0中的video播放似乎已经有一段时间了,直到我偶然发现了通过将JavaFX 2集成到JME3框架来播放video 。 再加上JavaFX最近发布的MP4播放支持,使得JME3成为了我目前正在开发的一个项目的真正有力竞争者。 我遵循前一个线程中提到的规定的方法,从JME3-JFX项目页面获得源代码,并在eclipse中设置项目。 当我用Oracle的给定URL运行示例[ TestMovie.java ]时,运行顺利,没有问题。 但是,当我尝试播放MP4文件时,播放了一段时间, 颜色混乱 ,然后退出java.lang.IllegalArgumentExceptionexception。 这里是eclipse控制台输出: INFO: Audio effect extension version: 1.0 Nov 27, 2014 6:33:13 PM com.jme3.audio.lwjgl.LwjglAudioRenderer initInThread INFO: Audio max auxilary sends: 4 Nov 27, 2014 6:33:34 PM com.jme3.app.Application handleError SEVERE: Uncaught exception thrown in Thread[LWJGL Renderer Thread,5,main] java.lang.IllegalArgumentException: Number of remaining buffer elements is 6627840, […]

Unityvideo播放器逐帧播放

我创建一个video播放器,我有逐帧播放video的问题。 我正在使用渲染纹理模式的原始图像组件。 我正在改变使用帧场的帧。 但是在我再次播放video之前屏幕上没有任何变化。

Unity:如何在360度VRvideo中进行Raycast?

我已经建立了一个统一的基本倒立的球体,里面正在运行一个360的video,并且在VR中工作的很好。 但是我想在该video中进行光线投射,以显示有关video中显示的某些对象的信息。 那可能吗? 如果是,那么我该怎么办呢? https://unity3d.com/learn/tutorials/topics/virtual-reality/interaction-vr?playlist=22946 这篇文章说,我需要三个脚本:VREyeRaycaster,VRInput和VRInteractiveItem 我看到有些人在Youtube上做这个,我想他们会把3D对象放在他们想要突出显示的对象背后的video中,然后进行光线投射。 我想创建一些地方的虚拟游览,我将在360拍摄的video和统一import。 我已经建立了我的倒立的球体和运行在其上的示例video。 那么我想在某些点暂停video,并显示用户点击一些对象的信息。

在Windows Media Player中播放StreamingAssets文件夹中的video?(Unity 3D)

我可以播放StreamingAssets文件夹中的video。 但有没有一种方法,我点击一个button,并在Windows媒体播放器播放相同的video。 我在这方面进行了很多研究,但找不到任何解决办法。 这是正常播放video的代码, using UnityEngine; using System.Collections; public class VideoDemo : MonoBehaviour { public string filePath; public string result; void Start() { filePath = System.IO.Path.Combine (Application.streamingAssetsPath, "Demo.mp4"); result = ""; } void OnGUI() { if(GUI.Button(new Rect(10,10,100,30),"Click Me")) { StartCoroutine(Example()); } } IEnumerator Example () { if (filePath.Contains ("://")) { WWW www = new WWW […]

在video设置屏幕中更改伽马值?

所以我试图改变我的游戏中的gamma值和亮度。 我认为它与IDirect3DDevice9 :: SetGammaRamp函数有关,但我不确定如何使用它。 任何人对此有任何意见?

一种独立于API的管理video内存的方式?

我正在开发一款游戏。 游戏架构非常模块化。 我有一个“graphics引擎”,它使用Direct3D或OpenGL渲染器。 但是用户无法直接访问渲染器。 而是使用“graphics引擎”类,它使用渲染器接口。 我也有一个资源管理系统。 就目前来看,渲染器可以重新分配和释放video内存。 由于“graphics引擎”通过向“渲染器”发送信号,在RAM和VideoRam之间传输资源具有不良的逻辑,这使我的devise以一种糟糕的方式结合在一起。 我希望资源管理系统负责分配video内存。 我想尽可能地分解“渲染器”和“graphics引擎”类,并使渲染器只负责渲染。 有没有办法获得一个通用的指针videoRAM缓冲区,并使用它来呈现两个渲染器? 我的问题基本上是,我只能获得OpenGL或Direct3D手柄,只能从相关的API中使用。 而“graphics引擎”不应该知道它使用哪个渲染器。

Minecrafttypes游戏支持块

好的,从某种意义上说,我有一个类似于“我的世界”的游戏。 玩家可以逐块建立城堡。 我正在为我的游戏使用Unity3D和Photon Network,我想知道如果块有一个支持系统,我将如何处理检测。 这是有问题的游戏。 让我知道除了使用刚体我已经尝试过这样做了一些解决scheme,它有一个严重的networking性能问题。 谢谢 Youtube的游戏video

手机上的video播放:不能追求到底

我的Unity3D游戏需要在移动设备上播放video(使用Handheld.PlayFullscreenMovie() )。 找工作不好。 如果点击结尾附近的video进度条(期待它播放最后一秒然后结束),根据video的不同,播放会跳回完整的10-20秒。 我应该如何让玩家更容易在文件中寻找? 强制其他关键帧? 我目前使用HandbrakeCLI编码和以下设置: –preset="AppleTV" –x264-tune=animation –x264-preset=veryslow

团结:如何制作一组video剪辑并播放它们?

我有26个video文件,我必须放在一个数组,并为不同的对象播放。 到目前为止,我已经写出了我所知道的: using System.Collections; using System.Collections.Generic; using UnityEngine; using UnityEngine.Video; public class videomanager : MonoBehaviour { public VideoClip[] vids; private VideoPlayer vp; // Use this for initialization void Start () { vids = new VideoClip[25]; vp = gameObject.GetComponent<VideoPlayer> (); } // Update is called once per frame void Update () { } } 我在播放video的飞机上附加了这个脚本。 在那之前,我有26架不同的飞机,每架不同的video都有一架,但是我认为如果能在一架飞机上演奏并根据逻辑改变video会更好。 […]

从OpenGL的3D gaphics制作video

从OpenGLgraphics模拟中创建video的首选方法或库有哪些? 例如,我想通过渲染非实时OpenGL帧来创建N-Body重力模拟的可视化(video)。 模拟已经编码,我只是不知道如何将其转换为video。 编辑:我也有兴趣提供描述的function:用户可以调整参数,包括捕捉帧之间的时间步骤,然后启动模拟。 用户等待模拟完成,然后可以观察结果。 用户能够增加或减less模拟的回放速度,而在慢动作中,使用更多的帧,即您看到更高的分辨率时间步长,而当速度增加时,您会看到更低速的分辨率时间步,但屏幕上每秒闪烁的帧数是不变的。