Hi Matt, <br><br>i implemented once an haptic based application. most of the models are about 1M triangles, and no device can handle such numbre of tries. but finally the app runs at 150Hz :-). so you can never get faster than 1000Hz for big scene. ok i guess you are using the phantom device, and the vendor says: it's running at 1000Hz,... you have to update the triangles for each frame, or you pass the whole scene to the device, right. if you have to update you can not pass it with 1000Hz as the device can render it. but no worries, the device can only render 1000Hz with in an optimal case, and we never have this case in our apps. how did i achieve +100Hz with such big scenes, i implemented an kdTree to store the triangles, and then i culled them against a sphere. so since OSG has kdTree support (since past week) may you can implement a polytopIntersector, or just for a sphere. the sphere radius is the max distance the device can move between one frame :-) the faster you render the smaller the radius become, faster again ,... you see, quite important. <br>
<br>so implement the polytop intersection, add a sphere or a box or ... it would be greate if you could share the code. :-) new node kit or ... <br><br>what kind of driver you will support ? <br><br>adrian <br><br><div class="gmail_quote">
2008/7/14 Matt Sutton <<a href="mailto:Matt.Sutton@padtinc.com">Matt.Sutton@padtinc.com</a>>:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">







<div>

<br>

<p><font size="2">Hi Folks,<br>
  I'm brand new to osg, so I wanted to get some feedback from more experienced users regarding a tactic I am considering for a haptic application I am developing.  Haptics are 3d force feedback devices.  One of the challenges with them is that they require update speeds at approximately 1000Hz.  The model that I will be working with is approximately 1,000,000 triangles, so collision detection is challenging at these rates.  The tactic I am considering in a nut shell is to use a second scene graph for haptic culling purposes.  I want to create an artificial viewing frustum near the haptic probe so I can cull away triangles that cannot come into contact with the probe.  I would then use the haptic rendering software with this smaller subset of triangles.  The cull doesn't need to process at 1000Hz, but rather needs to maintain a window around the probe such that the "visible" triangles include all that can potentially contact the probe while the probe is moving and before the next cull frame.  Does this sound reasonable?  If so, what form should I use for my haptic scene graph?  That is, does the cull work best with a series of nodes representing smaller patches of the geometry?  Are there any issues, beyond the extra book-keeping with two separate scene graphs in a single application?  Is there any benefit in maintaining two separate graphs, or would alternate traversals of a master graph be sufficient?  Sorry if these are too elementary.  Please feel free to point me to a piece of documentation if I am missing something.<br>

Thanks for any help.<br>
Matt Sutton<br>
<a href="http://www.padtinc.com" target="_blank">www.padtinc.com</a><br>
</font>
</p>

</div>
<br>_______________________________________________<br>
osg-users mailing list<br>
<a href="mailto:osg-users@lists.openscenegraph.org">osg-users@lists.openscenegraph.org</a><br>
<a href="http://lists.openscenegraph.org/listinfo.cgi/osg-users-openscenegraph.org" target="_blank">http://lists.openscenegraph.org/listinfo.cgi/osg-users-openscenegraph.org</a><br>
<br></blockquote></div><br><br clear="all"><br>-- <br>********************************************<br>Adrian Egli