`
schi
  • 浏览: 205934 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

scanDagCmd

阅读更多

scanDag命令以depth first(深度优先)或breadth first(广度优先)来迭代整个DAG,输出每个节点的名称和深度等信息,这个命令插件例子中只对相机、灯光、NURBS surfaces进行支持。
在maya的Plug-in Manager中加载scanDagCmd.py,然后你可以随便创建一些相机、灯光、NURBS surfaces,并对它们进行位移等属性调整,然后分别执行

// -d 为深度优先,-b 为广度优先
// 相机
scanDag -d 1 -c 1;
// 灯光
scanDag -d 1 -l 1;
// NURBS surfaces
scanDag -d 1 -l 1;
// 或全部一起
scanDag -d 1 -c 1 -l 1 -n 1;

 或

import maya.cmds as cmds
# 相机
cmds.scanDag(d=1, c=1)
# 灯光
cmds.scanDag(d=1, l=1)

 你会得到类似的输出结果

Output
Starting Depth First scan of the Dag: Filtering for Cameras
perspShape: camera
dagPath: |persp|perspShape
translation: 28.000000 21.000000 28.000000
rotation: [-0.487616, 0.785398, 0.000000]
scale: [1.000000, 1.000000, 1.000000]
eyePoint: 28.000000 21.000000 28.000000
upDirection: -0.331295 0.883452 -0.331295
viewDirection: -0.624695 -0.468521 -0.624695
aspectRatio: 1.500000
horizontalFilmAperture: 1.417320
verticalFilmAperture: 0.944880
topShape: camera
dagPath: |top|topShape
translation: 0.000000 100.100000 0.000000
rotation: [-1.570796, 0.000000, 0.000000]
scale: [1.000000, 1.000000, 1.000000]
eyePoint: 0.000000 100.100000 0.000000
upDirection: 0.000000 0.000000 -1.000000
viewDirection: 0.000000 -1.000000 -0.000000
aspectRatio: 1.500000
horizontalFilmAperture: 1.417320
verticalFilmAperture: 0.944880
frontShape: camera
dagPath: |front|frontShape
translation: 0.000000 0.000000 100.100000
rotation: [0.000000, -0.000000, 0.000000]
scale: [1.000000, 1.000000, 1.000000]
eyePoint: 0.000000 0.000000 100.100000
upDirection: 0.000000 1.000000 0.000000
viewDirection: 0.000000 0.000000 -1.000000
aspectRatio: 1.500000
horizontalFilmAperture: 1.417320
verticalFilmAperture: 0.944880
sideShape: camera
dagPath: |side|sideShape
translation: 100.100000 0.000000 0.000000
rotation: [-0.000000, 1.570796, 0.000000]
scale: [1.000000, 1.000000, 1.000000]
eyePoint: 100.100000 0.000000 0.000000
upDirection: 0.000000 1.000000 0.000000
viewDirection: -1.000000 0.000000 -0.000000
aspectRatio: 1.500000
horizontalFilmAperture: 1.417320
verticalFilmAperture: 0.944880
// Result: 4 //

 scanDagCmd.py

# -*- coding: UTF-8 -*-

import sys
import maya.OpenMaya as om
import maya.OpenMayaMPx as ompx

# 命令名称
kCmdName = 'scanDag'

# 命令参数
kBreadthFlag = '-b'
kBreadthFlagLong = 'breadthFirst'
kDepthFlag = '-d'
kDepthFlagLong = '-depthFirst'
kCameraFlag = '-c'
kCameraFlagLong = '-cameras'
kLightFlag = '-l'
kLightFlagLong = '-lights'
kNurbsSurfaceFlag = '-n'
kNurbsSurfaceFlagLong = '-nurbsSurfaces'
kQuietFlag = '-q'
kQuietFlagLong = '-quiet'

# 定义命令
class ScanDag(ompx.MPxCommand):
    
    def __init__(self):
        super(ScanDag, self).__init__()
        
    def doIt(self, args):
        # 初始化默认变量,防止无参数命令出现
        self._traversalType = om.MItDag.kDepthFirst
        self._filter = om.MFn.kInvalid
        self._quiet = False
        
        self.__parseArgs(args)
        
        return self.__doScan()
    
    def __parseArgs(self, args):
        '''
        检查命令所给的参数,并设置相应的变量
        '''
        argData = om.MArgDatabase(self.syntax(), args)
        if argData.isFlagSet(kBreadthFlag) or argData.isFlagSet(kBreadthFlagLong):
            self._traversalType = om.MItDag.kBreadthFirst
        if argData.isFlagSet(kDepthFlag) or argData.isFlagSet(kDepthFlagLong):
            self._traversalType = om.MItDag.kDepthFirst
        if argData.isFlagSet(kCameraFlag) or argData.isFlagSet(kCameraFlagLong):
            self._filter = om.MFn.kCamera
        if argData.isFlagSet(kLightFlag) or argData.isFlagSet(kLightFlagLong):
            self._filter = om.MFn.kLight
        if argData.isFlagSet(kNurbsSurfaceFlag) or argData.isFlagSet(kNurbsSurfaceFlagLong):
            self._filter = om.MFn.kNurbsSurface
        if argData.isFlagSet(kQuietFlag) or argData.isFlagSet(kQuietFlagLong):
            self._quiet = True
        
        return True
    
    def __doScan(self):
        '''
        完成实际的工作
        '''
        # 创建dag迭代器
        dagIterator = om.MItDag(self._traversalType, self._filter)
        
        # Scan the entire DAG and output the name and depth of each node
        # 扫描整个DAG,输出每个节点的名称和深度
        if self._traversalType == om.MItDag.kBreadthFirst:
            if not self._quiet:
                sys.stdout.write('Starting Breadth First scan of the Dag')
        else:
            if not self._quiet:
                sys.stdout.write('Starting Depth First scan of the Dag')
                
        if self._filter == om.MFn.kCamera:
            if not self._quiet:
                sys.stdout.write(': Filtering for Cameras\n')
        elif self._filter == om.MFn.kLight:
            if not self._quiet:
                sys.stdout.write(': Filtering for Lights\n')
        elif self._filter == om.MFn.kNurbsSurface:
            if not self._quiet:
                sys.stdout.write(': Filtering for Nurbs Surfaces\n')
        else:
            sys.stdout.write('\n')
            
        # 对DAG里的每个节点进行迭代
        objectCount = 0
        while not dagIterator.isDone():
            dagPath = om.MDagPath()
            # 获取节点的DAG路径
            dagIterator.getPath(dagPath)
            # 使用方法集来操作节点
            dagNode = om.MFnDagNode(dagPath)
            
            # 输出节点的名称,类型,全路径
            if not self._quiet:
                sys.stdout.write('%s: %s\n' % (dagNode.name(), dagNode.typeName()))
                
            if not self._quiet:
                sys.stdout.write('  dagPath: %s\n' % dagPath.fullPathName())
                
            # 判别节点的类型,这里只对相机、灯光、NURBS surfaces进行操作
            # 实际上是可以对任意类型,进行相应的操作
            objectCount += 1
            if dagPath.hasFn(om.MFn.kCamera):
                camera = om.MFnCamera(dagPath)
                
                # Get the translation/rotation/scale data
                # 获取translation/rotation/scale等数据
                self.__printTransformData(dagPath)
                
                # Extract some interesting Camera data
                # 分离一些有趣的相机数据
                if not self._quiet:
                    eyePoint = camera.eyePoint(om.MSpace.kWorld)
                    upDirection = camera.upDirection(om.MSpace.kWorld)
                    viewDirection = camera.viewDirection(om.MSpace.kWorld)
                    aspectRatio = camera.aspectRatio()
                    hfa = camera.horizontalFilmAperture()
                    vfa = camera.verticalFilmAperture()
                    
                    sys.stdout.write("  eyePoint: %f %f %f\n" % (eyePoint.x, eyePoint.y, eyePoint.z))
                    sys.stdout.write("  upDirection: %f %f %f\n" % (upDirection.x, upDirection.y, upDirection.z))
                    sys.stdout.write("  viewDirection: %f %f %f\n" % (viewDirection.x, viewDirection.y, viewDirection.z))
                    sys.stdout.write("  aspectRatio: %f\n" % aspectRatio)
                    sys.stdout.write("  horizontalFilmAperture: %f\n" % hfa)
                    sys.stdout.write("  verticalFilmAperture: %f\n" % vfa)
            elif dagPath.hasFn(om.MFn.kLight):
                light = om.MFnLight(dagPath)
                
                # Get the translation/rotation/scale data
                # 获取translation/rotation/scale等数据
                self.__printTransformData(dagPath)
                
                # Extract some interesting Light data
                # 分离一些有趣的灯光数据
                color = om.MColor()
                
                color = light.color()
                if not self._quiet:
                    sys.stdout.write("  color: [%f, %f, %f]\n" % (color.r, color.g, color.b))
                    
                color = light.shadowColor()
                if not self._quiet:
                    sys.stdout.write("  shadowColor: [%f, %f, %f]\n" % (color.r, color.g, color.b))
                    sys.stdout.write("  intensity: %f\n" % light.intensity())
            elif dagPath.hasFn(om.MFn.kNurbsSurface):
                surface = om.MFnNurbsSurface(dagPath)
                
                # Get the translation/rotation/scale data
                # 获取translation/rotation/scale等数据
                self.__printTransformData(dagPath)
                
                # Extract some interesting Surface data
                # 分离一些有趣的NURBS surfaces数据
                if not self._quiet:
                    sys.stdout.write("  numCVs: %d * %d\n" % (surface.numCVsInU(), surface.numCVsInV()))
                    sys.stdout.write("  numKnots: %d * %d\n" % (surface.numKnotsInU(), surface.numKnotsInV()))
                    sys.stdout.write("  numSpans: %d * %d\n" % (surface.numSpansInU(), surface.numSpansInV()))
            else:
                # Get the translation/rotation/scale data
                # 获取translation/rotation/scale等数据
                self.__printTransformData(dagPath)
                
            dagIterator.next()
            
        # 返回命令结果,这个结果为所操作的节点的数量值
        self.setResult(objectCount)
        return om.MStatus.kSuccess
    
    def __printTransformData(self, dagPath):
        '''
        获取translation/rotation/scale等数据
        '''
        # 获取节点的Transform节点
        transformNode = dagPath.transform()
        transform = om.MFnDagNode(transformNode)
        # 获取Transform的Transformation matrix
        matrix = om.MTransformationMatrix(transform.transformationMatrix())
        
        if not self._quiet:
            # 获取节点的位移数值,并输出
            translation = matrix.translation(om.MSpace.kWorld)
            sys.stdout.write('  translation: %f %f %f\n' % (translation.x, translation.y, translation.z))
            
        #rOrder = om.MTransformationMatrix.kXYZ
        #matrix.getRotation(ptr, rOrder)
        
        # 获取节点的旋转数值,并输出
        rotateOrder = 0
        mquat = matrix.rotation()
        rot = mquat.asEulerRotation()
        rot.reorderIt(rotateOrder)
        
        if not self._quiet:
            sys.stdout.write("  rotation: [%f, %f, %f]\n" % (rot.x, rot.y, rot.z))
            
        # 获取节点的缩放数值,并输出
        # 这里需要使用MScriptUtil
        # 因为MTransformationMatrix.getScale()
        # 的第一个参数是C++里的指针
        util = om.MScriptUtil()
        util.createFromDouble(0.0, 0.0, 0.0)
        ptr = util.asDoublePtr()

        matrix.getScale(ptr, om.MSpace.kWorld)
        
        scaleX = util.getDoubleArrayItem(ptr, 0)
        scaleY = util.getDoubleArrayItem(ptr, 1)
        scaleZ = util.getDoubleArrayItem(ptr, 2)
        if not self._quiet:
            sys.stdout.write('  scale: [%f, %f, %f]\n' % (scaleX, scaleY, scaleZ))
            
    
# Creator
def cmdCreator():
    return ompx.asMPxPtr(ScanDag())

# Syntax creator
def syntaxCreator():
    syntax = om.MSyntax()
    syntax.addFlag(kBreadthFlag, kBreadthFlagLong, om.MSyntax.kBoolean)
    syntax.addFlag(kDepthFlag, kDepthFlagLong, om.MSyntax.kBoolean)
    syntax.addFlag(kCameraFlag, kCameraFlagLong, om.MSyntax.kBoolean)
    syntax.addFlag(kLightFlag, kLightFlagLong, om.MSyntax.kBoolean)
    syntax.addFlag(kNurbsSurfaceFlag, kNurbsSurfaceFlagLong, om.MSyntax.kBoolean)
    syntax.addFlag(kQuietFlag, kQuietFlagLong, om.MSyntax.kBoolean)
    return syntax

# Initialize the script plug-in
def initializePlugin(mobj):
    mplugin = ompx.MFnPlugin(mobj, 'Mack Stone', '3.0', 'Any')
    try:
        mplugin.registerCommand(kCmdName, cmdCreator, syntaxCreator)
    except:
        sys.stderr.write('Failed to register command: %s\n' % kCmdName)
        raise
    
# Uninitialize the script plug-in
def uninitializePlugin(mobj):
    mplugin = ompx.MFnPlugin(mobj)
    try:
        mplugin.deregisterCommand(kCmdName)
    except:
        sys.stderr.write('Failed to unregister command: %s\n' % kCmdName)
        raise

 你可以在devkit\plug-ins中找到scanDagCmd.cpp
在线版本

http://download.autodesk.com/us/maya/2010help/API/scan_dag_cmd_8cpp-example.html

分享到:
评论

相关推荐

    ysoserial-master.zip

    ysoserial是一个用于生成利用不安全的Java对象反序列化的有效负载的概念验证工具。它包含一系列在常见Java库中发现的"gadget chains",可以在特定条件下利用执行不安全的反序列化操作的Java应用程序。ysoserial项目最初在2015年AppSecCali会议上提出,包含针对Apache Commons Collections(3.x和4.x版本)、Spring Beans/Core(4.x版本)和Groovy(2.3.x版本)的利用链

    zigbee CC2530无线自组网协议栈系统代码实现协调器与终端的TI Sensor实验和Monitor使用.zip

    1、嵌入式物联网单片机项目开发例程,简单、方便、好用,节省开发时间。 2、代码使用IAR软件开发,当前在CC2530上运行,如果是其他型号芯片,请自行移植。 3、软件下载时,请注意接上硬件,并确认烧录器连接正常。 4、有偿指导v:wulianjishu666; 5、如果接入其他传感器,请查看账号发布的其他资料。 6、单片机与模块的接线,在代码当中均有定义,请自行对照。 7、若硬件有差异,请根据自身情况调整代码,程序仅供参考学习。 8、代码有注释说明,请耐心阅读。 9、例程具有一定专业性,非专业人士请谨慎操作。

    YOLO算法-自卸卡车-挖掘机-轮式装载机数据集-2644张图像带标签-自卸卡车-挖掘机-轮式装载机.zip

    YOLO系列算法目标检测数据集,包含标签,可以直接训练模型和验证测试,数据集已经划分好,包含数据集配置文件data.yaml,适用yolov5,yolov8,yolov9,yolov7,yolov10,yolo11算法; 包含两种标签格:yolo格式(txt文件)和voc格式(xml文件),分别保存在两个文件夹中,文件名末尾是部分类别名称; yolo格式:<class> <x_center> <y_center> <width> <height>, 其中: <class> 是目标的类别索引(从0开始)。 <x_center> 和 <y_center> 是目标框中心点的x和y坐标,这些坐标是相对于图像宽度和高度的比例值,范围在0到1之间。 <width> 和 <height> 是目标框的宽度和高度,也是相对于图像宽度和高度的比例值; 【注】可以下拉页面,在资源详情处查看标签具体内容;

    Oracle10gDBA学习手册中文PDF清晰版最新版本

    **Oracle 10g DBA学习手册:安装Oracle和构建数据库** **目的:** 本章节旨在指导您完成Oracle数据库软件的安装和数据库的创建。您将通过Oracle Universal Installer (OUI)了解软件安装过程,并学习如何利用Database Configuration Assistant (DBCA)创建附加数据库。 **主题概览:** 1. 利用Oracle Universal Installer (OUI)安装软件 2. 利用Database Configuration Assistant (DBCA)创建数据库 **第2章:Oracle软件的安装与数据库构建** **Oracle Universal Installer (OUI)的运用:** Oracle Universal Installer (OUI)是一个图形用户界面(GUI)工具,它允许您查看、安装和卸载机器上的Oracle软件。通过OUI,您可以轻松地管理Oracle软件的安装和维护。 **安装步骤:** 以下是使用OUI安装Oracle软件并创建数据库的具体步骤:

    消防验收过程服务--现场记录表.doc

    消防验收过程服务--现场记录表.doc

    (4655036)数据库 管理与应用 期末考试题 数据库试题

    数据库管理\09-10年第1学期数据库期末考试试卷A(改卷参考).doc。内容来源于网络分享,如有侵权请联系我删除。另外如果没有积分的同学需要下载,请私信我。

    YOLO算法-瓶纸盒合并数据集-3161张图像带标签-纸张-纸箱-瓶子.zip

    YOLO系列算法目标检测数据集,包含标签,可以直接训练模型和验证测试,数据集已经划分好,包含数据集配置文件data.yaml,适用yolov5,yolov8,yolov9,yolov7,yolov10,yolo11算法; 包含两种标签格:yolo格式(txt文件)和voc格式(xml文件),分别保存在两个文件夹中,文件名末尾是部分类别名称; yolo格式:<class> <x_center> <y_center> <width> <height>, 其中: <class> 是目标的类别索引(从0开始)。 <x_center> 和 <y_center> 是目标框中心点的x和y坐标,这些坐标是相对于图像宽度和高度的比例值,范围在0到1之间。 <width> 和 <height> 是目标框的宽度和高度,也是相对于图像宽度和高度的比例值; 【注】可以下拉页面,在资源详情处查看标签具体内容;

    职业暴露后的处理流程.docx

    职业暴露后的处理流程.docx

    Java Web开发短消息系统

    Java Web开发短消息系统

    java毕设项目之ssm基于java和mysql的多角色学生管理系统+jsp(完整前后端+说明文档+mysql+lw).zip

    项目包含完整前后端源码和数据库文件 环境说明: 开发语言:Java 框架:ssm,mybatis JDK版本:JDK1.8 数据库:mysql 5.7 数据库工具:Navicat11 开发软件:eclipse/idea Maven包:Maven3.3 服务器:tomcat7

    批量导出多项目核心目录工具

    这是一款可以配置过滤目录及过滤的文件后缀的工具,并且支持多个项目同时输出导出,并过滤指定不需要导出的目录及文件后缀。 导出后将会保留原有的路径,并在新的文件夹中体现。

    【图像压缩】基于matlab GUI DCT图像压缩(含MAX MED MIN NONE)【含Matlab源码 9946期】.zip

    Matlab领域上传的视频均有对应的完整代码,皆可运行,亲测可用,适合小白; 1、代码压缩包内容 主函数:main.m; 调用函数:其他m文件;无需运行 运行结果效果图; 2、代码运行版本 Matlab 2019b;若运行有误,根据提示修改;若不会,私信博主; 3、运行操作步骤 步骤一:将所有文件放到Matlab的当前文件夹中; 步骤二:双击打开main.m文件; 步骤三:点击运行,等程序运行完得到结果; 4、仿真咨询 如需其他服务,可私信博主; 4.1 博客或资源的完整代码提供 4.2 期刊或参考文献复现 4.3 Matlab程序定制 4.4 科研合作

    YOLO算法-挖掘机与火焰数据集-7735张图像带标签-挖掘机.zip

    YOLO算法-挖掘机与火焰数据集-7735张图像带标签-挖掘机.zip

    操作系统实验 Ucore lab5

    操作系统实验 Ucore lab5

    IMG_5950.jpg

    IMG_5950.jpg

    竞选报价评分表.docx

    竞选报价评分表.docx

    java系统,mysql、springboot等框架

    java系统,mysql、springboot等框架

    zigbee CC2530网关+4节点无线通讯实现温湿度、光敏、LED、继电器等传感节点数据的采集上传,网关通过ESP8266上传远程服务器及下发控制.zip

    1、嵌入式物联网单片机项目开发例程,简单、方便、好用,节省开发时间。 2、代码使用IAR软件开发,当前在CC2530上运行,如果是其他型号芯片,请自行移植。 3、软件下载时,请注意接上硬件,并确认烧录器连接正常。 4、有偿指导v:wulianjishu666; 5、如果接入其他传感器,请查看账号发布的其他资料。 6、单片机与模块的接线,在代码当中均有定义,请自行对照。 7、若硬件有差异,请根据自身情况调整代码,程序仅供参考学习。 8、代码有注释说明,请耐心阅读。 9、例程具有一定专业性,非专业人士请谨慎操作。

    YOLO算法-快递衣物数据集-496张图像带标签.zip

    YOLO系列算法目标检测数据集,包含标签,可以直接训练模型和验证测试,数据集已经划分好,包含数据集配置文件data.yaml,适用yolov5,yolov8,yolov9,yolov7,yolov10,yolo11算法; 包含两种标签格:yolo格式(txt文件)和voc格式(xml文件),分别保存在两个文件夹中,文件名末尾是部分类别名称; yolo格式:<class> <x_center> <y_center> <width> <height>, 其中: <class> 是目标的类别索引(从0开始)。 <x_center> 和 <y_center> 是目标框中心点的x和y坐标,这些坐标是相对于图像宽度和高度的比例值,范围在0到1之间。 <width> 和 <height> 是目标框的宽度和高度,也是相对于图像宽度和高度的比例值; 【注】可以下拉页面,在资源详情处查看标签具体内容;

    搜索引擎lucen的相关介绍 从事搜索行业程序研发、人工智能、存储等技术人员和企业

    内容概要:本文详细讲解了搜索引擎的基础原理,特别是索引机制、优化 like 前缀模糊查询的方法、建立索引的标准以及针对中文的分词处理。文章进一步深入探讨了Lucene,包括它的使用场景、特性、框架结构、Maven引入方法,尤其是Analyzer及其TokenStream的实现细节,以及自定义Analyzer的具体步骤和示例代码。 适合人群:数据库管理员、后端开发者以及希望深入了解搜索引擎底层实现的技术人员。 使用场景及目标:适用于那些需要优化数据库查询性能、实施或改进搜索引擎技术的场景。主要目标在于提高数据库的访问效率,实现高效的数据检索。 阅读建议:由于文章涉及大量的技术术语和实现细节,建议在阅读过程中对照实际开发项目,结合示例代码进行实践操作,有助于更好地理解和吸收知识点。

Global site tag (gtag.js) - Google Analytics