From 2d94e640417940b5e7bc064516b2a396ed5047e8 Mon Sep 17 00:00:00 2001 From: snomiao Date: Sun, 29 Mar 2026 15:30:43 +0900 Subject: [PATCH 01/11] Add Japanese (ja) language support for entire site MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit - Add 974 translated MDX pages in ja/ (dual-source EN+ZH→JA via Qwen Plus) - Add 40 translated snippet files in snippets/ja/ - Add Japanese navigation, footer, and navbar to docs.json - Add Japanese redirects mirroring en/zh redirects - Update language-switcher-fix.js with Japanese detection and routing - Update giscus-comments.js with Japanese notice messages - Add ja-sync-check.yml GitHub Actions workflow - Update zh-cn-sync-check.yml to exclude ja/ paths - Add translation script (.github/scripts/translate-ja.ts) with incremental hash-based updates and EN↔ZH mismatch detection - Add quality check script (.github/scripts/check-ja.ts) with kana detection - Bump Mintlify 4.2.186 → 4.2.459 for per-language footer/navbar support Co-Authored-By: Claude Opus 4.6 (1M context) --- .github/scripts/check-ja.ts | 265 ++ .github/scripts/translate-ja.ts | 540 +++ .github/workflows/ja-sync-check.yml | 215 + .github/workflows/zh-cn-sync-check.yml | 8 +- .gitignore | 2 + docs.json | 2219 +++++++++ giscus-comments.js | 26 +- ja/account/create-account.mdx | 54 + ja/account/delete-account.mdx | 45 + ja/account/login.mdx | 125 + ja/api-reference/cloud/overview.mdx | 33 + ja/built-in-nodes/APG.mdx | 29 + ja/built-in-nodes/AddNoise.mdx | 35 + ja/built-in-nodes/AddTextPrefix.mdx | 27 + ja/built-in-nodes/AddTextSuffix.mdx | 25 + ja/built-in-nodes/AdjustBrightness.mdx | 25 + ja/built-in-nodes/AdjustContrast.mdx | 27 + ja/built-in-nodes/AlignYourStepsScheduler.mdx | 28 + ja/built-in-nodes/AudioAdjustVolume.mdx | 25 + ja/built-in-nodes/AudioConcat.mdx | 26 + ja/built-in-nodes/AudioEncoderEncode.mdx | 25 + ja/built-in-nodes/AudioEncoderLoader.mdx | 24 + ja/built-in-nodes/AudioEqualizer3Band.mdx | 35 + ja/built-in-nodes/AudioMerge.mdx | 26 + ja/built-in-nodes/AutogrowNamesTestNode.mdx | 26 + ja/built-in-nodes/AutogrowPrefixTestNode.mdx | 28 + ja/built-in-nodes/BasicGuider.mdx | 25 + ja/built-in-nodes/BasicScheduler.mdx | 78 + .../BatchImagesMasksLatentsNode.mdx | 28 + ja/built-in-nodes/BatchImagesNode.mdx | 26 + ja/built-in-nodes/BatchLatentsNode.mdx | 29 + ja/built-in-nodes/BatchMasksNode.mdx | 28 + ja/built-in-nodes/BetaSamplingScheduler.mdx | 29 + ja/built-in-nodes/BriaImageEditNode.mdx | 42 + .../BriaRemoveImageBackground.mdx | 32 + .../BriaRemoveVideoBackground.mdx | 28 + .../ByteDanceFirstLastFrameNode.mdx | 35 + ja/built-in-nodes/ByteDanceImageEditNode.mdx | 31 + ja/built-in-nodes/ByteDanceImageNode.mdx | 33 + .../ByteDanceImageReferenceNode.mdx | 31 + .../ByteDanceImageToVideoNode.mdx | 34 + ja/built-in-nodes/ByteDanceSeedreamNode.mdx | 36 + .../ByteDanceTextToVideoNode.mdx | 40 + ja/built-in-nodes/CFGGuider.mdx | 27 + ja/built-in-nodes/CFGNorm.mdx | 25 + ja/built-in-nodes/CFGZeroStar.mdx | 26 + ja/built-in-nodes/CLIPAdd.mdx | 25 + ja/built-in-nodes/CLIPAttentionMultiply.mdx | 30 + ja/built-in-nodes/CLIPMergeAdd.mdx | 27 + ja/built-in-nodes/CLIPMergeSubtract.mdx | 30 + ja/built-in-nodes/CLIPSubtract.mdx | 28 + .../CLIPTextEncodeControlnet.mdx | 30 + ja/built-in-nodes/CLIPTextEncodeHiDream.mdx | 32 + .../CLIPTextEncodeKandinsky5.mdx | 28 + ja/built-in-nodes/CLIPTextEncodeLumina2.mdx | 30 + .../CLIPTextEncodePixArtAlpha.mdx | 27 + ja/built-in-nodes/CLIPTextEncodeSD3.mdx | 36 + ja/built-in-nodes/Canny.mdx | 49 + ja/built-in-nodes/CaseConverter.mdx | 25 + ja/built-in-nodes/CenterCropImages.mdx | 26 + ja/built-in-nodes/CheckpointLoader.mdx | 31 + ja/built-in-nodes/CheckpointLoaderSimple.mdx | 32 + ja/built-in-nodes/CheckpointSave.mdx | 41 + ja/built-in-nodes/ChromaRadianceOptions.mdx | 30 + ja/built-in-nodes/ClipLoader.mdx | 83 + ja/built-in-nodes/ClipMergeSimple.mdx | 51 + ja/built-in-nodes/ClipSave.mdx | 42 + ja/built-in-nodes/ClipSetLastLayer.mdx | 44 + ja/built-in-nodes/ClipTextEncode.mdx | 75 + ja/built-in-nodes/ClipTextEncodeFlux.mdx | 54 + .../ClipTextEncodeHunyuanDit.mdx | 27 + ja/built-in-nodes/ClipTextEncodeSdxl.mdx | 30 + .../ClipTextEncodeSdxlRefiner.mdx | 49 + ja/built-in-nodes/ClipVisionEncode.mdx | 37 + ja/built-in-nodes/ClipVisionLoader.mdx | 22 + ja/built-in-nodes/ColorToRGBInt.mdx | 28 + ja/built-in-nodes/CombineHooks.mdx | 27 + ja/built-in-nodes/CombineHooksEight.mdx | 33 + ja/built-in-nodes/CombineHooksFour.mdx | 29 + ja/built-in-nodes/ComboOptionTestNode.mdx | 26 + ja/built-in-nodes/ComfySoftSwitchNode.mdx | 30 + ja/built-in-nodes/ComfySwitchNode.mdx | 30 + ja/built-in-nodes/ConditioningAverage.mdx | 37 + ja/built-in-nodes/ConditioningCombine.mdx | 39 + ja/built-in-nodes/ConditioningConcat.mdx | 23 + ja/built-in-nodes/ConditioningSetArea.mdx | 27 + .../ConditioningSetAreaPercentage.mdx | 29 + .../ConditioningSetAreaPercentageVideo.mdx | 33 + .../ConditioningSetAreaStrength.mdx | 23 + .../ConditioningSetDefaultAndCombine.mdx | 26 + ja/built-in-nodes/ConditioningSetMask.mdx | 27 + .../ConditioningSetProperties.mdx | 33 + .../ConditioningSetPropertiesAndCombine.mdx | 34 + .../ConditioningSetTimestepRange.mdx | 24 + ja/built-in-nodes/ConditioningStableAudio.mdx | 30 + .../ConditioningTimestepsRange.mdx | 29 + ja/built-in-nodes/ConditioningZeroOut.mdx | 22 + ja/built-in-nodes/ContextWindowsManual.mdx | 37 + ja/built-in-nodes/ControlNetApply.mdx | 32 + ja/built-in-nodes/ControlNetApplyAdvanced.mdx | 31 + ja/built-in-nodes/ControlNetApplySD3.mdx | 36 + .../ControlNetInpaintingAliMamaApply.mdx | 37 + ja/built-in-nodes/ControlNetLoader.mdx | 24 + .../ConvertStringToComboNode.mdx | 26 + .../CosmosImageToVideoLatent.mdx | 34 + .../CosmosPredict2ImageToVideoLatent.mdx | 35 + ja/built-in-nodes/CreateHookKeyframe.mdx | 26 + .../CreateHookKeyframesFromFloats.mdx | 32 + .../CreateHookKeyframesInterpolated.mdx | 33 + ja/built-in-nodes/CreateHookLora.mdx | 34 + ja/built-in-nodes/CreateHookLoraModelOnly.mdx | 28 + ja/built-in-nodes/CreateHookModelAsLora.mdx | 36 + .../CreateHookModelAsLoraModelOnly.mdx | 28 + ja/built-in-nodes/CreateList.mdx | 26 + ja/built-in-nodes/CreateVideo.mdx | 26 + ja/built-in-nodes/CropMask.mdx | 26 + ja/built-in-nodes/CustomCombo.mdx | 28 + ja/built-in-nodes/DCTestNode.mdx | 38 + .../DeprecatedCheckpointLoader.mdx | 25 + .../DeprecatedDiffusersLoader.mdx | 24 + ja/built-in-nodes/DiffControlNetLoader.mdx | 27 + ja/built-in-nodes/DifferentialDiffusion.mdx | 25 + ja/built-in-nodes/DiffusersLoader.mdx | 28 + ja/built-in-nodes/DisableNoise.mdx | 24 + ja/built-in-nodes/DualCFGGuider.mdx | 32 + ja/built-in-nodes/DualCLIPLoader.mdx | 28 + ja/built-in-nodes/EasyCache.mdx | 30 + .../ElevenLabsAudioIsolation.mdx | 24 + .../ElevenLabsInstantVoiceClone.mdx | 29 + .../ElevenLabsSpeechToSpeech.mdx | 32 + ja/built-in-nodes/ElevenLabsSpeechToText.mdx | 39 + .../ElevenLabsTextToDialogue.mdx | 34 + .../ElevenLabsTextToSoundEffects.mdx | 32 + ja/built-in-nodes/ElevenLabsTextToSpeech.mdx | 46 + ja/built-in-nodes/ElevenLabsVoiceSelector.mdx | 24 + .../EmptyAceStep1.5LatentAudio.mdx | 27 + ja/built-in-nodes/EmptyAceStepLatentAudio.mdx | 25 + ja/built-in-nodes/EmptyAudio.mdx | 26 + .../EmptyChromaRadianceLatentImage.mdx | 26 + ja/built-in-nodes/EmptyCosmosLatentVideo.mdx | 29 + ja/built-in-nodes/EmptyFlux2LatentImage.mdx | 30 + ja/built-in-nodes/EmptyHunyuanImageLatent.mdx | 28 + ja/built-in-nodes/EmptyHunyuanLatentVideo.mdx | 25 + .../EmptyHunyuanVideo15Latent.mdx | 29 + ja/built-in-nodes/EmptyImage.mdx | 58 + ja/built-in-nodes/EmptyLTXVLatentVideo.mdx | 27 + ja/built-in-nodes/EmptyLatentAudio.mdx | 25 + ja/built-in-nodes/EmptyLatentHunyuan3Dv2.mdx | 27 + ja/built-in-nodes/EmptyLatentImage.mdx | 26 + ja/built-in-nodes/EmptyMochiLatentVideo.mdx | 31 + .../EmptyQwenImageLayeredLatentImage.mdx | 31 + ja/built-in-nodes/EmptySD3LatentImage.mdx | 26 + ja/built-in-nodes/Epsilon Scaling.mdx | 25 + ja/built-in-nodes/EpsilonScaling.mdx | 25 + ja/built-in-nodes/ExponentialScheduler.mdx | 24 + .../ExtendIntermediateSigmas.mdx | 30 + ja/built-in-nodes/FeatherMask.mdx | 26 + ja/built-in-nodes/FlipSigmas.mdx | 24 + ja/built-in-nodes/Flux2Scheduler.mdx | 26 + ja/built-in-nodes/FluxDisableGuidance.mdx | 24 + ja/built-in-nodes/FluxGuidance.mdx | 21 + ja/built-in-nodes/FluxKontextImageScale.mdx | 46 + .../FluxKontextMultiReferenceLatentMethod.mdx | 27 + ja/built-in-nodes/FluxProCannyNode.mdx | 36 + ja/built-in-nodes/FluxProDepthNode.mdx | 32 + ja/built-in-nodes/FluxProExpandNode.mdx | 35 + ja/built-in-nodes/FluxProFillNode.mdx | 32 + ja/built-in-nodes/FluxProImageNode.mdx | 31 + ja/built-in-nodes/FluxProUltraImageNode.mdx | 34 + ja/built-in-nodes/FreSca.mdx | 27 + ja/built-in-nodes/FreeU.mdx | 28 + ja/built-in-nodes/FreeU_V2.mdx | 28 + ja/built-in-nodes/GITSScheduler.mdx | 28 + ja/built-in-nodes/GLIGENLoader.mdx | 24 + ja/built-in-nodes/GLIGENTextBoxApply.mdx | 31 + ja/built-in-nodes/GLSLShader.mdx | 40 + ja/built-in-nodes/GeminiImage.mdx | 33 + ja/built-in-nodes/GeminiImage2Node.mdx | 40 + ja/built-in-nodes/GeminiImageNode.mdx | 31 + ja/built-in-nodes/GeminiInputFiles.mdx | 29 + ja/built-in-nodes/GeminiNode.mdx | 32 + ja/built-in-nodes/GenerateTracks.mdx | 42 + ja/built-in-nodes/GetImageSize.mdx | 27 + ja/built-in-nodes/GetVideoComponents.mdx | 26 + ja/built-in-nodes/GrokImageEditNode.mdx | 33 + ja/built-in-nodes/GrokImageNode.mdx | 32 + ja/built-in-nodes/GrokVideoEditNode.mdx | 34 + ja/built-in-nodes/GrokVideoNode.mdx | 34 + ja/built-in-nodes/GrowMask.mdx | 24 + .../HitPawGeneralImageEnhance.mdx | 31 + ja/built-in-nodes/HitPawVideoEnhance.mdx | 31 + ja/built-in-nodes/Hunyuan3Dv2Conditioning.mdx | 27 + .../Hunyuan3Dv2ConditioningMultiView.mdx | 30 + ja/built-in-nodes/HunyuanImageToVideo.mdx | 40 + ja/built-in-nodes/HunyuanRefinerLatent.mdx | 31 + .../HunyuanVideo15ImageToVideo.mdx | 38 + .../HunyuanVideo15LatentUpscaleWithModel.mdx | 33 + .../HunyuanVideo15SuperResolution.mdx | 36 + ja/built-in-nodes/HyperTile.mdx | 30 + ja/built-in-nodes/HypernetworkLoader.mdx | 26 + ja/built-in-nodes/IdeogramV1.mdx | 32 + ja/built-in-nodes/IdeogramV2.mdx | 36 + ja/built-in-nodes/IdeogramV3.mdx | 45 + ja/built-in-nodes/ImageAddNoise.mdx | 26 + ja/built-in-nodes/ImageBatch.mdx | 23 + ja/built-in-nodes/ImageBlend.mdx | 25 + ja/built-in-nodes/ImageBlur.mdx | 24 + ja/built-in-nodes/ImageColorToMask.mdx | 23 + ja/built-in-nodes/ImageCompare.mdx | 26 + ja/built-in-nodes/ImageCompositeMasked.mdx | 29 + ja/built-in-nodes/ImageCrop.mdx | 26 + ja/built-in-nodes/ImageCropV2.mdx | 27 + ja/built-in-nodes/ImageDeduplication.mdx | 25 + ja/built-in-nodes/ImageFlip.mdx | 25 + ja/built-in-nodes/ImageFromBatch.mdx | 24 + ja/built-in-nodes/ImageGrid.mdx | 28 + ja/built-in-nodes/ImageInvert.mdx | 22 + .../ImageOnlyCheckpointLoader.mdx | 26 + ja/built-in-nodes/ImageOnlyCheckpointSave.mdx | 31 + ja/built-in-nodes/ImagePadForOutpaint.mdx | 28 + ja/built-in-nodes/ImageQuantize.mdx | 24 + ja/built-in-nodes/ImageRGBToYUV.mdx | 28 + ja/built-in-nodes/ImageRotate.mdx | 25 + ja/built-in-nodes/ImageScale.mdx | 26 + ja/built-in-nodes/ImageScaleBy.mdx | 24 + .../ImageScaleToMaxDimension.mdx | 28 + ja/built-in-nodes/ImageScaleToTotalPixels.mdx | 24 + ja/built-in-nodes/ImageSharpen.mdx | 25 + ja/built-in-nodes/ImageStitch.mdx | 61 + ja/built-in-nodes/ImageToMask.mdx | 23 + ja/built-in-nodes/ImageUpscaleWithModel.mdx | 23 + ja/built-in-nodes/ImageYUVToRGB.mdx | 30 + .../InpaintModelConditioning.mdx | 30 + .../InstructPixToPixConditioning.mdx | 33 + ja/built-in-nodes/InvertBooleanNode.mdx | 24 + ja/built-in-nodes/InvertMask.mdx | 22 + ja/built-in-nodes/JoinAudioChannels.mdx | 29 + ja/built-in-nodes/JoinImageWithAlpha.mdx | 23 + ja/built-in-nodes/KSampler.mdx | 89 + ja/built-in-nodes/KSamplerAdvanced.mdx | 36 + ja/built-in-nodes/KSamplerSelect.mdx | 22 + ja/built-in-nodes/Kandinsky5ImageToVideo.mdx | 38 + ja/built-in-nodes/KarrasScheduler.mdx | 27 + .../KlingCameraControlI2VNode.mdx | 35 + .../KlingCameraControlT2VNode.mdx | 32 + ja/built-in-nodes/KlingCameraControls.mdx | 34 + .../KlingDualCharacterVideoEffectNode.mdx | 32 + ja/built-in-nodes/KlingFirstLastFrameNode.mdx | 35 + ja/built-in-nodes/KlingImage2VideoNode.mdx | 35 + .../KlingImageGenerationNode.mdx | 40 + .../KlingImageToVideoWithAudio.mdx | 29 + .../KlingLipSyncAudioToVideoNode.mdx | 39 + .../KlingLipSyncTextToVideoNode.mdx | 37 + ja/built-in-nodes/KlingMotionControl.mdx | 34 + .../KlingOmniProEditVideoNode.mdx | 40 + .../KlingOmniProFirstLastFrameNode.mdx | 41 + ja/built-in-nodes/KlingOmniProImageNode.mdx | 30 + .../KlingOmniProImageToVideoNode.mdx | 33 + .../KlingOmniProTextToVideoNode.mdx | 28 + .../KlingOmniProVideoToVideoNode.mdx | 38 + .../KlingSingleImageVideoEffectNode.mdx | 33 + ja/built-in-nodes/KlingStartEndFrameNode.mdx | 41 + ja/built-in-nodes/KlingTextToVideoNode.mdx | 32 + .../KlingTextToVideoWithAudio.mdx | 31 + ja/built-in-nodes/KlingVideoExtendNode.mdx | 31 + ja/built-in-nodes/KlingVideoNode.mdx | 46 + ja/built-in-nodes/KlingVirtualTryOnNode.mdx | 26 + ja/built-in-nodes/LTXAVTextEncoderLoader.mdx | 30 + ja/built-in-nodes/LTXVAddGuide.mdx | 36 + ja/built-in-nodes/LTXVAudioVAEDecode.mdx | 27 + ja/built-in-nodes/LTXVAudioVAEEncode.mdx | 25 + ja/built-in-nodes/LTXVAudioVAELoader.mdx | 24 + ja/built-in-nodes/LTXVConcatAVLatent.mdx | 29 + ja/built-in-nodes/LTXVConditioning.mdx | 29 + ja/built-in-nodes/LTXVCropGuides.mdx | 30 + ja/built-in-nodes/LTXVEmptyLatentAudio.mdx | 31 + ja/built-in-nodes/LTXVImgToVideo.mdx | 36 + ja/built-in-nodes/LTXVImgToVideoInplace.mdx | 32 + ja/built-in-nodes/LTXVLatentUpsampler.mdx | 28 + ja/built-in-nodes/LTXVPreprocess.mdx | 27 + ja/built-in-nodes/LTXVScheduler.mdx | 33 + ja/built-in-nodes/LTXVSeparateAVLatent.mdx | 29 + ja/built-in-nodes/LaplaceScheduler.mdx | 30 + ja/built-in-nodes/LatentAdd.mdx | 23 + ja/built-in-nodes/LatentApplyOperation.mdx | 27 + ja/built-in-nodes/LatentApplyOperationCFG.mdx | 25 + ja/built-in-nodes/LatentBatch.mdx | 23 + ja/built-in-nodes/LatentBatchSeedBehavior.mdx | 23 + ja/built-in-nodes/LatentBlend.mdx | 30 + ja/built-in-nodes/LatentComposite.mdx | 29 + ja/built-in-nodes/LatentCompositeMasked.mdx | 28 + ja/built-in-nodes/LatentConcat.mdx | 30 + ja/built-in-nodes/LatentCrop.mdx | 27 + ja/built-in-nodes/LatentCut.mdx | 29 + ja/built-in-nodes/LatentCutToBatch.mdx | 26 + ja/built-in-nodes/LatentFlip.mdx | 24 + ja/built-in-nodes/LatentFromBatch.mdx | 25 + ja/built-in-nodes/LatentInterpolate.mdx | 25 + ja/built-in-nodes/LatentMultiply.mdx | 24 + ja/built-in-nodes/LatentOperationSharpen.mdx | 28 + .../LatentOperationTonemapReinhard.mdx | 26 + ja/built-in-nodes/LatentRotate.mdx | 24 + ja/built-in-nodes/LatentSubtract.mdx | 24 + ja/built-in-nodes/LatentUpscale.mdx | 27 + ja/built-in-nodes/LatentUpscaleBy.mdx | 27 + .../LatentUpscaleModelLoader.mdx | 24 + ja/built-in-nodes/LazyCache.mdx | 28 + ja/built-in-nodes/Load3D.mdx | 143 + ja/built-in-nodes/Load3DAnimation.mdx | 146 + ja/built-in-nodes/LoadAudio.mdx | 26 + ja/built-in-nodes/LoadImage.mdx | 28 + .../LoadImageDataSetFromFolder.mdx | 24 + ja/built-in-nodes/LoadImageMask.mdx | 24 + ja/built-in-nodes/LoadImageOutput.mdx | 27 + .../LoadImageSetFromFolderNode.mdx | 25 + ja/built-in-nodes/LoadImageSetNode.mdx | 27 + .../LoadImageTextDataSetFromFolder.mdx | 29 + .../LoadImageTextSetFromFolderNode.mdx | 33 + ja/built-in-nodes/LoadLatent.mdx | 24 + ja/built-in-nodes/LoadTrainingDataset.mdx | 25 + ja/built-in-nodes/LoadVideo.mdx | 28 + ja/built-in-nodes/LoraLoader.mdx | 39 + ja/built-in-nodes/LoraLoaderBypass.mdx | 33 + .../LoraLoaderBypassModelOnly.mdx | 28 + ja/built-in-nodes/LoraLoaderModelOnly.mdx | 27 + ja/built-in-nodes/LoraModelLoader.mdx | 28 + ja/built-in-nodes/LoraSave.mdx | 33 + ja/built-in-nodes/LossGraphNode.mdx | 27 + ja/built-in-nodes/LotusConditioning.mdx | 26 + ja/built-in-nodes/LtxvApiImageToVideo.mdx | 38 + ja/built-in-nodes/LtxvApiTextToVideo.mdx | 36 + ja/built-in-nodes/LumaConceptsNode.mdx | 30 + ja/built-in-nodes/LumaImageModifyNode.mdx | 30 + ja/built-in-nodes/LumaImageNode.mdx | 40 + ja/built-in-nodes/LumaImageToVideoNode.mdx | 36 + ja/built-in-nodes/LumaReferenceNode.mdx | 26 + ja/built-in-nodes/LumaVideoNode.mdx | 35 + .../MagnificImageRelightNode.mdx | 46 + .../MagnificImageSkinEnhancerNode.mdx | 38 + .../MagnificImageStyleTransferNode.mdx | 41 + .../MagnificImageUpscalerCreativeNode.mdx | 42 + .../MagnificImageUpscalerPreciseV2Node.mdx | 34 + ja/built-in-nodes/Mahiro.mdx | 24 + ja/built-in-nodes/MakeTrainingDataset.mdx | 32 + ja/built-in-nodes/ManualSigmas.mdx | 24 + ja/built-in-nodes/MarkdownNote.mdx | 16 + ja/built-in-nodes/MaskComposite.mdx | 27 + ja/built-in-nodes/MaskPreview.mdx | 27 + ja/built-in-nodes/MaskToImage.mdx | 23 + ja/built-in-nodes/MergeImageLists.mdx | 26 + ja/built-in-nodes/MergeTextLists.mdx | 26 + ja/built-in-nodes/MeshyAnimateModelNode.mdx | 27 + ja/built-in-nodes/MeshyImageToModelNode.mdx | 44 + .../MeshyMultiImageToModelNode.mdx | 47 + ja/built-in-nodes/MeshyRefineNode.mdx | 35 + ja/built-in-nodes/MeshyRigModelNode.mdx | 33 + ja/built-in-nodes/MeshyTextToModelNode.mdx | 37 + ja/built-in-nodes/MeshyTextureNode.mdx | 39 + ja/built-in-nodes/MinimaxHailuoVideoNode.mdx | 33 + ja/built-in-nodes/MinimaxImageToVideoNode.mdx | 29 + .../MinimaxSubjectToVideoNode.mdx | 27 + ja/built-in-nodes/MinimaxTextToVideoNode.mdx | 28 + ja/built-in-nodes/ModelComputeDtype.mdx | 25 + ja/built-in-nodes/ModelMergeAdd.mdx | 24 + ja/built-in-nodes/ModelMergeAuraflow.mdx | 70 + ja/built-in-nodes/ModelMergeBlocks.mdx | 27 + ja/built-in-nodes/ModelMergeCosmos14B.mdx | 69 + ja/built-in-nodes/ModelMergeCosmos7B.mdx | 61 + .../ModelMergeCosmosPredict2_14B.mdx | 70 + .../ModelMergeCosmosPredict2_2B.mdx | 60 + ja/built-in-nodes/ModelMergeFlux1.mdx | 90 + ja/built-in-nodes/ModelMergeLTXV.mdx | 60 + ja/built-in-nodes/ModelMergeMochiPreview.mdx | 80 + ja/built-in-nodes/ModelMergeQwenImage.mdx | 34 + ja/built-in-nodes/ModelMergeSD1.mdx | 57 + ja/built-in-nodes/ModelMergeSD35_Large.mdx | 73 + ja/built-in-nodes/ModelMergeSD3_2B.mdx | 57 + ja/built-in-nodes/ModelMergeSDXL.mdx | 51 + ja/built-in-nodes/ModelMergeSimple.mdx | 26 + ja/built-in-nodes/ModelMergeSubtract.mdx | 25 + ja/built-in-nodes/ModelMergeWAN2_1.mdx | 75 + ja/built-in-nodes/ModelPatchLoader.mdx | 24 + ja/built-in-nodes/ModelSamplingAuraFlow.mdx | 27 + .../ModelSamplingContinuousEDM.mdx | 28 + .../ModelSamplingContinuousV.mdx | 29 + ja/built-in-nodes/ModelSamplingDiscrete.mdx | 25 + ja/built-in-nodes/ModelSamplingFlux.mdx | 28 + ja/built-in-nodes/ModelSamplingLTXV.mdx | 29 + ja/built-in-nodes/ModelSamplingSD3.mdx | 27 + .../ModelSamplingStableCascade.mdx | 25 + ja/built-in-nodes/ModelSave.mdx | 27 + ja/built-in-nodes/MoonvalleyImg2VideoNode.mdx | 37 + ja/built-in-nodes/MoonvalleyTxt2VideoNode.mdx | 31 + .../MoonvalleyVideo2VideoNode.mdx | 32 + ja/built-in-nodes/Morphology.mdx | 26 + ja/built-in-nodes/NAGuidance.mdx | 29 + ja/built-in-nodes/NormalizeImages.mdx | 26 + .../NormalizeVideoLatentStart.mdx | 30 + ja/built-in-nodes/Note.mdx | 16 + ja/built-in-nodes/OpenAIChatConfig.mdx | 28 + ja/built-in-nodes/OpenAIChatNode.mdx | 29 + ja/built-in-nodes/OpenAIDalle2.mdx | 39 + ja/built-in-nodes/OpenAIDalle3.mdx | 30 + ja/built-in-nodes/OpenAIGPTImage1.mdx | 40 + ja/built-in-nodes/OpenAIInputFiles.mdx | 31 + ja/built-in-nodes/OpenAIVideoSora2.mdx | 37 + ja/built-in-nodes/OptimalStepsScheduler.mdx | 30 + ja/built-in-nodes/PairConditioningCombine.mdx | 30 + .../PairConditioningSetDefaultAndCombine.mdx | 31 + .../PairConditioningSetProperties.mdx | 31 + ...airConditioningSetPropertiesAndCombine.mdx | 35 + ja/built-in-nodes/PatchModelAddDownscale.mdx | 33 + ja/built-in-nodes/PerpNeg.mdx | 30 + ja/built-in-nodes/PerpNegGuider.mdx | 31 + .../PerturbedAttentionGuidance.mdx | 27 + ja/built-in-nodes/PhotoMakerEncode.mdx | 31 + ja/built-in-nodes/PhotoMakerLoader.mdx | 24 + ja/built-in-nodes/PikaImageToVideoNode2_2.mdx | 31 + ja/built-in-nodes/PikaScenesV2_2.mdx | 39 + .../PikaStartEndFrameNode2_2.mdx | 30 + ja/built-in-nodes/PikaTextToVideoNode2_2.mdx | 31 + ja/built-in-nodes/Pikadditions.mdx | 30 + ja/built-in-nodes/Pikaffects.mdx | 28 + ja/built-in-nodes/Pikaswaps.mdx | 33 + .../PixverseImageToVideoNode.mdx | 35 + ja/built-in-nodes/PixverseTemplateNode.mdx | 26 + ja/built-in-nodes/PixverseTextToVideoNode.mdx | 35 + .../PixverseTransitionVideoNode.mdx | 35 + .../PolyexponentialScheduler.mdx | 26 + .../PorterDuffImageComposite.mdx | 28 + ja/built-in-nodes/Preview3D.mdx | 112 + ja/built-in-nodes/Preview3DAnimation.mdx | 112 + ja/built-in-nodes/PreviewAny.mdx | 24 + ja/built-in-nodes/PreviewAudio.mdx | 26 + ja/built-in-nodes/PreviewImage.mdx | 21 + ja/built-in-nodes/PrimitiveBoolean.mdx | 24 + ja/built-in-nodes/PrimitiveBoundingBox.mdx | 27 + ja/built-in-nodes/PrimitiveFloat.mdx | 24 + ja/built-in-nodes/PrimitiveInt.mdx | 24 + ja/built-in-nodes/PrimitiveString.mdx | 24 + .../PrimitiveStringMultiline.mdx | 26 + ja/built-in-nodes/QuadrupleCLIPLoader.mdx | 16 + .../QwenImageDiffsynthControlnet.mdx | 33 + ja/built-in-nodes/RandomCropImages.mdx | 31 + ja/built-in-nodes/RandomNoise.mdx | 24 + ja/built-in-nodes/RebatchImages.mdx | 26 + ja/built-in-nodes/RebatchLatents.mdx | 24 + ja/built-in-nodes/RecordAudio.mdx | 24 + ja/built-in-nodes/RecraftColorRGB.mdx | 27 + ja/built-in-nodes/RecraftControls.mdx | 25 + ja/built-in-nodes/RecraftCreateStyleNode.mdx | 27 + .../RecraftCreativeUpscaleNode.mdx | 24 + ja/built-in-nodes/RecraftCrispUpscaleNode.mdx | 26 + .../RecraftImageInpaintingNode.mdx | 34 + ja/built-in-nodes/RecraftImageToImageNode.mdx | 35 + .../RecraftRemoveBackgroundNode.mdx | 27 + .../RecraftReplaceBackgroundNode.mdx | 33 + .../RecraftStyleV3DigitalIllustration.mdx | 26 + .../RecraftStyleV3InfiniteStyleLibrary.mdx | 28 + .../RecraftStyleV3LogoRaster.mdx | 26 + .../RecraftStyleV3RealisticImage.mdx | 24 + .../RecraftStyleV3VectorIllustrationNode.mdx | 26 + ja/built-in-nodes/RecraftTextToImageNode.mdx | 34 + ja/built-in-nodes/RecraftTextToVectorNode.mdx | 34 + .../RecraftV4TextToImageNode.mdx | 34 + .../RecraftV4TextToVectorNode.mdx | 34 + .../RecraftVectorizeImageNode.mdx | 26 + ja/built-in-nodes/ReferenceLatent.mdx | 27 + ja/built-in-nodes/ReferenceTimbreAudio.mdx | 25 + ja/built-in-nodes/RegexExtract.mdx | 34 + ja/built-in-nodes/RegexMatch.mdx | 28 + ja/built-in-nodes/RegexReplace.mdx | 30 + ja/built-in-nodes/RenormCFG.mdx | 28 + ja/built-in-nodes/RepeatImageBatch.mdx | 24 + ja/built-in-nodes/RepeatLatentBatch.mdx | 24 + ja/built-in-nodes/ReplaceText.mdx | 26 + .../ReplaceVideoLatentFrames.mdx | 31 + ja/built-in-nodes/Reroute.mdx | 22 + ja/built-in-nodes/RescaleCFG.mdx | 24 + ja/built-in-nodes/ResizeAndPadImage.mdx | 28 + ja/built-in-nodes/ResizeImageMaskNode.mdx | 38 + .../ResizeImagesByLongerEdge.mdx | 27 + .../ResizeImagesByShorterEdge.mdx | 25 + ja/built-in-nodes/ResolutionBucket.mdx | 28 + ja/built-in-nodes/Rodin3D_Detail.mdx | 29 + ja/built-in-nodes/Rodin3D_Gen2.mdx | 28 + ja/built-in-nodes/Rodin3D_Regular.mdx | 27 + ja/built-in-nodes/Rodin3D_Sketch.mdx | 25 + ja/built-in-nodes/Rodin3D_Smooth.mdx | 27 + .../RunwayFirstLastFrameNode.mdx | 38 + .../RunwayImageToVideoNodeGen3a.mdx | 36 + .../RunwayImageToVideoNodeGen4.mdx | 36 + ja/built-in-nodes/RunwayTextToImageNode.mdx | 28 + ja/built-in-nodes/SDTurboScheduler.mdx | 25 + .../SD_4XUpscale_Conditioning.mdx | 32 + ja/built-in-nodes/SV3D_Conditioning.mdx | 34 + .../SVD_img2vid_Conditioning.mdx | 36 + ja/built-in-nodes/SamplerCustom.mdx | 34 + ja/built-in-nodes/SamplerCustomAdvanced.mdx | 31 + ja/built-in-nodes/SamplerDPMAdaptative.mdx | 35 + ja/built-in-nodes/SamplerDPMPP_2M_SDE.mdx | 29 + .../SamplerDPMPP_2S_Ancestral.mdx | 27 + ja/built-in-nodes/SamplerDPMPP_3M_SDE.mdx | 28 + ja/built-in-nodes/SamplerDPMPP_SDE.mdx | 29 + ja/built-in-nodes/SamplerDpmpp2mSde.mdx | 26 + ja/built-in-nodes/SamplerDpmppSde.mdx | 26 + ja/built-in-nodes/SamplerER_SDE.mdx | 34 + ja/built-in-nodes/SamplerEulerAncestral.mdx | 27 + .../SamplerEulerAncestralCFGPP.mdx | 27 + ja/built-in-nodes/SamplerEulerCFGpp.mdx | 24 + ja/built-in-nodes/SamplerLCMUpscale.mdx | 28 + ja/built-in-nodes/SamplerLMS.mdx | 24 + ja/built-in-nodes/SamplerSASolver.mdx | 34 + ja/built-in-nodes/SamplerSEEDS2.mdx | 29 + ja/built-in-nodes/SamplingPercentToSigma.mdx | 28 + ja/built-in-nodes/SaveAnimatedPNG.mdx | 26 + ja/built-in-nodes/SaveAnimatedWEBP.mdx | 28 + ja/built-in-nodes/SaveAudio.mdx | 27 + ja/built-in-nodes/SaveAudioMP3.mdx | 30 + ja/built-in-nodes/SaveAudioOpus.mdx | 28 + ja/built-in-nodes/SaveGLB.mdx | 27 + ja/built-in-nodes/SaveImage.mdx | 25 + .../SaveImageDataSetToFolder.mdx | 26 + .../SaveImageTextDataSetToFolder.mdx | 29 + ja/built-in-nodes/SaveLatent.mdx | 27 + ja/built-in-nodes/SaveLoRA.mdx | 28 + ja/built-in-nodes/SaveLoRANode.mdx | 26 + ja/built-in-nodes/SaveSVGNode.mdx | 27 + ja/built-in-nodes/SaveTrainingDataset.mdx | 27 + ja/built-in-nodes/SaveVideo.mdx | 27 + ja/built-in-nodes/SaveWEBM.mdx | 28 + ja/built-in-nodes/ScaleROPE.mdx | 30 + ja/built-in-nodes/Sd4xupscaleConditioning.mdx | 29 + ja/built-in-nodes/SelfAttentionGuidance.mdx | 28 + ja/built-in-nodes/SetClipHooks.mdx | 29 + ja/built-in-nodes/SetFirstSigma.mdx | 25 + ja/built-in-nodes/SetHookKeyframes.mdx | 27 + ja/built-in-nodes/SetLatentNoiseMask.mdx | 24 + ja/built-in-nodes/SetModelHooksOnCond.mdx | 25 + ja/built-in-nodes/SetUnionControlNetType.mdx | 25 + ja/built-in-nodes/ShuffleDataset.mdx | 25 + ja/built-in-nodes/ShuffleImageTextDataset.mdx | 31 + ja/built-in-nodes/SkipLayerGuidanceDiT.mdx | 32 + .../SkipLayerGuidanceDiTSimple.mdx | 32 + ja/built-in-nodes/SkipLayerGuidanceSD3.mdx | 28 + ja/built-in-nodes/SolidMask.mdx | 25 + ja/built-in-nodes/SplitAudioChannels.mdx | 27 + ja/built-in-nodes/SplitImageWithAlpha.mdx | 24 + ja/built-in-nodes/SplitSigmas.mdx | 24 + ja/built-in-nodes/SplitSigmasDenoise.mdx | 28 + ja/built-in-nodes/StabilityAudioInpaint.mdx | 35 + ja/built-in-nodes/StabilityAudioToAudio.mdx | 32 + .../StabilityStableImageSD_3_5Node.mdx | 36 + .../StabilityStableImageUltraNode.mdx | 34 + ja/built-in-nodes/StabilityTextToAudio.mdx | 28 + .../StabilityUpscaleConservativeNode.mdx | 30 + .../StabilityUpscaleCreativeNode.mdx | 31 + .../StabilityUpscaleFastNode.mdx | 24 + .../StableCascade_EmptyLatentImage.mdx | 30 + .../StableCascade_StageB_Conditioning.mdx | 27 + .../StableCascade_StageC_VAEEncode.mdx | 27 + ...tableCascade_SuperResolutionControlnet.mdx | 27 + .../StableZero123_Conditioning.mdx | 37 + .../StableZero123_Conditioning_Batched.mdx | 39 + .../Stablezero123Conditioning.mdx | 32 + .../Stablezero123ConditioningBatched.mdx | 36 + ja/built-in-nodes/StringCompare.mdx | 27 + ja/built-in-nodes/StringConcatenate.mdx | 26 + ja/built-in-nodes/StringContains.mdx | 26 + ja/built-in-nodes/StringLength.mdx | 24 + ja/built-in-nodes/StringReplace.mdx | 26 + ja/built-in-nodes/StringSubstring.mdx | 28 + ja/built-in-nodes/StringTrim.mdx | 25 + ja/built-in-nodes/StripWhitespace.mdx | 24 + ja/built-in-nodes/StyleModelApply.mdx | 27 + ja/built-in-nodes/StyleModelLoader.mdx | 24 + ja/built-in-nodes/SvdImg2vidConditioning.mdx | 35 + ja/built-in-nodes/T5TokenizerOptions.mdx | 26 + ja/built-in-nodes/TCFG.mdx | 24 + ja/built-in-nodes/TemporalScoreRescaling.mdx | 28 + ja/built-in-nodes/Tencent3DPartNode.mdx | 27 + .../Tencent3DTextureEditNode.mdx | 29 + ja/built-in-nodes/TencentImageToModelNode.mdx | 39 + ja/built-in-nodes/TencentModelTo3DUVNode.mdx | 27 + ja/built-in-nodes/TencentTextToModelNode.mdx | 36 + ja/built-in-nodes/TerminalLog.mdx | 11 + ja/built-in-nodes/TextEncodeAceStepAudio.mdx | 29 + .../TextEncodeAceStepAudio1.5.mdx | 39 + .../TextEncodeHunyuanVideo_ImageToVideo.mdx | 29 + ja/built-in-nodes/TextEncodeQwenImageEdit.mdx | 31 + .../TextEncodeQwenImageEditPlus.mdx | 33 + ja/built-in-nodes/TextEncodeZImageOmni.mdx | 33 + ja/built-in-nodes/TextGenerate.mdx | 38 + ja/built-in-nodes/TextGenerateLTX2Prompt.mdx | 32 + ja/built-in-nodes/TextToLowercase.mdx | 24 + ja/built-in-nodes/TextToUppercase.mdx | 24 + ja/built-in-nodes/ThresholdMask.mdx | 25 + ja/built-in-nodes/TomePatchModel.mdx | 27 + ja/built-in-nodes/TopazImageEnhance.mdx | 40 + ja/built-in-nodes/TopazVideoEnhance.mdx | 39 + ja/built-in-nodes/TorchCompileModel.mdx | 25 + ja/built-in-nodes/TrainLoraNode.mdx | 46 + ja/built-in-nodes/TrimAudioDuration.mdx | 30 + ja/built-in-nodes/TrimVideoLatent.mdx | 25 + ja/built-in-nodes/TripleCLIPLoader.mdx | 28 + ja/built-in-nodes/TripoConversionNode.mdx | 33 + ja/built-in-nodes/TripoImageToModelNode.mdx | 40 + .../TripoMultiviewToModelNode.mdx | 42 + ja/built-in-nodes/TripoRefineNode.mdx | 32 + ja/built-in-nodes/TripoRetargetNode.mdx | 31 + ja/built-in-nodes/TripoRigNode.mdx | 30 + ja/built-in-nodes/TripoTextToModelNode.mdx | 40 + ja/built-in-nodes/TripoTextureNode.mdx | 32 + ja/built-in-nodes/TruncateText.mdx | 25 + ja/built-in-nodes/UNETLoader.mdx | 34 + .../UNetCrossAttentionMultiply.mdx | 30 + .../UNetSelfAttentionMultiply.mdx | 30 + .../UNetTemporalAttentionMultiply.mdx | 30 + ja/built-in-nodes/USOStyleReference.mdx | 26 + ja/built-in-nodes/UpscaleModelLoader.mdx | 24 + ja/built-in-nodes/VAEDecode.mdx | 24 + ja/built-in-nodes/VAEDecodeAudio.mdx | 27 + ja/built-in-nodes/VAEDecodeAudioTiled.mdx | 27 + ja/built-in-nodes/VAEDecodeHunyuan3D.mdx | 29 + ja/built-in-nodes/VAEDecodeTiled.mdx | 33 + ja/built-in-nodes/VAEEncode.mdx | 24 + ja/built-in-nodes/VAEEncodeAudio.mdx | 27 + ja/built-in-nodes/VAEEncodeForInpaint.mdx | 28 + ja/built-in-nodes/VAEEncodeTiled.mdx | 31 + ja/built-in-nodes/VAELoader.mdx | 24 + ja/built-in-nodes/VAESave.mdx | 22 + ja/built-in-nodes/VPScheduler.mdx | 26 + ja/built-in-nodes/Veo3FirstLastFrameNode.mdx | 35 + ja/built-in-nodes/Veo3VideoGenerationNode.mdx | 37 + ja/built-in-nodes/VeoVideoGenerationNode.mdx | 36 + ja/built-in-nodes/Video Slice.mdx | 29 + ja/built-in-nodes/VideoLinearCFGGuidance.mdx | 26 + .../VideoTriangleCFGGuidance.mdx | 27 + ja/built-in-nodes/Vidu2ImageToVideoNode.mdx | 38 + ja/built-in-nodes/Vidu2ReferenceVideoNode.mdx | 42 + .../Vidu2StartEndToVideoNode.mdx | 35 + ja/built-in-nodes/Vidu2TextToVideoNode.mdx | 32 + ja/built-in-nodes/Vidu3ImageToVideoNode.mdx | 34 + .../Vidu3StartEndToVideoNode.mdx | 35 + ja/built-in-nodes/Vidu3TextToVideoNode.mdx | 34 + ja/built-in-nodes/ViduExtendVideoNode.mdx | 32 + ja/built-in-nodes/ViduImageToVideoNode.mdx | 37 + ja/built-in-nodes/ViduMultiFrameVideoNode.mdx | 37 + ja/built-in-nodes/ViduReferenceVideoNode.mdx | 41 + ja/built-in-nodes/ViduStartEndToVideoNode.mdx | 35 + ja/built-in-nodes/ViduTextToVideoNode.mdx | 34 + ja/built-in-nodes/VoxelToMesh.mdx | 26 + ja/built-in-nodes/VoxelToMeshBasic.mdx | 25 + ja/built-in-nodes/Wan22FunControlToVideo.mdx | 38 + ja/built-in-nodes/Wan22ImageToVideoLatent.mdx | 34 + ja/built-in-nodes/WanAnimateToVideo.mdx | 55 + ja/built-in-nodes/WanCameraEmbedding.mdx | 35 + ja/built-in-nodes/WanCameraImageToVideo.mdx | 39 + ja/built-in-nodes/WanContextWindowsManual.mdx | 34 + .../WanFirstLastFrameToVideo.mdx | 40 + ja/built-in-nodes/WanFunControlToVideo.mdx | 43 + ja/built-in-nodes/WanFunInpaintToVideo.mdx | 37 + ja/built-in-nodes/WanHuMoImageToVideo.mdx | 38 + ja/built-in-nodes/WanImageToImageApi.mdx | 33 + ja/built-in-nodes/WanImageToVideo.mdx | 38 + ja/built-in-nodes/WanImageToVideoApi.mdx | 42 + ja/built-in-nodes/WanInfiniteTalkToVideo.mdx | 54 + ja/built-in-nodes/WanMoveConcatTrack.mdx | 25 + ja/built-in-nodes/WanMoveTrackToVideo.mdx | 38 + ja/built-in-nodes/WanMoveTracksFromCoords.mdx | 28 + ja/built-in-nodes/WanMoveVisualizeTracks.mdx | 33 + .../WanPhantomSubjectToVideo.mdx | 38 + ja/built-in-nodes/WanReferenceVideoApi.mdx | 39 + ja/built-in-nodes/WanSoundImageToVideo.mdx | 38 + .../WanSoundImageToVideoExtend.mdx | 35 + ja/built-in-nodes/WanTextToImageApi.mdx | 31 + ja/built-in-nodes/WanTextToVideoApi.mdx | 37 + ja/built-in-nodes/WanTrackToVideo.mdx | 41 + ja/built-in-nodes/WanVaceToVideo.mdx | 41 + ja/built-in-nodes/WavespeedFlashVSRNode.mdx | 32 + .../WavespeedImageUpscaleNode.mdx | 30 + ja/built-in-nodes/WebcamCapture.mdx | 31 + ja/built-in-nodes/ZImageFunControlnet.mdx | 36 + .../video-models/wan-vace-to-video.mdx | 137 + .../image/video/create-video.mdx | 70 + .../latent/video/trim-video-latent.mdx | 59 + ja/built-in-nodes/overview.mdx | 17 + .../image/bfl/flux-1-1-pro-ultra-image.mdx | 196 + .../image/ideogram/ideogram-v1.mdx | 170 + .../image/ideogram/ideogram-v2.mdx | 217 + .../image/ideogram/ideogram-v3.mdx | 299 ++ .../image/luma/luma-image-to-image.mdx | 170 + .../image/luma/luma-reference.mdx | 97 + .../image/luma/luma-text-to-image.mdx | 231 + .../image/openai/openai-dalle2.mdx | 200 + .../image/openai/openai-dalle3.mdx | 142 + .../image/openai/openai-gpt-image1.mdx | 249 + .../image/recraft/recraft-color-rgb.mdx | 88 + .../image/recraft/recraft-controls.mdx | 75 + .../recraft/recraft-creative-upscale.mdx | 45 + .../image/recraft/recraft-crisp-upscale.mdx | 79 + .../recraft/recraft-image-inpainting.mdx | 162 + .../image/recraft/recraft-image-to-image.mdx | 172 + .../recraft/recraft-remove-background.mdx | 79 + .../recraft/recraft-replace-background.mdx | 149 + .../recraft-style-digital-illustration.mdx | 44 + .../recraft/recraft-style-logo-raster.mdx | 54 + .../recraft/recraft-style-realistic-image.mdx | 68 + .../image/recraft/recraft-text-to-image.mdx | 173 + .../image/recraft/recraft-text-to-vector.mdx | 163 + .../image/recraft/recraft-vectorize-image.mdx | 84 + .../partner-node/image/recraft/save-svg.mdx | 123 + ...tability-ai-stable-diffusion-3-5-image.mdx | 198 + .../stability-ai-stable-image-ultra.mdx | 177 + .../video/google/google-veo2-video.mdx | 287 ++ .../kwai_vgi/kling-camera-control-i2v.mdx | 109 + .../kwai_vgi/kling-camera-control-t2v.mdx | 106 + .../video/kwai_vgi/kling-camera-controls.mdx | 132 + .../video/kwai_vgi/kling-image-to-video.mdx | 159 + .../kling-start-end-frame-to-video.mdx | 152 + .../video/kwai_vgi/kling-text-to-video.mdx | 170 + .../partner-node/video/luma/luma-concepts.mdx | 113 + .../video/luma/luma-image-to-video.mdx | 212 + .../video/luma/luma-text-to-video.mdx | 179 + .../video/minimax/minimax-image-to-video.mdx | 101 + .../video/minimax/minimax-text-to-video.mdx | 180 + .../video/pika/pika-image-to-video.mdx | 106 + .../partner-node/video/pika/pika-scenes.mdx | 163 + .../video/pika/pika-text-to-video.mdx | 97 + .../pixverse/pixverse-image-to-video.mdx | 79 + .../video/pixverse/pixverse-template.mdx | 58 + .../video/pixverse/pixverse-text-to-video.mdx | 180 + .../pixverse/pixverse-transition-video.mdx | 186 + ja/built-in-nodes/sampling/ksampler.mdx | 102 + ja/built-in-nodes/unCLIPCheckpointLoader.mdx | 27 + ja/built-in-nodes/unCLIPConditioning.mdx | 26 + ja/built-in-nodes/wanBlockSwap.mdx | 26 + ja/changelog/index.mdx | 542 +++ ja/cloud/import-models.mdx | 150 + ja/cloud/share-workflow.mdx | 58 + ja/comfy-cli/getting-started.mdx | 61 + ja/comfy-cli/reference.mdx | 17 + ja/comfy-cli/troubleshooting.mdx | 9 + ja/community/contributing.mdx | 11 + ja/community/links.mdx | 46 + ja/custom-nodes/backend/datatypes.mdx | 186 + ja/custom-nodes/backend/expansion.mdx | 54 + ja/custom-nodes/backend/images_and_masks.mdx | 52 + ja/custom-nodes/backend/interface.mdx | 134 + ja/custom-nodes/backend/lazy_evaluation.mdx | 141 + ja/custom-nodes/backend/lifecycle.mdx | 40 + ja/custom-nodes/backend/lists.mdx | 71 + ja/custom-nodes/backend/manager.mdx | 73 + ja/custom-nodes/backend/more_on_inputs.mdx | 99 + ja/custom-nodes/backend/node-replacement.mdx | 227 + ja/custom-nodes/backend/server_overview.mdx | 172 + ja/custom-nodes/backend/snippets.mdx | 89 + ja/custom-nodes/backend/tensors.mdx | 89 + ja/custom-nodes/help_page.mdx | 72 + ja/custom-nodes/i18n.mdx | 220 + ja/custom-nodes/js/context-menu-migration.mdx | 321 ++ .../js/javascript_about_panel_badges.mdx | 80 + .../js/javascript_bottom_panel_tabs.mdx | 133 + .../js/javascript_commands_keybindings.mdx | 153 + ja/custom-nodes/js/javascript_dialog.mdx | 67 + ja/custom-nodes/js/javascript_examples.mdx | 156 + ja/custom-nodes/js/javascript_hooks.mdx | 139 + .../js/javascript_objects_and_hijacking.mdx | 248 + ja/custom-nodes/js/javascript_overview.mdx | 47 + .../js/javascript_selection_toolbox.mdx | 219 + ja/custom-nodes/js/javascript_settings.mdx | 296 ++ .../js/javascript_sidebar_tabs.mdx | 179 + ja/custom-nodes/js/javascript_toast.mdx | 88 + ja/custom-nodes/js/javascript_topbar_menu.mdx | 157 + ja/custom-nodes/js/subgraphs.mdx | 219 + ja/custom-nodes/overview.mdx | 43 + ja/custom-nodes/subgraph_blueprints.mdx | 35 + ja/custom-nodes/tips.mdx | 7 + ja/custom-nodes/v3_migration.mdx | 835 ++++ ja/custom-nodes/walkthrough.mdx | 197 + ja/custom-nodes/workflow_templates.mdx | 31 + ja/development/cloud/api-reference.mdx | 935 ++++ ja/development/cloud/openapi.mdx | 74 + ja/development/cloud/overview.mdx | 336 ++ .../comfyui-server/api-key-integration.mdx | 129 + .../comfyui-server/comms_messages.mdx | 90 + .../comfyui-server/comms_overview.mdx | 15 + .../comfyui-server/comms_routes.mdx | 100 + .../execution_model_inversion_guide.mdx | 111 + ja/development/core-concepts/custom-nodes.mdx | 335 ++ ja/development/core-concepts/dependencies.mdx | 144 + ja/development/core-concepts/links.mdx | 59 + ja/development/core-concepts/models.mdx | 75 + ja/development/core-concepts/nodes.mdx | 191 + ja/development/core-concepts/properties.mdx | 26 + ja/development/core-concepts/workflow.mdx | 49 + ja/development/overview.mdx | 16 + ja/get_started/cloud.mdx | 155 + ja/get_started/first_generation.mdx | 187 + ja/index.mdx | 216 + ja/installation/comfyui_portable_windows.mdx | 108 + ja/installation/desktop/linux.mdx | 18 + ja/installation/desktop/macos.mdx | 158 + ja/installation/desktop/windows.mdx | 159 + ja/installation/install_custom_node.mdx | 129 + ja/installation/manual_install.mdx | 89 + ja/installation/system_requirements.mdx | 67 + ja/installation/update_comfyui.mdx | 311 ++ ja/interface/app-mode.mdx | 160 + ja/interface/appearance.mdx | 231 + ja/interface/credits.mdx | 99 + ja/interface/features/node-docs.mdx | 47 + ja/interface/features/partial-execution.mdx | 36 + ja/interface/features/subgraph.mdx | 177 + ja/interface/features/template.mdx | 147 + ja/interface/maskeditor.mdx | 25 + ja/interface/nodes-2.mdx | 69 + ja/interface/overview.mdx | 78 + ja/interface/settings/3d.mdx | 71 + ja/interface/settings/about.mdx | 53 + ja/interface/settings/comfy-desktop.mdx | 39 + ja/interface/settings/comfy.mdx | 231 + ja/interface/settings/extension.mdx | 45 + ja/interface/settings/lite-graph.mdx | 250 + ja/interface/settings/mask-editor.mdx | 36 + ja/interface/settings/overview.mdx | 59 + ja/interface/settings/server-config.mdx | 255 ++ ja/interface/shortcuts.mdx | 101 + ja/interface/user.mdx | 80 + ja/manager/configuration.mdx | 140 + ja/manager/install.mdx | 149 + ja/manager/legacy-ui.mdx | 108 + ja/manager/overview.mdx | 38 + ja/manager/pack-management.mdx | 65 + ja/manager/troubleshooting.mdx | 150 + .../nodes/create-a-new-custom-node.mdx | 5 + .../nodes/delete-a-specific-node.mdx | 5 + .../nodes/retrieve-a-specific-node-by-id.mdx | 3 + .../nodes/retrieve-all-nodes.mdx | 5 + .../nodes/retrieves-a-list-of-nodes.mdx | 3 + ...returns-a-node-version-to-be-installed.mdx | 3 + .../nodes/update-a-specific-node.mdx | 3 + ja/registry/api-reference/overview.mdx | 43 + .../publishers/create-a-new-publisher.mdx | 3 + .../publishers/delete-a-publisher.mdx | 3 + .../publishers/retrieve-a-publisher-by-id.mdx | 3 + ...trieve-all-publishers-for-a-given-user.mdx | 3 + .../publishers/retrieve-all-publishers.mdx | 3 + .../publishers/update-a-publisher.mdx | 3 + ...e-if-a-publisher-username-is-available.mdx | 3 + .../create-a-new-personal-access-token.mdx | 5 + ...elete-a-specific-personal-access-token.mdx | 5 + ...personal-access-tokens-for-a-publisher.mdx | 5 + .../versions/list-all-versions-of-a-node.mdx | 3 + .../publish-a-new-version-of-a-node.mdx | 5 + .../retrieve-a-specific-version-of-a-node.mdx | 5 + ...sh-delete-a-specific-version-of-a-node.mdx | 5 + ...d-deprecation-status-of-a-node-version.mdx | 5 + ja/registry/cd.mdx | 31 + ja/registry/cicd.mdx | 19 + ja/registry/claim-my-node.mdx | 94 + ja/registry/migration.mdx | 11 + ja/registry/overview.mdx | 51 + ja/registry/publishing.mdx | 151 + ja/registry/specifications.mdx | 240 + ja/registry/standards.mdx | 74 + ja/specs/nodedef_json.mdx | 538 +++ ja/specs/nodedef_json_1_0.mdx | 1319 ++++++ ja/specs/workflow_json.mdx | 739 +++ ja/specs/workflow_json_0.4.mdx | 654 +++ ja/support/contact-support.mdx | 34 + .../payment/accepted-payment-methods.mdx | 68 + .../payment/editing-payment-information.mdx | 66 + ja/support/payment/invoice-information.mdx | 19 + ja/support/payment/payment-currency.mdx | 78 + ja/support/payment/payment-history.mdx | 35 + ja/support/payment/unsuccessful-payments.mdx | 91 + ja/support/subscription/canceling.mdx | 29 + ja/support/subscription/changing-plan.mdx | 51 + ja/support/subscription/managing.mdx | 21 + ja/support/subscription/subscribing.mdx | 58 + ja/troubleshooting/custom-node-issues.mdx | 384 ++ ja/troubleshooting/model-issues.mdx | 151 + ja/troubleshooting/overview.mdx | 476 ++ ja/tutorials/3d/hunyuan3D-2.mdx | 206 + ja/tutorials/audio/ace-step/ace-step-v1-5.mdx | 129 + ja/tutorials/audio/ace-step/ace-step-v1.mdx | 218 + ja/tutorials/basic/image-to-image.mdx | 73 + ja/tutorials/basic/inpaint.mdx | 125 + ja/tutorials/basic/lora.mdx | 83 + ja/tutorials/basic/multiple-loras.mdx | 57 + ja/tutorials/basic/outpaint.mdx | 96 + ja/tutorials/basic/text-to-image.mdx | 248 + ja/tutorials/basic/upscale.mdx | 98 + ja/tutorials/controlnet/controlnet.mdx | 148 + ja/tutorials/controlnet/depth-controlnet.mdx | 81 + ja/tutorials/controlnet/depth-t2i-adapter.mdx | 113 + .../controlnet/mixing-controlnets.mdx | 115 + .../controlnet/pose-controlnet-2-pass.mdx | 117 + ja/tutorials/flux/flux-1-controlnet.mdx | 191 + ja/tutorials/flux/flux-1-fill-dev.mdx | 110 + ja/tutorials/flux/flux-1-kontext-dev.mdx | 107 + ja/tutorials/flux/flux-1-text-to-image.mdx | 176 + ja/tutorials/flux/flux-1-uso.mdx | 117 + ja/tutorials/flux/flux-2-dev.mdx | 85 + ja/tutorials/flux/flux-2-klein.mdx | 117 + ja/tutorials/flux/flux1-krea-dev.mdx | 101 + .../image/cosmos/cosmos-predict2-t2i.mdx | 85 + ja/tutorials/image/hidream/hidream-e1.mdx | 155 + ja/tutorials/image/hidream/hidream-i1.mdx | 222 + .../newbie-image/newbie-image-exp-0-1.mdx | 132 + ja/tutorials/image/omnigen/omnigen2.mdx | 118 + ja/tutorials/image/ovis/ovis-image.mdx | 61 + ja/tutorials/image/qwen/qwen-image-2512.mdx | 91 + .../image/qwen/qwen-image-edit-2511.mdx | 76 + ja/tutorials/image/qwen/qwen-image-edit.mdx | 110 + .../image/qwen/qwen-image-layered.mdx | 83 + ja/tutorials/image/qwen/qwen-image.mdx | 322 ++ ja/tutorials/image/z-image/z-image-turbo.mdx | 100 + ja/tutorials/image/z-image/z-image.mdx | 65 + .../flux-1-1-pro-ultra-image.mdx | 77 + .../black-forest-labs/flux-1-kontext.mdx | 107 + ja/tutorials/partner-nodes/bria/fibo.mdx | 57 + .../bytedance/seedream-5-lite.mdx | 84 + ja/tutorials/partner-nodes/faq.mdx | 14 + ja/tutorials/partner-nodes/google/gemini.mdx | 52 + .../partner-nodes/google/nano-banana-2.mdx | 94 + .../partner-nodes/google/nano-banana-pro.mdx | 43 + .../partner-nodes/hunyuan3d/hunyuan3d-3-0.mdx | 114 + .../hunyuan3d/model-generation.mdx | 71 + .../partner-nodes/ideogram/ideogram-v3.mdx | 50 + .../partner-nodes/kling/kling-3-0.mdx | 62 + .../kling/kling-motion-control.mdx | 66 + .../luma/luma-image-to-image.mdx | 58 + .../luma/luma-image-to-video.mdx | 65 + .../partner-nodes/luma/luma-text-to-image.mdx | 65 + .../partner-nodes/luma/luma-text-to-video.mdx | 61 + ja/tutorials/partner-nodes/meshy/meshy-6.mdx | 67 + .../moonvalley-video-generation.mdx | 130 + ja/tutorials/partner-nodes/openai/chat.mdx | 53 + .../partner-nodes/openai/dall-e-2.mdx | 118 + .../partner-nodes/openai/dall-e-3.mdx | 63 + .../partner-nodes/openai/gpt-image-1.mdx | 113 + ja/tutorials/partner-nodes/overview.mdx | 100 + ja/tutorials/partner-nodes/pricing.mdx | 233 + .../recraft/recraft-text-to-image.mdx | 61 + .../partner-nodes/recraft/recraft-v4.mdx | 86 + .../partner-nodes/reve/reve-image.mdx | 152 + .../partner-nodes/rodin/model-generation.mdx | 93 + .../partner-nodes/runway/image-generation.mdx | 61 + .../partner-nodes/runway/video-generation.mdx | 114 + .../stability-ai/stable-audio.mdx | 76 + .../stable-diffusion-3-5-image.mdx | 97 + .../stability-ai/stable-image-ultra.mdx | 87 + .../partner-nodes/tripo/model-generation.mdx | 114 + ja/tutorials/utility/frame-interpolation.mdx | 35 + ja/tutorials/utility/image-upscale.mdx | 196 + ja/tutorials/utility/preprocessors.mdx | 103 + ja/tutorials/utility/video-upscale.mdx | 188 + .../cosmos/cosmos-predict2-video2world.mdx | 97 + .../video/hunyuan/hunyuan-video-1-5.mdx | 59 + ja/tutorials/video/hunyuan/hunyuan-video.mdx | 246 + ja/tutorials/video/kandinsky/kandinsky-5.mdx | 113 + ja/tutorials/video/ltx/ltx-2-3.mdx | 107 + ja/tutorials/video/ltx/ltx-2.mdx | 136 + ja/tutorials/video/ltxv.mdx | 60 + ja/tutorials/video/wan/fun-camera.mdx | 129 + ja/tutorials/video/wan/fun-control.mdx | 189 + ja/tutorials/video/wan/fun-inp.mdx | 105 + ja/tutorials/video/wan/vace.mdx | 235 + ja/tutorials/video/wan/wan-alpha.mdx | 34 + ja/tutorials/video/wan/wan-ati.mdx | 86 + ja/tutorials/video/wan/wan-flf.mdx | 105 + ja/tutorials/video/wan/wan-move.mdx | 72 + ja/tutorials/video/wan/wan-video.mdx | 146 + ja/tutorials/video/wan/wan2-2-animate.mdx | 147 + ja/tutorials/video/wan/wan2-2-fun-camera.mdx | 117 + ja/tutorials/video/wan/wan2-2-fun-control.mdx | 138 + ja/tutorials/video/wan/wan2-2-fun-inp.mdx | 126 + ja/tutorials/video/wan/wan2-2-s2v.mdx | 130 + ja/tutorials/video/wan/wan2_2.mdx | 313 ++ language-switcher-fix.js | 26 +- package-lock.json | 4019 ++++++++++------- package.json | 2 +- snippets/ja/amd-install.mdx | 11 + snippets/ja/cli-reference/models.mdx | 64 + snippets/ja/cli-reference/nodes.mdx | 266 ++ snippets/ja/cloud-feature.mdx | 3 + snippets/ja/cloud/complete-example.mdx | 135 + snippets/ja/cloud/download-outputs.mdx | 107 + snippets/ja/cloud/poll-job-completion.mdx | 95 + snippets/ja/cloud/websocket-progress.mdx | 126 + snippets/ja/conda.mdx | 7 + snippets/ja/get-api-key.mdx | 21 + snippets/ja/git-clone.mdx | 5 + snippets/ja/install-comfy-from-cli.mdx | 23 + snippets/ja/install-comfycli.mdx | 17 + snippets/ja/install-gpu-dependencies.mdx | 15 + snippets/ja/install/add-external-models.mdx | 180 + .../ja/install/desktop-resource-warning.mdx | 7 + snippets/ja/install/desktop-venv.mdx | 77 + .../ja/install/external-models-desktop.mdx | 10 + snippets/ja/install/first-generation.mdx | 7 + snippets/ja/install/install-link.mdx | 38 + snippets/ja/install/maintenance-page.mdx | 16 + snippets/ja/install/mirror-links.mdx | 35 + .../ja/install/troubleshooting-feedback.mdx | 26 + snippets/ja/install/troubleshooting-gpt.mdx | 18 + snippets/ja/install/update-comfyui.mdx | 9 + snippets/ja/install/update-requirement.mdx | 44 + snippets/ja/install/user-directory.mdx | 45 + snippets/ja/interface/cancel-bypass.mdx | 11 + snippets/ja/interface/supported-languages.mdx | 11 + snippets/ja/mac-silicon-install.mdx | 2 + snippets/ja/nvidia-install.mdx | 11 + snippets/ja/pip-install.mdx | 3 + snippets/ja/run-comfy.mdx | 5 + .../tutorials/basic/installation-models.mdx | 6 + .../ja/tutorials/flux/prompt-techniques.mdx | 58 + snippets/ja/tutorials/partner-nodes/faq.mdx | 71 + .../ja/tutorials/partner-nodes/req-hint.mdx | 3 + .../tutorials/partner-nodes/requirements.mdx | 51 + .../partner-nodes/supported-models.mdx | 17 + snippets/ja/tutorials/update-reminder.mdx | 22 + 1024 files changed, 66183 insertions(+), 1524 deletions(-) create mode 100644 .github/scripts/check-ja.ts create mode 100644 .github/scripts/translate-ja.ts create mode 100644 .github/workflows/ja-sync-check.yml create mode 100644 ja/account/create-account.mdx create mode 100644 ja/account/delete-account.mdx create mode 100644 ja/account/login.mdx create mode 100644 ja/api-reference/cloud/overview.mdx create mode 100644 ja/built-in-nodes/APG.mdx create mode 100644 ja/built-in-nodes/AddNoise.mdx create mode 100644 ja/built-in-nodes/AddTextPrefix.mdx create mode 100644 ja/built-in-nodes/AddTextSuffix.mdx create mode 100644 ja/built-in-nodes/AdjustBrightness.mdx create mode 100644 ja/built-in-nodes/AdjustContrast.mdx create mode 100644 ja/built-in-nodes/AlignYourStepsScheduler.mdx create mode 100644 ja/built-in-nodes/AudioAdjustVolume.mdx create mode 100644 ja/built-in-nodes/AudioConcat.mdx create mode 100644 ja/built-in-nodes/AudioEncoderEncode.mdx create mode 100644 ja/built-in-nodes/AudioEncoderLoader.mdx create mode 100644 ja/built-in-nodes/AudioEqualizer3Band.mdx create mode 100644 ja/built-in-nodes/AudioMerge.mdx create mode 100644 ja/built-in-nodes/AutogrowNamesTestNode.mdx create mode 100644 ja/built-in-nodes/AutogrowPrefixTestNode.mdx create mode 100644 ja/built-in-nodes/BasicGuider.mdx create mode 100755 ja/built-in-nodes/BasicScheduler.mdx create mode 100644 ja/built-in-nodes/BatchImagesMasksLatentsNode.mdx create mode 100644 ja/built-in-nodes/BatchImagesNode.mdx create mode 100644 ja/built-in-nodes/BatchLatentsNode.mdx create mode 100644 ja/built-in-nodes/BatchMasksNode.mdx create mode 100644 ja/built-in-nodes/BetaSamplingScheduler.mdx create mode 100644 ja/built-in-nodes/BriaImageEditNode.mdx create mode 100644 ja/built-in-nodes/BriaRemoveImageBackground.mdx create mode 100644 ja/built-in-nodes/BriaRemoveVideoBackground.mdx create mode 100644 ja/built-in-nodes/ByteDanceFirstLastFrameNode.mdx create mode 100644 ja/built-in-nodes/ByteDanceImageEditNode.mdx create mode 100644 ja/built-in-nodes/ByteDanceImageNode.mdx create mode 100644 ja/built-in-nodes/ByteDanceImageReferenceNode.mdx create mode 100644 ja/built-in-nodes/ByteDanceImageToVideoNode.mdx create mode 100644 ja/built-in-nodes/ByteDanceSeedreamNode.mdx create mode 100644 ja/built-in-nodes/ByteDanceTextToVideoNode.mdx create mode 100644 ja/built-in-nodes/CFGGuider.mdx create mode 100644 ja/built-in-nodes/CFGNorm.mdx create mode 100644 ja/built-in-nodes/CFGZeroStar.mdx create mode 100644 ja/built-in-nodes/CLIPAdd.mdx create mode 100644 ja/built-in-nodes/CLIPAttentionMultiply.mdx create mode 100644 ja/built-in-nodes/CLIPMergeAdd.mdx create mode 100644 ja/built-in-nodes/CLIPMergeSubtract.mdx create mode 100644 ja/built-in-nodes/CLIPSubtract.mdx create mode 100644 ja/built-in-nodes/CLIPTextEncodeControlnet.mdx create mode 100644 ja/built-in-nodes/CLIPTextEncodeHiDream.mdx create mode 100644 ja/built-in-nodes/CLIPTextEncodeKandinsky5.mdx create mode 100644 ja/built-in-nodes/CLIPTextEncodeLumina2.mdx create mode 100644 ja/built-in-nodes/CLIPTextEncodePixArtAlpha.mdx create mode 100644 ja/built-in-nodes/CLIPTextEncodeSD3.mdx create mode 100755 ja/built-in-nodes/Canny.mdx create mode 100644 ja/built-in-nodes/CaseConverter.mdx create mode 100644 ja/built-in-nodes/CenterCropImages.mdx create mode 100644 ja/built-in-nodes/CheckpointLoader.mdx create mode 100755 ja/built-in-nodes/CheckpointLoaderSimple.mdx create mode 100755 ja/built-in-nodes/CheckpointSave.mdx create mode 100644 ja/built-in-nodes/ChromaRadianceOptions.mdx create mode 100755 ja/built-in-nodes/ClipLoader.mdx create mode 100755 ja/built-in-nodes/ClipMergeSimple.mdx create mode 100755 ja/built-in-nodes/ClipSave.mdx create mode 100755 ja/built-in-nodes/ClipSetLastLayer.mdx create mode 100755 ja/built-in-nodes/ClipTextEncode.mdx create mode 100644 ja/built-in-nodes/ClipTextEncodeFlux.mdx create mode 100644 ja/built-in-nodes/ClipTextEncodeHunyuanDit.mdx create mode 100755 ja/built-in-nodes/ClipTextEncodeSdxl.mdx create mode 100755 ja/built-in-nodes/ClipTextEncodeSdxlRefiner.mdx create mode 100755 ja/built-in-nodes/ClipVisionEncode.mdx create mode 100755 ja/built-in-nodes/ClipVisionLoader.mdx create mode 100644 ja/built-in-nodes/ColorToRGBInt.mdx create mode 100644 ja/built-in-nodes/CombineHooks.mdx create mode 100644 ja/built-in-nodes/CombineHooksEight.mdx create mode 100644 ja/built-in-nodes/CombineHooksFour.mdx create mode 100644 ja/built-in-nodes/ComboOptionTestNode.mdx create mode 100644 ja/built-in-nodes/ComfySoftSwitchNode.mdx create mode 100644 ja/built-in-nodes/ComfySwitchNode.mdx create mode 100644 ja/built-in-nodes/ConditioningAverage.mdx create mode 100644 ja/built-in-nodes/ConditioningCombine.mdx create mode 100644 ja/built-in-nodes/ConditioningConcat.mdx create mode 100644 ja/built-in-nodes/ConditioningSetArea.mdx create mode 100644 ja/built-in-nodes/ConditioningSetAreaPercentage.mdx create mode 100644 ja/built-in-nodes/ConditioningSetAreaPercentageVideo.mdx create mode 100644 ja/built-in-nodes/ConditioningSetAreaStrength.mdx create mode 100644 ja/built-in-nodes/ConditioningSetDefaultAndCombine.mdx create mode 100644 ja/built-in-nodes/ConditioningSetMask.mdx create mode 100644 ja/built-in-nodes/ConditioningSetProperties.mdx create mode 100644 ja/built-in-nodes/ConditioningSetPropertiesAndCombine.mdx create mode 100644 ja/built-in-nodes/ConditioningSetTimestepRange.mdx create mode 100644 ja/built-in-nodes/ConditioningStableAudio.mdx create mode 100644 ja/built-in-nodes/ConditioningTimestepsRange.mdx create mode 100644 ja/built-in-nodes/ConditioningZeroOut.mdx create mode 100644 ja/built-in-nodes/ContextWindowsManual.mdx create mode 100644 ja/built-in-nodes/ControlNetApply.mdx create mode 100644 ja/built-in-nodes/ControlNetApplyAdvanced.mdx create mode 100644 ja/built-in-nodes/ControlNetApplySD3.mdx create mode 100644 ja/built-in-nodes/ControlNetInpaintingAliMamaApply.mdx create mode 100644 ja/built-in-nodes/ControlNetLoader.mdx create mode 100644 ja/built-in-nodes/ConvertStringToComboNode.mdx create mode 100644 ja/built-in-nodes/CosmosImageToVideoLatent.mdx create mode 100644 ja/built-in-nodes/CosmosPredict2ImageToVideoLatent.mdx create mode 100644 ja/built-in-nodes/CreateHookKeyframe.mdx create mode 100644 ja/built-in-nodes/CreateHookKeyframesFromFloats.mdx create mode 100644 ja/built-in-nodes/CreateHookKeyframesInterpolated.mdx create mode 100644 ja/built-in-nodes/CreateHookLora.mdx create mode 100644 ja/built-in-nodes/CreateHookLoraModelOnly.mdx create mode 100644 ja/built-in-nodes/CreateHookModelAsLora.mdx create mode 100644 ja/built-in-nodes/CreateHookModelAsLoraModelOnly.mdx create mode 100644 ja/built-in-nodes/CreateList.mdx create mode 100644 ja/built-in-nodes/CreateVideo.mdx create mode 100644 ja/built-in-nodes/CropMask.mdx create mode 100644 ja/built-in-nodes/CustomCombo.mdx create mode 100644 ja/built-in-nodes/DCTestNode.mdx create mode 100644 ja/built-in-nodes/DeprecatedCheckpointLoader.mdx create mode 100644 ja/built-in-nodes/DeprecatedDiffusersLoader.mdx create mode 100644 ja/built-in-nodes/DiffControlNetLoader.mdx create mode 100644 ja/built-in-nodes/DifferentialDiffusion.mdx create mode 100644 ja/built-in-nodes/DiffusersLoader.mdx create mode 100644 ja/built-in-nodes/DisableNoise.mdx create mode 100644 ja/built-in-nodes/DualCFGGuider.mdx create mode 100644 ja/built-in-nodes/DualCLIPLoader.mdx create mode 100644 ja/built-in-nodes/EasyCache.mdx create mode 100644 ja/built-in-nodes/ElevenLabsAudioIsolation.mdx create mode 100644 ja/built-in-nodes/ElevenLabsInstantVoiceClone.mdx create mode 100644 ja/built-in-nodes/ElevenLabsSpeechToSpeech.mdx create mode 100644 ja/built-in-nodes/ElevenLabsSpeechToText.mdx create mode 100644 ja/built-in-nodes/ElevenLabsTextToDialogue.mdx create mode 100644 ja/built-in-nodes/ElevenLabsTextToSoundEffects.mdx create mode 100644 ja/built-in-nodes/ElevenLabsTextToSpeech.mdx create mode 100644 ja/built-in-nodes/ElevenLabsVoiceSelector.mdx create mode 100644 ja/built-in-nodes/EmptyAceStep1.5LatentAudio.mdx create mode 100644 ja/built-in-nodes/EmptyAceStepLatentAudio.mdx create mode 100644 ja/built-in-nodes/EmptyAudio.mdx create mode 100644 ja/built-in-nodes/EmptyChromaRadianceLatentImage.mdx create mode 100644 ja/built-in-nodes/EmptyCosmosLatentVideo.mdx create mode 100644 ja/built-in-nodes/EmptyFlux2LatentImage.mdx create mode 100644 ja/built-in-nodes/EmptyHunyuanImageLatent.mdx create mode 100644 ja/built-in-nodes/EmptyHunyuanLatentVideo.mdx create mode 100644 ja/built-in-nodes/EmptyHunyuanVideo15Latent.mdx create mode 100644 ja/built-in-nodes/EmptyImage.mdx create mode 100644 ja/built-in-nodes/EmptyLTXVLatentVideo.mdx create mode 100644 ja/built-in-nodes/EmptyLatentAudio.mdx create mode 100644 ja/built-in-nodes/EmptyLatentHunyuan3Dv2.mdx create mode 100644 ja/built-in-nodes/EmptyLatentImage.mdx create mode 100644 ja/built-in-nodes/EmptyMochiLatentVideo.mdx create mode 100644 ja/built-in-nodes/EmptyQwenImageLayeredLatentImage.mdx create mode 100644 ja/built-in-nodes/EmptySD3LatentImage.mdx create mode 100644 ja/built-in-nodes/Epsilon Scaling.mdx create mode 100644 ja/built-in-nodes/EpsilonScaling.mdx create mode 100644 ja/built-in-nodes/ExponentialScheduler.mdx create mode 100644 ja/built-in-nodes/ExtendIntermediateSigmas.mdx create mode 100644 ja/built-in-nodes/FeatherMask.mdx create mode 100644 ja/built-in-nodes/FlipSigmas.mdx create mode 100644 ja/built-in-nodes/Flux2Scheduler.mdx create mode 100644 ja/built-in-nodes/FluxDisableGuidance.mdx create mode 100644 ja/built-in-nodes/FluxGuidance.mdx create mode 100644 ja/built-in-nodes/FluxKontextImageScale.mdx create mode 100644 ja/built-in-nodes/FluxKontextMultiReferenceLatentMethod.mdx create mode 100644 ja/built-in-nodes/FluxProCannyNode.mdx create mode 100644 ja/built-in-nodes/FluxProDepthNode.mdx create mode 100644 ja/built-in-nodes/FluxProExpandNode.mdx create mode 100644 ja/built-in-nodes/FluxProFillNode.mdx create mode 100644 ja/built-in-nodes/FluxProImageNode.mdx create mode 100644 ja/built-in-nodes/FluxProUltraImageNode.mdx create mode 100644 ja/built-in-nodes/FreSca.mdx create mode 100644 ja/built-in-nodes/FreeU.mdx create mode 100644 ja/built-in-nodes/FreeU_V2.mdx create mode 100644 ja/built-in-nodes/GITSScheduler.mdx create mode 100644 ja/built-in-nodes/GLIGENLoader.mdx create mode 100644 ja/built-in-nodes/GLIGENTextBoxApply.mdx create mode 100644 ja/built-in-nodes/GLSLShader.mdx create mode 100644 ja/built-in-nodes/GeminiImage.mdx create mode 100644 ja/built-in-nodes/GeminiImage2Node.mdx create mode 100644 ja/built-in-nodes/GeminiImageNode.mdx create mode 100644 ja/built-in-nodes/GeminiInputFiles.mdx create mode 100644 ja/built-in-nodes/GeminiNode.mdx create mode 100644 ja/built-in-nodes/GenerateTracks.mdx create mode 100644 ja/built-in-nodes/GetImageSize.mdx create mode 100644 ja/built-in-nodes/GetVideoComponents.mdx create mode 100644 ja/built-in-nodes/GrokImageEditNode.mdx create mode 100644 ja/built-in-nodes/GrokImageNode.mdx create mode 100644 ja/built-in-nodes/GrokVideoEditNode.mdx create mode 100644 ja/built-in-nodes/GrokVideoNode.mdx create mode 100644 ja/built-in-nodes/GrowMask.mdx create mode 100644 ja/built-in-nodes/HitPawGeneralImageEnhance.mdx create mode 100644 ja/built-in-nodes/HitPawVideoEnhance.mdx create mode 100644 ja/built-in-nodes/Hunyuan3Dv2Conditioning.mdx create mode 100644 ja/built-in-nodes/Hunyuan3Dv2ConditioningMultiView.mdx create mode 100644 ja/built-in-nodes/HunyuanImageToVideo.mdx create mode 100644 ja/built-in-nodes/HunyuanRefinerLatent.mdx create mode 100644 ja/built-in-nodes/HunyuanVideo15ImageToVideo.mdx create mode 100644 ja/built-in-nodes/HunyuanVideo15LatentUpscaleWithModel.mdx create mode 100644 ja/built-in-nodes/HunyuanVideo15SuperResolution.mdx create mode 100644 ja/built-in-nodes/HyperTile.mdx create mode 100644 ja/built-in-nodes/HypernetworkLoader.mdx create mode 100644 ja/built-in-nodes/IdeogramV1.mdx create mode 100644 ja/built-in-nodes/IdeogramV2.mdx create mode 100644 ja/built-in-nodes/IdeogramV3.mdx create mode 100644 ja/built-in-nodes/ImageAddNoise.mdx create mode 100644 ja/built-in-nodes/ImageBatch.mdx create mode 100644 ja/built-in-nodes/ImageBlend.mdx create mode 100644 ja/built-in-nodes/ImageBlur.mdx create mode 100644 ja/built-in-nodes/ImageColorToMask.mdx create mode 100644 ja/built-in-nodes/ImageCompare.mdx create mode 100644 ja/built-in-nodes/ImageCompositeMasked.mdx create mode 100644 ja/built-in-nodes/ImageCrop.mdx create mode 100644 ja/built-in-nodes/ImageCropV2.mdx create mode 100644 ja/built-in-nodes/ImageDeduplication.mdx create mode 100644 ja/built-in-nodes/ImageFlip.mdx create mode 100644 ja/built-in-nodes/ImageFromBatch.mdx create mode 100644 ja/built-in-nodes/ImageGrid.mdx create mode 100644 ja/built-in-nodes/ImageInvert.mdx create mode 100644 ja/built-in-nodes/ImageOnlyCheckpointLoader.mdx create mode 100644 ja/built-in-nodes/ImageOnlyCheckpointSave.mdx create mode 100644 ja/built-in-nodes/ImagePadForOutpaint.mdx create mode 100644 ja/built-in-nodes/ImageQuantize.mdx create mode 100644 ja/built-in-nodes/ImageRGBToYUV.mdx create mode 100644 ja/built-in-nodes/ImageRotate.mdx create mode 100644 ja/built-in-nodes/ImageScale.mdx create mode 100644 ja/built-in-nodes/ImageScaleBy.mdx create mode 100644 ja/built-in-nodes/ImageScaleToMaxDimension.mdx create mode 100644 ja/built-in-nodes/ImageScaleToTotalPixels.mdx create mode 100644 ja/built-in-nodes/ImageSharpen.mdx create mode 100644 ja/built-in-nodes/ImageStitch.mdx create mode 100644 ja/built-in-nodes/ImageToMask.mdx create mode 100644 ja/built-in-nodes/ImageUpscaleWithModel.mdx create mode 100644 ja/built-in-nodes/ImageYUVToRGB.mdx create mode 100644 ja/built-in-nodes/InpaintModelConditioning.mdx create mode 100644 ja/built-in-nodes/InstructPixToPixConditioning.mdx create mode 100644 ja/built-in-nodes/InvertBooleanNode.mdx create mode 100644 ja/built-in-nodes/InvertMask.mdx create mode 100644 ja/built-in-nodes/JoinAudioChannels.mdx create mode 100644 ja/built-in-nodes/JoinImageWithAlpha.mdx create mode 100644 ja/built-in-nodes/KSampler.mdx create mode 100644 ja/built-in-nodes/KSamplerAdvanced.mdx create mode 100644 ja/built-in-nodes/KSamplerSelect.mdx create mode 100644 ja/built-in-nodes/Kandinsky5ImageToVideo.mdx create mode 100644 ja/built-in-nodes/KarrasScheduler.mdx create mode 100644 ja/built-in-nodes/KlingCameraControlI2VNode.mdx create mode 100644 ja/built-in-nodes/KlingCameraControlT2VNode.mdx create mode 100644 ja/built-in-nodes/KlingCameraControls.mdx create mode 100644 ja/built-in-nodes/KlingDualCharacterVideoEffectNode.mdx create mode 100644 ja/built-in-nodes/KlingFirstLastFrameNode.mdx create mode 100644 ja/built-in-nodes/KlingImage2VideoNode.mdx create mode 100644 ja/built-in-nodes/KlingImageGenerationNode.mdx create mode 100644 ja/built-in-nodes/KlingImageToVideoWithAudio.mdx create mode 100644 ja/built-in-nodes/KlingLipSyncAudioToVideoNode.mdx create mode 100644 ja/built-in-nodes/KlingLipSyncTextToVideoNode.mdx create mode 100644 ja/built-in-nodes/KlingMotionControl.mdx create mode 100644 ja/built-in-nodes/KlingOmniProEditVideoNode.mdx create mode 100644 ja/built-in-nodes/KlingOmniProFirstLastFrameNode.mdx create mode 100644 ja/built-in-nodes/KlingOmniProImageNode.mdx create mode 100644 ja/built-in-nodes/KlingOmniProImageToVideoNode.mdx create mode 100644 ja/built-in-nodes/KlingOmniProTextToVideoNode.mdx create mode 100644 ja/built-in-nodes/KlingOmniProVideoToVideoNode.mdx create mode 100644 ja/built-in-nodes/KlingSingleImageVideoEffectNode.mdx create mode 100644 ja/built-in-nodes/KlingStartEndFrameNode.mdx create mode 100644 ja/built-in-nodes/KlingTextToVideoNode.mdx create mode 100644 ja/built-in-nodes/KlingTextToVideoWithAudio.mdx create mode 100644 ja/built-in-nodes/KlingVideoExtendNode.mdx create mode 100644 ja/built-in-nodes/KlingVideoNode.mdx create mode 100644 ja/built-in-nodes/KlingVirtualTryOnNode.mdx create mode 100644 ja/built-in-nodes/LTXAVTextEncoderLoader.mdx create mode 100644 ja/built-in-nodes/LTXVAddGuide.mdx create mode 100644 ja/built-in-nodes/LTXVAudioVAEDecode.mdx create mode 100644 ja/built-in-nodes/LTXVAudioVAEEncode.mdx create mode 100644 ja/built-in-nodes/LTXVAudioVAELoader.mdx create mode 100644 ja/built-in-nodes/LTXVConcatAVLatent.mdx create mode 100644 ja/built-in-nodes/LTXVConditioning.mdx create mode 100644 ja/built-in-nodes/LTXVCropGuides.mdx create mode 100644 ja/built-in-nodes/LTXVEmptyLatentAudio.mdx create mode 100644 ja/built-in-nodes/LTXVImgToVideo.mdx create mode 100644 ja/built-in-nodes/LTXVImgToVideoInplace.mdx create mode 100644 ja/built-in-nodes/LTXVLatentUpsampler.mdx create mode 100644 ja/built-in-nodes/LTXVPreprocess.mdx create mode 100644 ja/built-in-nodes/LTXVScheduler.mdx create mode 100644 ja/built-in-nodes/LTXVSeparateAVLatent.mdx create mode 100644 ja/built-in-nodes/LaplaceScheduler.mdx create mode 100644 ja/built-in-nodes/LatentAdd.mdx create mode 100644 ja/built-in-nodes/LatentApplyOperation.mdx create mode 100644 ja/built-in-nodes/LatentApplyOperationCFG.mdx create mode 100644 ja/built-in-nodes/LatentBatch.mdx create mode 100644 ja/built-in-nodes/LatentBatchSeedBehavior.mdx create mode 100644 ja/built-in-nodes/LatentBlend.mdx create mode 100644 ja/built-in-nodes/LatentComposite.mdx create mode 100644 ja/built-in-nodes/LatentCompositeMasked.mdx create mode 100644 ja/built-in-nodes/LatentConcat.mdx create mode 100644 ja/built-in-nodes/LatentCrop.mdx create mode 100644 ja/built-in-nodes/LatentCut.mdx create mode 100644 ja/built-in-nodes/LatentCutToBatch.mdx create mode 100644 ja/built-in-nodes/LatentFlip.mdx create mode 100644 ja/built-in-nodes/LatentFromBatch.mdx create mode 100644 ja/built-in-nodes/LatentInterpolate.mdx create mode 100644 ja/built-in-nodes/LatentMultiply.mdx create mode 100644 ja/built-in-nodes/LatentOperationSharpen.mdx create mode 100644 ja/built-in-nodes/LatentOperationTonemapReinhard.mdx create mode 100644 ja/built-in-nodes/LatentRotate.mdx create mode 100644 ja/built-in-nodes/LatentSubtract.mdx create mode 100644 ja/built-in-nodes/LatentUpscale.mdx create mode 100644 ja/built-in-nodes/LatentUpscaleBy.mdx create mode 100644 ja/built-in-nodes/LatentUpscaleModelLoader.mdx create mode 100644 ja/built-in-nodes/LazyCache.mdx create mode 100644 ja/built-in-nodes/Load3D.mdx create mode 100644 ja/built-in-nodes/Load3DAnimation.mdx create mode 100644 ja/built-in-nodes/LoadAudio.mdx create mode 100644 ja/built-in-nodes/LoadImage.mdx create mode 100644 ja/built-in-nodes/LoadImageDataSetFromFolder.mdx create mode 100644 ja/built-in-nodes/LoadImageMask.mdx create mode 100644 ja/built-in-nodes/LoadImageOutput.mdx create mode 100644 ja/built-in-nodes/LoadImageSetFromFolderNode.mdx create mode 100644 ja/built-in-nodes/LoadImageSetNode.mdx create mode 100644 ja/built-in-nodes/LoadImageTextDataSetFromFolder.mdx create mode 100644 ja/built-in-nodes/LoadImageTextSetFromFolderNode.mdx create mode 100644 ja/built-in-nodes/LoadLatent.mdx create mode 100644 ja/built-in-nodes/LoadTrainingDataset.mdx create mode 100644 ja/built-in-nodes/LoadVideo.mdx create mode 100644 ja/built-in-nodes/LoraLoader.mdx create mode 100644 ja/built-in-nodes/LoraLoaderBypass.mdx create mode 100644 ja/built-in-nodes/LoraLoaderBypassModelOnly.mdx create mode 100644 ja/built-in-nodes/LoraLoaderModelOnly.mdx create mode 100644 ja/built-in-nodes/LoraModelLoader.mdx create mode 100644 ja/built-in-nodes/LoraSave.mdx create mode 100644 ja/built-in-nodes/LossGraphNode.mdx create mode 100644 ja/built-in-nodes/LotusConditioning.mdx create mode 100644 ja/built-in-nodes/LtxvApiImageToVideo.mdx create mode 100644 ja/built-in-nodes/LtxvApiTextToVideo.mdx create mode 100644 ja/built-in-nodes/LumaConceptsNode.mdx create mode 100644 ja/built-in-nodes/LumaImageModifyNode.mdx create mode 100644 ja/built-in-nodes/LumaImageNode.mdx create mode 100644 ja/built-in-nodes/LumaImageToVideoNode.mdx create mode 100644 ja/built-in-nodes/LumaReferenceNode.mdx create mode 100644 ja/built-in-nodes/LumaVideoNode.mdx create mode 100644 ja/built-in-nodes/MagnificImageRelightNode.mdx create mode 100644 ja/built-in-nodes/MagnificImageSkinEnhancerNode.mdx create mode 100644 ja/built-in-nodes/MagnificImageStyleTransferNode.mdx create mode 100644 ja/built-in-nodes/MagnificImageUpscalerCreativeNode.mdx create mode 100644 ja/built-in-nodes/MagnificImageUpscalerPreciseV2Node.mdx create mode 100644 ja/built-in-nodes/Mahiro.mdx create mode 100644 ja/built-in-nodes/MakeTrainingDataset.mdx create mode 100644 ja/built-in-nodes/ManualSigmas.mdx create mode 100644 ja/built-in-nodes/MarkdownNote.mdx create mode 100644 ja/built-in-nodes/MaskComposite.mdx create mode 100644 ja/built-in-nodes/MaskPreview.mdx create mode 100644 ja/built-in-nodes/MaskToImage.mdx create mode 100644 ja/built-in-nodes/MergeImageLists.mdx create mode 100644 ja/built-in-nodes/MergeTextLists.mdx create mode 100644 ja/built-in-nodes/MeshyAnimateModelNode.mdx create mode 100644 ja/built-in-nodes/MeshyImageToModelNode.mdx create mode 100644 ja/built-in-nodes/MeshyMultiImageToModelNode.mdx create mode 100644 ja/built-in-nodes/MeshyRefineNode.mdx create mode 100644 ja/built-in-nodes/MeshyRigModelNode.mdx create mode 100644 ja/built-in-nodes/MeshyTextToModelNode.mdx create mode 100644 ja/built-in-nodes/MeshyTextureNode.mdx create mode 100644 ja/built-in-nodes/MinimaxHailuoVideoNode.mdx create mode 100644 ja/built-in-nodes/MinimaxImageToVideoNode.mdx create mode 100644 ja/built-in-nodes/MinimaxSubjectToVideoNode.mdx create mode 100644 ja/built-in-nodes/MinimaxTextToVideoNode.mdx create mode 100644 ja/built-in-nodes/ModelComputeDtype.mdx create mode 100644 ja/built-in-nodes/ModelMergeAdd.mdx create mode 100644 ja/built-in-nodes/ModelMergeAuraflow.mdx create mode 100644 ja/built-in-nodes/ModelMergeBlocks.mdx create mode 100644 ja/built-in-nodes/ModelMergeCosmos14B.mdx create mode 100644 ja/built-in-nodes/ModelMergeCosmos7B.mdx create mode 100644 ja/built-in-nodes/ModelMergeCosmosPredict2_14B.mdx create mode 100644 ja/built-in-nodes/ModelMergeCosmosPredict2_2B.mdx create mode 100644 ja/built-in-nodes/ModelMergeFlux1.mdx create mode 100644 ja/built-in-nodes/ModelMergeLTXV.mdx create mode 100644 ja/built-in-nodes/ModelMergeMochiPreview.mdx create mode 100644 ja/built-in-nodes/ModelMergeQwenImage.mdx create mode 100644 ja/built-in-nodes/ModelMergeSD1.mdx create mode 100644 ja/built-in-nodes/ModelMergeSD35_Large.mdx create mode 100644 ja/built-in-nodes/ModelMergeSD3_2B.mdx create mode 100644 ja/built-in-nodes/ModelMergeSDXL.mdx create mode 100644 ja/built-in-nodes/ModelMergeSimple.mdx create mode 100644 ja/built-in-nodes/ModelMergeSubtract.mdx create mode 100644 ja/built-in-nodes/ModelMergeWAN2_1.mdx create mode 100644 ja/built-in-nodes/ModelPatchLoader.mdx create mode 100644 ja/built-in-nodes/ModelSamplingAuraFlow.mdx create mode 100644 ja/built-in-nodes/ModelSamplingContinuousEDM.mdx create mode 100644 ja/built-in-nodes/ModelSamplingContinuousV.mdx create mode 100644 ja/built-in-nodes/ModelSamplingDiscrete.mdx create mode 100644 ja/built-in-nodes/ModelSamplingFlux.mdx create mode 100644 ja/built-in-nodes/ModelSamplingLTXV.mdx create mode 100644 ja/built-in-nodes/ModelSamplingSD3.mdx create mode 100644 ja/built-in-nodes/ModelSamplingStableCascade.mdx create mode 100644 ja/built-in-nodes/ModelSave.mdx create mode 100644 ja/built-in-nodes/MoonvalleyImg2VideoNode.mdx create mode 100644 ja/built-in-nodes/MoonvalleyTxt2VideoNode.mdx create mode 100644 ja/built-in-nodes/MoonvalleyVideo2VideoNode.mdx create mode 100644 ja/built-in-nodes/Morphology.mdx create mode 100644 ja/built-in-nodes/NAGuidance.mdx create mode 100644 ja/built-in-nodes/NormalizeImages.mdx create mode 100644 ja/built-in-nodes/NormalizeVideoLatentStart.mdx create mode 100644 ja/built-in-nodes/Note.mdx create mode 100644 ja/built-in-nodes/OpenAIChatConfig.mdx create mode 100644 ja/built-in-nodes/OpenAIChatNode.mdx create mode 100644 ja/built-in-nodes/OpenAIDalle2.mdx create mode 100644 ja/built-in-nodes/OpenAIDalle3.mdx create mode 100644 ja/built-in-nodes/OpenAIGPTImage1.mdx create mode 100644 ja/built-in-nodes/OpenAIInputFiles.mdx create mode 100644 ja/built-in-nodes/OpenAIVideoSora2.mdx create mode 100644 ja/built-in-nodes/OptimalStepsScheduler.mdx create mode 100644 ja/built-in-nodes/PairConditioningCombine.mdx create mode 100644 ja/built-in-nodes/PairConditioningSetDefaultAndCombine.mdx create mode 100644 ja/built-in-nodes/PairConditioningSetProperties.mdx create mode 100644 ja/built-in-nodes/PairConditioningSetPropertiesAndCombine.mdx create mode 100644 ja/built-in-nodes/PatchModelAddDownscale.mdx create mode 100644 ja/built-in-nodes/PerpNeg.mdx create mode 100644 ja/built-in-nodes/PerpNegGuider.mdx create mode 100644 ja/built-in-nodes/PerturbedAttentionGuidance.mdx create mode 100644 ja/built-in-nodes/PhotoMakerEncode.mdx create mode 100644 ja/built-in-nodes/PhotoMakerLoader.mdx create mode 100644 ja/built-in-nodes/PikaImageToVideoNode2_2.mdx create mode 100644 ja/built-in-nodes/PikaScenesV2_2.mdx create mode 100644 ja/built-in-nodes/PikaStartEndFrameNode2_2.mdx create mode 100644 ja/built-in-nodes/PikaTextToVideoNode2_2.mdx create mode 100644 ja/built-in-nodes/Pikadditions.mdx create mode 100644 ja/built-in-nodes/Pikaffects.mdx create mode 100644 ja/built-in-nodes/Pikaswaps.mdx create mode 100644 ja/built-in-nodes/PixverseImageToVideoNode.mdx create mode 100644 ja/built-in-nodes/PixverseTemplateNode.mdx create mode 100644 ja/built-in-nodes/PixverseTextToVideoNode.mdx create mode 100644 ja/built-in-nodes/PixverseTransitionVideoNode.mdx create mode 100644 ja/built-in-nodes/PolyexponentialScheduler.mdx create mode 100644 ja/built-in-nodes/PorterDuffImageComposite.mdx create mode 100644 ja/built-in-nodes/Preview3D.mdx create mode 100644 ja/built-in-nodes/Preview3DAnimation.mdx create mode 100644 ja/built-in-nodes/PreviewAny.mdx create mode 100644 ja/built-in-nodes/PreviewAudio.mdx create mode 100644 ja/built-in-nodes/PreviewImage.mdx create mode 100644 ja/built-in-nodes/PrimitiveBoolean.mdx create mode 100644 ja/built-in-nodes/PrimitiveBoundingBox.mdx create mode 100644 ja/built-in-nodes/PrimitiveFloat.mdx create mode 100644 ja/built-in-nodes/PrimitiveInt.mdx create mode 100644 ja/built-in-nodes/PrimitiveString.mdx create mode 100644 ja/built-in-nodes/PrimitiveStringMultiline.mdx create mode 100644 ja/built-in-nodes/QuadrupleCLIPLoader.mdx create mode 100644 ja/built-in-nodes/QwenImageDiffsynthControlnet.mdx create mode 100644 ja/built-in-nodes/RandomCropImages.mdx create mode 100644 ja/built-in-nodes/RandomNoise.mdx create mode 100644 ja/built-in-nodes/RebatchImages.mdx create mode 100644 ja/built-in-nodes/RebatchLatents.mdx create mode 100644 ja/built-in-nodes/RecordAudio.mdx create mode 100644 ja/built-in-nodes/RecraftColorRGB.mdx create mode 100644 ja/built-in-nodes/RecraftControls.mdx create mode 100644 ja/built-in-nodes/RecraftCreateStyleNode.mdx create mode 100644 ja/built-in-nodes/RecraftCreativeUpscaleNode.mdx create mode 100644 ja/built-in-nodes/RecraftCrispUpscaleNode.mdx create mode 100644 ja/built-in-nodes/RecraftImageInpaintingNode.mdx create mode 100644 ja/built-in-nodes/RecraftImageToImageNode.mdx create mode 100644 ja/built-in-nodes/RecraftRemoveBackgroundNode.mdx create mode 100644 ja/built-in-nodes/RecraftReplaceBackgroundNode.mdx create mode 100644 ja/built-in-nodes/RecraftStyleV3DigitalIllustration.mdx create mode 100644 ja/built-in-nodes/RecraftStyleV3InfiniteStyleLibrary.mdx create mode 100644 ja/built-in-nodes/RecraftStyleV3LogoRaster.mdx create mode 100644 ja/built-in-nodes/RecraftStyleV3RealisticImage.mdx create mode 100644 ja/built-in-nodes/RecraftStyleV3VectorIllustrationNode.mdx create mode 100644 ja/built-in-nodes/RecraftTextToImageNode.mdx create mode 100644 ja/built-in-nodes/RecraftTextToVectorNode.mdx create mode 100644 ja/built-in-nodes/RecraftV4TextToImageNode.mdx create mode 100644 ja/built-in-nodes/RecraftV4TextToVectorNode.mdx create mode 100644 ja/built-in-nodes/RecraftVectorizeImageNode.mdx create mode 100644 ja/built-in-nodes/ReferenceLatent.mdx create mode 100644 ja/built-in-nodes/ReferenceTimbreAudio.mdx create mode 100644 ja/built-in-nodes/RegexExtract.mdx create mode 100644 ja/built-in-nodes/RegexMatch.mdx create mode 100644 ja/built-in-nodes/RegexReplace.mdx create mode 100644 ja/built-in-nodes/RenormCFG.mdx create mode 100644 ja/built-in-nodes/RepeatImageBatch.mdx create mode 100644 ja/built-in-nodes/RepeatLatentBatch.mdx create mode 100644 ja/built-in-nodes/ReplaceText.mdx create mode 100644 ja/built-in-nodes/ReplaceVideoLatentFrames.mdx create mode 100644 ja/built-in-nodes/Reroute.mdx create mode 100644 ja/built-in-nodes/RescaleCFG.mdx create mode 100644 ja/built-in-nodes/ResizeAndPadImage.mdx create mode 100644 ja/built-in-nodes/ResizeImageMaskNode.mdx create mode 100644 ja/built-in-nodes/ResizeImagesByLongerEdge.mdx create mode 100644 ja/built-in-nodes/ResizeImagesByShorterEdge.mdx create mode 100644 ja/built-in-nodes/ResolutionBucket.mdx create mode 100644 ja/built-in-nodes/Rodin3D_Detail.mdx create mode 100644 ja/built-in-nodes/Rodin3D_Gen2.mdx create mode 100644 ja/built-in-nodes/Rodin3D_Regular.mdx create mode 100644 ja/built-in-nodes/Rodin3D_Sketch.mdx create mode 100644 ja/built-in-nodes/Rodin3D_Smooth.mdx create mode 100644 ja/built-in-nodes/RunwayFirstLastFrameNode.mdx create mode 100644 ja/built-in-nodes/RunwayImageToVideoNodeGen3a.mdx create mode 100644 ja/built-in-nodes/RunwayImageToVideoNodeGen4.mdx create mode 100644 ja/built-in-nodes/RunwayTextToImageNode.mdx create mode 100644 ja/built-in-nodes/SDTurboScheduler.mdx create mode 100644 ja/built-in-nodes/SD_4XUpscale_Conditioning.mdx create mode 100644 ja/built-in-nodes/SV3D_Conditioning.mdx create mode 100644 ja/built-in-nodes/SVD_img2vid_Conditioning.mdx create mode 100644 ja/built-in-nodes/SamplerCustom.mdx create mode 100644 ja/built-in-nodes/SamplerCustomAdvanced.mdx create mode 100644 ja/built-in-nodes/SamplerDPMAdaptative.mdx create mode 100644 ja/built-in-nodes/SamplerDPMPP_2M_SDE.mdx create mode 100644 ja/built-in-nodes/SamplerDPMPP_2S_Ancestral.mdx create mode 100644 ja/built-in-nodes/SamplerDPMPP_3M_SDE.mdx create mode 100644 ja/built-in-nodes/SamplerDPMPP_SDE.mdx create mode 100644 ja/built-in-nodes/SamplerDpmpp2mSde.mdx create mode 100644 ja/built-in-nodes/SamplerDpmppSde.mdx create mode 100644 ja/built-in-nodes/SamplerER_SDE.mdx create mode 100644 ja/built-in-nodes/SamplerEulerAncestral.mdx create mode 100644 ja/built-in-nodes/SamplerEulerAncestralCFGPP.mdx create mode 100644 ja/built-in-nodes/SamplerEulerCFGpp.mdx create mode 100644 ja/built-in-nodes/SamplerLCMUpscale.mdx create mode 100644 ja/built-in-nodes/SamplerLMS.mdx create mode 100644 ja/built-in-nodes/SamplerSASolver.mdx create mode 100644 ja/built-in-nodes/SamplerSEEDS2.mdx create mode 100644 ja/built-in-nodes/SamplingPercentToSigma.mdx create mode 100644 ja/built-in-nodes/SaveAnimatedPNG.mdx create mode 100644 ja/built-in-nodes/SaveAnimatedWEBP.mdx create mode 100644 ja/built-in-nodes/SaveAudio.mdx create mode 100644 ja/built-in-nodes/SaveAudioMP3.mdx create mode 100644 ja/built-in-nodes/SaveAudioOpus.mdx create mode 100644 ja/built-in-nodes/SaveGLB.mdx create mode 100644 ja/built-in-nodes/SaveImage.mdx create mode 100644 ja/built-in-nodes/SaveImageDataSetToFolder.mdx create mode 100644 ja/built-in-nodes/SaveImageTextDataSetToFolder.mdx create mode 100644 ja/built-in-nodes/SaveLatent.mdx create mode 100644 ja/built-in-nodes/SaveLoRA.mdx create mode 100644 ja/built-in-nodes/SaveLoRANode.mdx create mode 100644 ja/built-in-nodes/SaveSVGNode.mdx create mode 100644 ja/built-in-nodes/SaveTrainingDataset.mdx create mode 100644 ja/built-in-nodes/SaveVideo.mdx create mode 100644 ja/built-in-nodes/SaveWEBM.mdx create mode 100644 ja/built-in-nodes/ScaleROPE.mdx create mode 100644 ja/built-in-nodes/Sd4xupscaleConditioning.mdx create mode 100644 ja/built-in-nodes/SelfAttentionGuidance.mdx create mode 100644 ja/built-in-nodes/SetClipHooks.mdx create mode 100644 ja/built-in-nodes/SetFirstSigma.mdx create mode 100644 ja/built-in-nodes/SetHookKeyframes.mdx create mode 100644 ja/built-in-nodes/SetLatentNoiseMask.mdx create mode 100644 ja/built-in-nodes/SetModelHooksOnCond.mdx create mode 100644 ja/built-in-nodes/SetUnionControlNetType.mdx create mode 100644 ja/built-in-nodes/ShuffleDataset.mdx create mode 100644 ja/built-in-nodes/ShuffleImageTextDataset.mdx create mode 100644 ja/built-in-nodes/SkipLayerGuidanceDiT.mdx create mode 100644 ja/built-in-nodes/SkipLayerGuidanceDiTSimple.mdx create mode 100644 ja/built-in-nodes/SkipLayerGuidanceSD3.mdx create mode 100644 ja/built-in-nodes/SolidMask.mdx create mode 100644 ja/built-in-nodes/SplitAudioChannels.mdx create mode 100644 ja/built-in-nodes/SplitImageWithAlpha.mdx create mode 100644 ja/built-in-nodes/SplitSigmas.mdx create mode 100644 ja/built-in-nodes/SplitSigmasDenoise.mdx create mode 100644 ja/built-in-nodes/StabilityAudioInpaint.mdx create mode 100644 ja/built-in-nodes/StabilityAudioToAudio.mdx create mode 100644 ja/built-in-nodes/StabilityStableImageSD_3_5Node.mdx create mode 100644 ja/built-in-nodes/StabilityStableImageUltraNode.mdx create mode 100644 ja/built-in-nodes/StabilityTextToAudio.mdx create mode 100644 ja/built-in-nodes/StabilityUpscaleConservativeNode.mdx create mode 100644 ja/built-in-nodes/StabilityUpscaleCreativeNode.mdx create mode 100644 ja/built-in-nodes/StabilityUpscaleFastNode.mdx create mode 100644 ja/built-in-nodes/StableCascade_EmptyLatentImage.mdx create mode 100644 ja/built-in-nodes/StableCascade_StageB_Conditioning.mdx create mode 100644 ja/built-in-nodes/StableCascade_StageC_VAEEncode.mdx create mode 100644 ja/built-in-nodes/StableCascade_SuperResolutionControlnet.mdx create mode 100644 ja/built-in-nodes/StableZero123_Conditioning.mdx create mode 100644 ja/built-in-nodes/StableZero123_Conditioning_Batched.mdx create mode 100644 ja/built-in-nodes/Stablezero123Conditioning.mdx create mode 100644 ja/built-in-nodes/Stablezero123ConditioningBatched.mdx create mode 100644 ja/built-in-nodes/StringCompare.mdx create mode 100644 ja/built-in-nodes/StringConcatenate.mdx create mode 100644 ja/built-in-nodes/StringContains.mdx create mode 100644 ja/built-in-nodes/StringLength.mdx create mode 100644 ja/built-in-nodes/StringReplace.mdx create mode 100644 ja/built-in-nodes/StringSubstring.mdx create mode 100644 ja/built-in-nodes/StringTrim.mdx create mode 100644 ja/built-in-nodes/StripWhitespace.mdx create mode 100644 ja/built-in-nodes/StyleModelApply.mdx create mode 100644 ja/built-in-nodes/StyleModelLoader.mdx create mode 100644 ja/built-in-nodes/SvdImg2vidConditioning.mdx create mode 100644 ja/built-in-nodes/T5TokenizerOptions.mdx create mode 100644 ja/built-in-nodes/TCFG.mdx create mode 100644 ja/built-in-nodes/TemporalScoreRescaling.mdx create mode 100644 ja/built-in-nodes/Tencent3DPartNode.mdx create mode 100644 ja/built-in-nodes/Tencent3DTextureEditNode.mdx create mode 100644 ja/built-in-nodes/TencentImageToModelNode.mdx create mode 100644 ja/built-in-nodes/TencentModelTo3DUVNode.mdx create mode 100644 ja/built-in-nodes/TencentTextToModelNode.mdx create mode 100644 ja/built-in-nodes/TerminalLog.mdx create mode 100644 ja/built-in-nodes/TextEncodeAceStepAudio.mdx create mode 100644 ja/built-in-nodes/TextEncodeAceStepAudio1.5.mdx create mode 100644 ja/built-in-nodes/TextEncodeHunyuanVideo_ImageToVideo.mdx create mode 100644 ja/built-in-nodes/TextEncodeQwenImageEdit.mdx create mode 100644 ja/built-in-nodes/TextEncodeQwenImageEditPlus.mdx create mode 100644 ja/built-in-nodes/TextEncodeZImageOmni.mdx create mode 100644 ja/built-in-nodes/TextGenerate.mdx create mode 100644 ja/built-in-nodes/TextGenerateLTX2Prompt.mdx create mode 100644 ja/built-in-nodes/TextToLowercase.mdx create mode 100644 ja/built-in-nodes/TextToUppercase.mdx create mode 100644 ja/built-in-nodes/ThresholdMask.mdx create mode 100644 ja/built-in-nodes/TomePatchModel.mdx create mode 100644 ja/built-in-nodes/TopazImageEnhance.mdx create mode 100644 ja/built-in-nodes/TopazVideoEnhance.mdx create mode 100644 ja/built-in-nodes/TorchCompileModel.mdx create mode 100644 ja/built-in-nodes/TrainLoraNode.mdx create mode 100644 ja/built-in-nodes/TrimAudioDuration.mdx create mode 100644 ja/built-in-nodes/TrimVideoLatent.mdx create mode 100644 ja/built-in-nodes/TripleCLIPLoader.mdx create mode 100644 ja/built-in-nodes/TripoConversionNode.mdx create mode 100644 ja/built-in-nodes/TripoImageToModelNode.mdx create mode 100644 ja/built-in-nodes/TripoMultiviewToModelNode.mdx create mode 100644 ja/built-in-nodes/TripoRefineNode.mdx create mode 100644 ja/built-in-nodes/TripoRetargetNode.mdx create mode 100644 ja/built-in-nodes/TripoRigNode.mdx create mode 100644 ja/built-in-nodes/TripoTextToModelNode.mdx create mode 100644 ja/built-in-nodes/TripoTextureNode.mdx create mode 100644 ja/built-in-nodes/TruncateText.mdx create mode 100644 ja/built-in-nodes/UNETLoader.mdx create mode 100644 ja/built-in-nodes/UNetCrossAttentionMultiply.mdx create mode 100644 ja/built-in-nodes/UNetSelfAttentionMultiply.mdx create mode 100644 ja/built-in-nodes/UNetTemporalAttentionMultiply.mdx create mode 100644 ja/built-in-nodes/USOStyleReference.mdx create mode 100644 ja/built-in-nodes/UpscaleModelLoader.mdx create mode 100644 ja/built-in-nodes/VAEDecode.mdx create mode 100644 ja/built-in-nodes/VAEDecodeAudio.mdx create mode 100644 ja/built-in-nodes/VAEDecodeAudioTiled.mdx create mode 100644 ja/built-in-nodes/VAEDecodeHunyuan3D.mdx create mode 100644 ja/built-in-nodes/VAEDecodeTiled.mdx create mode 100644 ja/built-in-nodes/VAEEncode.mdx create mode 100644 ja/built-in-nodes/VAEEncodeAudio.mdx create mode 100644 ja/built-in-nodes/VAEEncodeForInpaint.mdx create mode 100644 ja/built-in-nodes/VAEEncodeTiled.mdx create mode 100644 ja/built-in-nodes/VAELoader.mdx create mode 100644 ja/built-in-nodes/VAESave.mdx create mode 100644 ja/built-in-nodes/VPScheduler.mdx create mode 100644 ja/built-in-nodes/Veo3FirstLastFrameNode.mdx create mode 100644 ja/built-in-nodes/Veo3VideoGenerationNode.mdx create mode 100644 ja/built-in-nodes/VeoVideoGenerationNode.mdx create mode 100644 ja/built-in-nodes/Video Slice.mdx create mode 100644 ja/built-in-nodes/VideoLinearCFGGuidance.mdx create mode 100644 ja/built-in-nodes/VideoTriangleCFGGuidance.mdx create mode 100644 ja/built-in-nodes/Vidu2ImageToVideoNode.mdx create mode 100644 ja/built-in-nodes/Vidu2ReferenceVideoNode.mdx create mode 100644 ja/built-in-nodes/Vidu2StartEndToVideoNode.mdx create mode 100644 ja/built-in-nodes/Vidu2TextToVideoNode.mdx create mode 100644 ja/built-in-nodes/Vidu3ImageToVideoNode.mdx create mode 100644 ja/built-in-nodes/Vidu3StartEndToVideoNode.mdx create mode 100644 ja/built-in-nodes/Vidu3TextToVideoNode.mdx create mode 100644 ja/built-in-nodes/ViduExtendVideoNode.mdx create mode 100644 ja/built-in-nodes/ViduImageToVideoNode.mdx create mode 100644 ja/built-in-nodes/ViduMultiFrameVideoNode.mdx create mode 100644 ja/built-in-nodes/ViduReferenceVideoNode.mdx create mode 100644 ja/built-in-nodes/ViduStartEndToVideoNode.mdx create mode 100644 ja/built-in-nodes/ViduTextToVideoNode.mdx create mode 100644 ja/built-in-nodes/VoxelToMesh.mdx create mode 100644 ja/built-in-nodes/VoxelToMeshBasic.mdx create mode 100644 ja/built-in-nodes/Wan22FunControlToVideo.mdx create mode 100644 ja/built-in-nodes/Wan22ImageToVideoLatent.mdx create mode 100644 ja/built-in-nodes/WanAnimateToVideo.mdx create mode 100644 ja/built-in-nodes/WanCameraEmbedding.mdx create mode 100644 ja/built-in-nodes/WanCameraImageToVideo.mdx create mode 100644 ja/built-in-nodes/WanContextWindowsManual.mdx create mode 100644 ja/built-in-nodes/WanFirstLastFrameToVideo.mdx create mode 100644 ja/built-in-nodes/WanFunControlToVideo.mdx create mode 100644 ja/built-in-nodes/WanFunInpaintToVideo.mdx create mode 100644 ja/built-in-nodes/WanHuMoImageToVideo.mdx create mode 100644 ja/built-in-nodes/WanImageToImageApi.mdx create mode 100644 ja/built-in-nodes/WanImageToVideo.mdx create mode 100644 ja/built-in-nodes/WanImageToVideoApi.mdx create mode 100644 ja/built-in-nodes/WanInfiniteTalkToVideo.mdx create mode 100644 ja/built-in-nodes/WanMoveConcatTrack.mdx create mode 100644 ja/built-in-nodes/WanMoveTrackToVideo.mdx create mode 100644 ja/built-in-nodes/WanMoveTracksFromCoords.mdx create mode 100644 ja/built-in-nodes/WanMoveVisualizeTracks.mdx create mode 100644 ja/built-in-nodes/WanPhantomSubjectToVideo.mdx create mode 100644 ja/built-in-nodes/WanReferenceVideoApi.mdx create mode 100644 ja/built-in-nodes/WanSoundImageToVideo.mdx create mode 100644 ja/built-in-nodes/WanSoundImageToVideoExtend.mdx create mode 100644 ja/built-in-nodes/WanTextToImageApi.mdx create mode 100644 ja/built-in-nodes/WanTextToVideoApi.mdx create mode 100644 ja/built-in-nodes/WanTrackToVideo.mdx create mode 100644 ja/built-in-nodes/WanVaceToVideo.mdx create mode 100644 ja/built-in-nodes/WavespeedFlashVSRNode.mdx create mode 100644 ja/built-in-nodes/WavespeedImageUpscaleNode.mdx create mode 100644 ja/built-in-nodes/WebcamCapture.mdx create mode 100644 ja/built-in-nodes/ZImageFunControlnet.mdx create mode 100644 ja/built-in-nodes/conditioning/video-models/wan-vace-to-video.mdx create mode 100644 ja/built-in-nodes/image/video/create-video.mdx create mode 100644 ja/built-in-nodes/latent/video/trim-video-latent.mdx create mode 100644 ja/built-in-nodes/overview.mdx create mode 100644 ja/built-in-nodes/partner-node/image/bfl/flux-1-1-pro-ultra-image.mdx create mode 100644 ja/built-in-nodes/partner-node/image/ideogram/ideogram-v1.mdx create mode 100644 ja/built-in-nodes/partner-node/image/ideogram/ideogram-v2.mdx create mode 100644 ja/built-in-nodes/partner-node/image/ideogram/ideogram-v3.mdx create mode 100644 ja/built-in-nodes/partner-node/image/luma/luma-image-to-image.mdx create mode 100644 ja/built-in-nodes/partner-node/image/luma/luma-reference.mdx create mode 100644 ja/built-in-nodes/partner-node/image/luma/luma-text-to-image.mdx create mode 100644 ja/built-in-nodes/partner-node/image/openai/openai-dalle2.mdx create mode 100644 ja/built-in-nodes/partner-node/image/openai/openai-dalle3.mdx create mode 100644 ja/built-in-nodes/partner-node/image/openai/openai-gpt-image1.mdx create mode 100644 ja/built-in-nodes/partner-node/image/recraft/recraft-color-rgb.mdx create mode 100644 ja/built-in-nodes/partner-node/image/recraft/recraft-controls.mdx create mode 100644 ja/built-in-nodes/partner-node/image/recraft/recraft-creative-upscale.mdx create mode 100644 ja/built-in-nodes/partner-node/image/recraft/recraft-crisp-upscale.mdx create mode 100644 ja/built-in-nodes/partner-node/image/recraft/recraft-image-inpainting.mdx create mode 100644 ja/built-in-nodes/partner-node/image/recraft/recraft-image-to-image.mdx create mode 100644 ja/built-in-nodes/partner-node/image/recraft/recraft-remove-background.mdx create mode 100644 ja/built-in-nodes/partner-node/image/recraft/recraft-replace-background.mdx create mode 100644 ja/built-in-nodes/partner-node/image/recraft/recraft-style-digital-illustration.mdx create mode 100644 ja/built-in-nodes/partner-node/image/recraft/recraft-style-logo-raster.mdx create mode 100644 ja/built-in-nodes/partner-node/image/recraft/recraft-style-realistic-image.mdx create mode 100644 ja/built-in-nodes/partner-node/image/recraft/recraft-text-to-image.mdx create mode 100644 ja/built-in-nodes/partner-node/image/recraft/recraft-text-to-vector.mdx create mode 100644 ja/built-in-nodes/partner-node/image/recraft/recraft-vectorize-image.mdx create mode 100644 ja/built-in-nodes/partner-node/image/recraft/save-svg.mdx create mode 100644 ja/built-in-nodes/partner-node/image/stability-ai/stability-ai-stable-diffusion-3-5-image.mdx create mode 100644 ja/built-in-nodes/partner-node/image/stability-ai/stability-ai-stable-image-ultra.mdx create mode 100644 ja/built-in-nodes/partner-node/video/google/google-veo2-video.mdx create mode 100644 ja/built-in-nodes/partner-node/video/kwai_vgi/kling-camera-control-i2v.mdx create mode 100644 ja/built-in-nodes/partner-node/video/kwai_vgi/kling-camera-control-t2v.mdx create mode 100644 ja/built-in-nodes/partner-node/video/kwai_vgi/kling-camera-controls.mdx create mode 100644 ja/built-in-nodes/partner-node/video/kwai_vgi/kling-image-to-video.mdx create mode 100644 ja/built-in-nodes/partner-node/video/kwai_vgi/kling-start-end-frame-to-video.mdx create mode 100644 ja/built-in-nodes/partner-node/video/kwai_vgi/kling-text-to-video.mdx create mode 100644 ja/built-in-nodes/partner-node/video/luma/luma-concepts.mdx create mode 100644 ja/built-in-nodes/partner-node/video/luma/luma-image-to-video.mdx create mode 100644 ja/built-in-nodes/partner-node/video/luma/luma-text-to-video.mdx create mode 100644 ja/built-in-nodes/partner-node/video/minimax/minimax-image-to-video.mdx create mode 100644 ja/built-in-nodes/partner-node/video/minimax/minimax-text-to-video.mdx create mode 100644 ja/built-in-nodes/partner-node/video/pika/pika-image-to-video.mdx create mode 100644 ja/built-in-nodes/partner-node/video/pika/pika-scenes.mdx create mode 100644 ja/built-in-nodes/partner-node/video/pika/pika-text-to-video.mdx create mode 100644 ja/built-in-nodes/partner-node/video/pixverse/pixverse-image-to-video.mdx create mode 100644 ja/built-in-nodes/partner-node/video/pixverse/pixverse-template.mdx create mode 100644 ja/built-in-nodes/partner-node/video/pixverse/pixverse-text-to-video.mdx create mode 100644 ja/built-in-nodes/partner-node/video/pixverse/pixverse-transition-video.mdx create mode 100644 ja/built-in-nodes/sampling/ksampler.mdx create mode 100644 ja/built-in-nodes/unCLIPCheckpointLoader.mdx create mode 100644 ja/built-in-nodes/unCLIPConditioning.mdx create mode 100644 ja/built-in-nodes/wanBlockSwap.mdx create mode 100644 ja/changelog/index.mdx create mode 100644 ja/cloud/import-models.mdx create mode 100644 ja/cloud/share-workflow.mdx create mode 100644 ja/comfy-cli/getting-started.mdx create mode 100644 ja/comfy-cli/reference.mdx create mode 100644 ja/comfy-cli/troubleshooting.mdx create mode 100644 ja/community/contributing.mdx create mode 100644 ja/community/links.mdx create mode 100644 ja/custom-nodes/backend/datatypes.mdx create mode 100644 ja/custom-nodes/backend/expansion.mdx create mode 100644 ja/custom-nodes/backend/images_and_masks.mdx create mode 100644 ja/custom-nodes/backend/interface.mdx create mode 100644 ja/custom-nodes/backend/lazy_evaluation.mdx create mode 100644 ja/custom-nodes/backend/lifecycle.mdx create mode 100644 ja/custom-nodes/backend/lists.mdx create mode 100644 ja/custom-nodes/backend/manager.mdx create mode 100644 ja/custom-nodes/backend/more_on_inputs.mdx create mode 100644 ja/custom-nodes/backend/node-replacement.mdx create mode 100644 ja/custom-nodes/backend/server_overview.mdx create mode 100644 ja/custom-nodes/backend/snippets.mdx create mode 100644 ja/custom-nodes/backend/tensors.mdx create mode 100644 ja/custom-nodes/help_page.mdx create mode 100644 ja/custom-nodes/i18n.mdx create mode 100644 ja/custom-nodes/js/context-menu-migration.mdx create mode 100644 ja/custom-nodes/js/javascript_about_panel_badges.mdx create mode 100644 ja/custom-nodes/js/javascript_bottom_panel_tabs.mdx create mode 100644 ja/custom-nodes/js/javascript_commands_keybindings.mdx create mode 100644 ja/custom-nodes/js/javascript_dialog.mdx create mode 100644 ja/custom-nodes/js/javascript_examples.mdx create mode 100644 ja/custom-nodes/js/javascript_hooks.mdx create mode 100644 ja/custom-nodes/js/javascript_objects_and_hijacking.mdx create mode 100644 ja/custom-nodes/js/javascript_overview.mdx create mode 100644 ja/custom-nodes/js/javascript_selection_toolbox.mdx create mode 100644 ja/custom-nodes/js/javascript_settings.mdx create mode 100644 ja/custom-nodes/js/javascript_sidebar_tabs.mdx create mode 100644 ja/custom-nodes/js/javascript_toast.mdx create mode 100644 ja/custom-nodes/js/javascript_topbar_menu.mdx create mode 100644 ja/custom-nodes/js/subgraphs.mdx create mode 100644 ja/custom-nodes/overview.mdx create mode 100644 ja/custom-nodes/subgraph_blueprints.mdx create mode 100644 ja/custom-nodes/tips.mdx create mode 100644 ja/custom-nodes/v3_migration.mdx create mode 100644 ja/custom-nodes/walkthrough.mdx create mode 100644 ja/custom-nodes/workflow_templates.mdx create mode 100644 ja/development/cloud/api-reference.mdx create mode 100644 ja/development/cloud/openapi.mdx create mode 100644 ja/development/cloud/overview.mdx create mode 100644 ja/development/comfyui-server/api-key-integration.mdx create mode 100644 ja/development/comfyui-server/comms_messages.mdx create mode 100644 ja/development/comfyui-server/comms_overview.mdx create mode 100644 ja/development/comfyui-server/comms_routes.mdx create mode 100644 ja/development/comfyui-server/execution_model_inversion_guide.mdx create mode 100644 ja/development/core-concepts/custom-nodes.mdx create mode 100644 ja/development/core-concepts/dependencies.mdx create mode 100644 ja/development/core-concepts/links.mdx create mode 100644 ja/development/core-concepts/models.mdx create mode 100644 ja/development/core-concepts/nodes.mdx create mode 100644 ja/development/core-concepts/properties.mdx create mode 100644 ja/development/core-concepts/workflow.mdx create mode 100644 ja/development/overview.mdx create mode 100644 ja/get_started/cloud.mdx create mode 100644 ja/get_started/first_generation.mdx create mode 100644 ja/index.mdx create mode 100644 ja/installation/comfyui_portable_windows.mdx create mode 100644 ja/installation/desktop/linux.mdx create mode 100644 ja/installation/desktop/macos.mdx create mode 100644 ja/installation/desktop/windows.mdx create mode 100644 ja/installation/install_custom_node.mdx create mode 100644 ja/installation/manual_install.mdx create mode 100644 ja/installation/system_requirements.mdx create mode 100644 ja/installation/update_comfyui.mdx create mode 100644 ja/interface/app-mode.mdx create mode 100644 ja/interface/appearance.mdx create mode 100644 ja/interface/credits.mdx create mode 100644 ja/interface/features/node-docs.mdx create mode 100644 ja/interface/features/partial-execution.mdx create mode 100644 ja/interface/features/subgraph.mdx create mode 100644 ja/interface/features/template.mdx create mode 100644 ja/interface/maskeditor.mdx create mode 100644 ja/interface/nodes-2.mdx create mode 100644 ja/interface/overview.mdx create mode 100644 ja/interface/settings/3d.mdx create mode 100644 ja/interface/settings/about.mdx create mode 100644 ja/interface/settings/comfy-desktop.mdx create mode 100644 ja/interface/settings/comfy.mdx create mode 100644 ja/interface/settings/extension.mdx create mode 100644 ja/interface/settings/lite-graph.mdx create mode 100644 ja/interface/settings/mask-editor.mdx create mode 100644 ja/interface/settings/overview.mdx create mode 100644 ja/interface/settings/server-config.mdx create mode 100644 ja/interface/shortcuts.mdx create mode 100644 ja/interface/user.mdx create mode 100644 ja/manager/configuration.mdx create mode 100644 ja/manager/install.mdx create mode 100644 ja/manager/legacy-ui.mdx create mode 100644 ja/manager/overview.mdx create mode 100644 ja/manager/pack-management.mdx create mode 100644 ja/manager/troubleshooting.mdx create mode 100644 ja/registry/api-reference/nodes/create-a-new-custom-node.mdx create mode 100644 ja/registry/api-reference/nodes/delete-a-specific-node.mdx create mode 100644 ja/registry/api-reference/nodes/retrieve-a-specific-node-by-id.mdx create mode 100644 ja/registry/api-reference/nodes/retrieve-all-nodes.mdx create mode 100644 ja/registry/api-reference/nodes/retrieves-a-list-of-nodes.mdx create mode 100644 ja/registry/api-reference/nodes/returns-a-node-version-to-be-installed.mdx create mode 100644 ja/registry/api-reference/nodes/update-a-specific-node.mdx create mode 100644 ja/registry/api-reference/overview.mdx create mode 100644 ja/registry/api-reference/publishers/create-a-new-publisher.mdx create mode 100644 ja/registry/api-reference/publishers/delete-a-publisher.mdx create mode 100644 ja/registry/api-reference/publishers/retrieve-a-publisher-by-id.mdx create mode 100644 ja/registry/api-reference/publishers/retrieve-all-publishers-for-a-given-user.mdx create mode 100644 ja/registry/api-reference/publishers/retrieve-all-publishers.mdx create mode 100644 ja/registry/api-reference/publishers/update-a-publisher.mdx create mode 100644 ja/registry/api-reference/publishers/validate-if-a-publisher-username-is-available.mdx create mode 100644 ja/registry/api-reference/token-management/create-a-new-personal-access-token.mdx create mode 100644 ja/registry/api-reference/token-management/delete-a-specific-personal-access-token.mdx create mode 100644 ja/registry/api-reference/token-management/retrieve-all-personal-access-tokens-for-a-publisher.mdx create mode 100644 ja/registry/api-reference/versions/list-all-versions-of-a-node.mdx create mode 100644 ja/registry/api-reference/versions/publish-a-new-version-of-a-node.mdx create mode 100644 ja/registry/api-reference/versions/retrieve-a-specific-version-of-a-node.mdx create mode 100644 ja/registry/api-reference/versions/unpublish-delete-a-specific-version-of-a-node.mdx create mode 100644 ja/registry/api-reference/versions/update-changelog-and-deprecation-status-of-a-node-version.mdx create mode 100644 ja/registry/cd.mdx create mode 100644 ja/registry/cicd.mdx create mode 100644 ja/registry/claim-my-node.mdx create mode 100644 ja/registry/migration.mdx create mode 100644 ja/registry/overview.mdx create mode 100644 ja/registry/publishing.mdx create mode 100644 ja/registry/specifications.mdx create mode 100644 ja/registry/standards.mdx create mode 100644 ja/specs/nodedef_json.mdx create mode 100644 ja/specs/nodedef_json_1_0.mdx create mode 100644 ja/specs/workflow_json.mdx create mode 100644 ja/specs/workflow_json_0.4.mdx create mode 100644 ja/support/contact-support.mdx create mode 100644 ja/support/payment/accepted-payment-methods.mdx create mode 100644 ja/support/payment/editing-payment-information.mdx create mode 100644 ja/support/payment/invoice-information.mdx create mode 100644 ja/support/payment/payment-currency.mdx create mode 100644 ja/support/payment/payment-history.mdx create mode 100644 ja/support/payment/unsuccessful-payments.mdx create mode 100644 ja/support/subscription/canceling.mdx create mode 100644 ja/support/subscription/changing-plan.mdx create mode 100644 ja/support/subscription/managing.mdx create mode 100644 ja/support/subscription/subscribing.mdx create mode 100644 ja/troubleshooting/custom-node-issues.mdx create mode 100644 ja/troubleshooting/model-issues.mdx create mode 100644 ja/troubleshooting/overview.mdx create mode 100644 ja/tutorials/3d/hunyuan3D-2.mdx create mode 100644 ja/tutorials/audio/ace-step/ace-step-v1-5.mdx create mode 100644 ja/tutorials/audio/ace-step/ace-step-v1.mdx create mode 100644 ja/tutorials/basic/image-to-image.mdx create mode 100644 ja/tutorials/basic/inpaint.mdx create mode 100644 ja/tutorials/basic/lora.mdx create mode 100644 ja/tutorials/basic/multiple-loras.mdx create mode 100644 ja/tutorials/basic/outpaint.mdx create mode 100644 ja/tutorials/basic/text-to-image.mdx create mode 100644 ja/tutorials/basic/upscale.mdx create mode 100644 ja/tutorials/controlnet/controlnet.mdx create mode 100644 ja/tutorials/controlnet/depth-controlnet.mdx create mode 100644 ja/tutorials/controlnet/depth-t2i-adapter.mdx create mode 100644 ja/tutorials/controlnet/mixing-controlnets.mdx create mode 100644 ja/tutorials/controlnet/pose-controlnet-2-pass.mdx create mode 100644 ja/tutorials/flux/flux-1-controlnet.mdx create mode 100644 ja/tutorials/flux/flux-1-fill-dev.mdx create mode 100644 ja/tutorials/flux/flux-1-kontext-dev.mdx create mode 100644 ja/tutorials/flux/flux-1-text-to-image.mdx create mode 100644 ja/tutorials/flux/flux-1-uso.mdx create mode 100644 ja/tutorials/flux/flux-2-dev.mdx create mode 100644 ja/tutorials/flux/flux-2-klein.mdx create mode 100644 ja/tutorials/flux/flux1-krea-dev.mdx create mode 100644 ja/tutorials/image/cosmos/cosmos-predict2-t2i.mdx create mode 100644 ja/tutorials/image/hidream/hidream-e1.mdx create mode 100644 ja/tutorials/image/hidream/hidream-i1.mdx create mode 100644 ja/tutorials/image/newbie-image/newbie-image-exp-0-1.mdx create mode 100644 ja/tutorials/image/omnigen/omnigen2.mdx create mode 100644 ja/tutorials/image/ovis/ovis-image.mdx create mode 100644 ja/tutorials/image/qwen/qwen-image-2512.mdx create mode 100644 ja/tutorials/image/qwen/qwen-image-edit-2511.mdx create mode 100644 ja/tutorials/image/qwen/qwen-image-edit.mdx create mode 100644 ja/tutorials/image/qwen/qwen-image-layered.mdx create mode 100644 ja/tutorials/image/qwen/qwen-image.mdx create mode 100644 ja/tutorials/image/z-image/z-image-turbo.mdx create mode 100644 ja/tutorials/image/z-image/z-image.mdx create mode 100644 ja/tutorials/partner-nodes/black-forest-labs/flux-1-1-pro-ultra-image.mdx create mode 100644 ja/tutorials/partner-nodes/black-forest-labs/flux-1-kontext.mdx create mode 100644 ja/tutorials/partner-nodes/bria/fibo.mdx create mode 100644 ja/tutorials/partner-nodes/bytedance/seedream-5-lite.mdx create mode 100644 ja/tutorials/partner-nodes/faq.mdx create mode 100644 ja/tutorials/partner-nodes/google/gemini.mdx create mode 100644 ja/tutorials/partner-nodes/google/nano-banana-2.mdx create mode 100644 ja/tutorials/partner-nodes/google/nano-banana-pro.mdx create mode 100644 ja/tutorials/partner-nodes/hunyuan3d/hunyuan3d-3-0.mdx create mode 100644 ja/tutorials/partner-nodes/hunyuan3d/model-generation.mdx create mode 100644 ja/tutorials/partner-nodes/ideogram/ideogram-v3.mdx create mode 100644 ja/tutorials/partner-nodes/kling/kling-3-0.mdx create mode 100644 ja/tutorials/partner-nodes/kling/kling-motion-control.mdx create mode 100644 ja/tutorials/partner-nodes/luma/luma-image-to-image.mdx create mode 100644 ja/tutorials/partner-nodes/luma/luma-image-to-video.mdx create mode 100644 ja/tutorials/partner-nodes/luma/luma-text-to-image.mdx create mode 100644 ja/tutorials/partner-nodes/luma/luma-text-to-video.mdx create mode 100644 ja/tutorials/partner-nodes/meshy/meshy-6.mdx create mode 100644 ja/tutorials/partner-nodes/moonvalley/moonvalley-video-generation.mdx create mode 100644 ja/tutorials/partner-nodes/openai/chat.mdx create mode 100644 ja/tutorials/partner-nodes/openai/dall-e-2.mdx create mode 100644 ja/tutorials/partner-nodes/openai/dall-e-3.mdx create mode 100644 ja/tutorials/partner-nodes/openai/gpt-image-1.mdx create mode 100644 ja/tutorials/partner-nodes/overview.mdx create mode 100644 ja/tutorials/partner-nodes/pricing.mdx create mode 100644 ja/tutorials/partner-nodes/recraft/recraft-text-to-image.mdx create mode 100644 ja/tutorials/partner-nodes/recraft/recraft-v4.mdx create mode 100644 ja/tutorials/partner-nodes/reve/reve-image.mdx create mode 100644 ja/tutorials/partner-nodes/rodin/model-generation.mdx create mode 100644 ja/tutorials/partner-nodes/runway/image-generation.mdx create mode 100644 ja/tutorials/partner-nodes/runway/video-generation.mdx create mode 100644 ja/tutorials/partner-nodes/stability-ai/stable-audio.mdx create mode 100644 ja/tutorials/partner-nodes/stability-ai/stable-diffusion-3-5-image.mdx create mode 100644 ja/tutorials/partner-nodes/stability-ai/stable-image-ultra.mdx create mode 100644 ja/tutorials/partner-nodes/tripo/model-generation.mdx create mode 100644 ja/tutorials/utility/frame-interpolation.mdx create mode 100644 ja/tutorials/utility/image-upscale.mdx create mode 100644 ja/tutorials/utility/preprocessors.mdx create mode 100644 ja/tutorials/utility/video-upscale.mdx create mode 100644 ja/tutorials/video/cosmos/cosmos-predict2-video2world.mdx create mode 100644 ja/tutorials/video/hunyuan/hunyuan-video-1-5.mdx create mode 100644 ja/tutorials/video/hunyuan/hunyuan-video.mdx create mode 100644 ja/tutorials/video/kandinsky/kandinsky-5.mdx create mode 100644 ja/tutorials/video/ltx/ltx-2-3.mdx create mode 100644 ja/tutorials/video/ltx/ltx-2.mdx create mode 100644 ja/tutorials/video/ltxv.mdx create mode 100644 ja/tutorials/video/wan/fun-camera.mdx create mode 100644 ja/tutorials/video/wan/fun-control.mdx create mode 100644 ja/tutorials/video/wan/fun-inp.mdx create mode 100644 ja/tutorials/video/wan/vace.mdx create mode 100644 ja/tutorials/video/wan/wan-alpha.mdx create mode 100644 ja/tutorials/video/wan/wan-ati.mdx create mode 100644 ja/tutorials/video/wan/wan-flf.mdx create mode 100644 ja/tutorials/video/wan/wan-move.mdx create mode 100644 ja/tutorials/video/wan/wan-video.mdx create mode 100644 ja/tutorials/video/wan/wan2-2-animate.mdx create mode 100644 ja/tutorials/video/wan/wan2-2-fun-camera.mdx create mode 100644 ja/tutorials/video/wan/wan2-2-fun-control.mdx create mode 100644 ja/tutorials/video/wan/wan2-2-fun-inp.mdx create mode 100644 ja/tutorials/video/wan/wan2-2-s2v.mdx create mode 100644 ja/tutorials/video/wan/wan2_2.mdx create mode 100644 snippets/ja/amd-install.mdx create mode 100644 snippets/ja/cli-reference/models.mdx create mode 100644 snippets/ja/cli-reference/nodes.mdx create mode 100644 snippets/ja/cloud-feature.mdx create mode 100644 snippets/ja/cloud/complete-example.mdx create mode 100644 snippets/ja/cloud/download-outputs.mdx create mode 100644 snippets/ja/cloud/poll-job-completion.mdx create mode 100644 snippets/ja/cloud/websocket-progress.mdx create mode 100644 snippets/ja/conda.mdx create mode 100644 snippets/ja/get-api-key.mdx create mode 100644 snippets/ja/git-clone.mdx create mode 100644 snippets/ja/install-comfy-from-cli.mdx create mode 100644 snippets/ja/install-comfycli.mdx create mode 100644 snippets/ja/install-gpu-dependencies.mdx create mode 100644 snippets/ja/install/add-external-models.mdx create mode 100644 snippets/ja/install/desktop-resource-warning.mdx create mode 100644 snippets/ja/install/desktop-venv.mdx create mode 100644 snippets/ja/install/external-models-desktop.mdx create mode 100644 snippets/ja/install/first-generation.mdx create mode 100644 snippets/ja/install/install-link.mdx create mode 100644 snippets/ja/install/maintenance-page.mdx create mode 100644 snippets/ja/install/mirror-links.mdx create mode 100644 snippets/ja/install/troubleshooting-feedback.mdx create mode 100644 snippets/ja/install/troubleshooting-gpt.mdx create mode 100644 snippets/ja/install/update-comfyui.mdx create mode 100644 snippets/ja/install/update-requirement.mdx create mode 100644 snippets/ja/install/user-directory.mdx create mode 100644 snippets/ja/interface/cancel-bypass.mdx create mode 100644 snippets/ja/interface/supported-languages.mdx create mode 100644 snippets/ja/mac-silicon-install.mdx create mode 100644 snippets/ja/nvidia-install.mdx create mode 100644 snippets/ja/pip-install.mdx create mode 100644 snippets/ja/run-comfy.mdx create mode 100644 snippets/ja/tutorials/basic/installation-models.mdx create mode 100644 snippets/ja/tutorials/flux/prompt-techniques.mdx create mode 100644 snippets/ja/tutorials/partner-nodes/faq.mdx create mode 100644 snippets/ja/tutorials/partner-nodes/req-hint.mdx create mode 100644 snippets/ja/tutorials/partner-nodes/requirements.mdx create mode 100644 snippets/ja/tutorials/partner-nodes/supported-models.mdx create mode 100644 snippets/ja/tutorials/update-reminder.mdx diff --git a/.github/scripts/check-ja.ts b/.github/scripts/check-ja.ts new file mode 100644 index 000000000..8a0cc7b99 --- /dev/null +++ b/.github/scripts/check-ja.ts @@ -0,0 +1,265 @@ +#!/usr/bin/env bun +/** + * Quality check for Japanese translation files. + * + * Usage: + * bun .github/scripts/check-ja.ts # check all ja/ files + * bun .github/scripts/check-ja.ts --verbose # show per-file details + * bun .github/scripts/check-ja.ts foo.mdx # check specific file(s) + */ + +import { readdir, readFile } from "fs/promises"; +import { join, relative } from "path"; + +const ROOT = join(import.meta.dir, "../.."); + +// --------------------------------------------------------------------------- +// Helpers +// --------------------------------------------------------------------------- + +async function collectMdx(dir: string): Promise { + const results: string[] = []; + const entries = await readdir(dir, { withFileTypes: true }); + for (const entry of entries) { + const full = join(dir, entry.name); + if (entry.isDirectory()) { + results.push(...(await collectMdx(full))); + } else if (entry.name.endsWith(".mdx")) { + results.push(full); + } + } + return results; +} + +/** Count CJK characters (Han + Hiragana + Katakana) */ +function countCJK(text: string): number { + const m = text.match(/[\u3000-\u9fff\uf900-\ufaff]/g); + return m ? m.length : 0; +} + +/** Count Hiragana characters (unique to Japanese) */ +function countHiragana(text: string): number { + const m = text.match(/[\u3040-\u309f]/g); + return m ? m.length : 0; +} + +/** Count Katakana characters (unique to Japanese) */ +function countKatakana(text: string): number { + const m = text.match(/[\u30a0-\u30ff]/g); + return m ? m.length : 0; +} + +/** Count Chinese-only characters that don't appear in Japanese + * (simplified Chinese characters not used in Japanese kanji) */ +function countChineseOnly(text: string): number { + // Common simplified Chinese markers not used in Japanese + const m = text.match(/[的了在是我他她它们这那里吗呢吧啊哦哈嗯]/g); + return m ? m.length : 0; +} + +/** Count all non-whitespace, non-markup characters */ +function countTextChars(text: string): number { + // Strip frontmatter + const body = text.replace(/^---\n[\s\S]*?\n---\n?/, ""); + // Strip imports, JSX tags, URLs, code blocks + const cleaned = body + .replace(/```[\s\S]*?```/g, "") // code blocks + .replace(/`[^`]+`/g, "") // inline code + .replace(/import\s+.*?from\s+.*?;?\n/g, "") // imports + .replace(/<[^>]+>/g, "") // JSX/HTML tags + .replace(/https?:\/\/\S+/g, "") // URLs + .replace(/\{\/\*[\s\S]*?\*\/\}/g, "") // JSX comments + .replace(//g, "") // HTML comments + .replace(/\[([^\]]*)\]\([^)]*\)/g, "$1"); // markdown links (keep text) + // Count non-whitespace chars + return cleaned.replace(/\s/g, "").length; +} + +/** Check if file has translationSourceHash in frontmatter */ +function hasSourceHash(text: string): boolean { + return /translationSourceHash:\s*[a-f0-9]{8}/.test(text); +} + +/** Check for leaked English-only content patterns */ +function findLeakedEnglish(text: string): string[] { + const body = text.replace(/^---\n[\s\S]*?\n---\n?/, ""); + const issues: string[] = []; + + // Check for common untranslated English patterns in prose (not in code/tags) + const proseLines = body + .replace(/```[\s\S]*?```/g, "") + .replace(/`[^`]+`/g, "") + .replace(/<[^>]+>/g, "") + .replace(/import\s+.*?from\s+.*?;?\n/g, "") + .split("\n") + .filter((l) => l.trim().length > 20); + + for (const line of proseLines) { + const trimmed = line.trim(); + // Skip lines that are just URLs, code, or markdown syntax + if (/^https?:\/\//.test(trimmed)) continue; + if (/^\|/.test(trimmed)) continue; // table rows + if (/^[#>*-]/.test(trimmed) && trimmed.length < 30) continue; + + const cjk = countCJK(trimmed); + const total = trimmed.replace(/\s/g, "").length; + // If a long prose line has 0 CJK chars, it's likely untranslated + if (total > 30 && cjk === 0) { + // But skip lines that are mostly code/technical + if (!/^[A-Z][a-z]/.test(trimmed)) continue; + issues.push(trimmed.slice(0, 80)); + } + } + return issues; +} + +/** Check for thinking tag leaks */ +function hasThinkingLeaks(text: string): boolean { + return /|<\/think>/.test(text); +} + +/** Check for MISMATCH comment leaks (should be in frontmatter only) */ +function hasMismatchCommentLeaks(text: string): boolean { + const body = text.replace(/^---\n[\s\S]*?\n---\n?/, ""); + return / comment in body"); + if (totalChars > 50 && cjkRate < 0.05) issues.push(`very low CJK rate: ${(cjkRate * 100).toFixed(1)}%`); + if (totalChars > 100 && cjkChars === 0) issues.push("zero CJK characters (untranslated?)"); + if (cjkChars > 20 && jpChars === 0) issues.push("zero hiragana/katakana — likely Chinese, not Japanese"); + if (cjkChars > 20 && jpRate < 0.05 && zhOnly > 5) issues.push(`likely Chinese (${jpChars} kana vs ${zhOnly} zh-only markers)`); + if (leakedEnglish.length > 3) issues.push(`${leakedEnglish.length} potentially untranslated lines`); + + const status = issues.length === 0 + ? "ok" + : issues.some((i) => i.includes("not Japanese") || i.includes("likely Chinese") || i.includes("zero CJK") || i.includes("leaked")) + ? "fail" + : "warn"; + + return { path: relPath, totalChars, cjkChars, cjkRate, hiragana, katakana, jpRate, hasHash, thinkingLeak, mismatchLeak, leakedEnglish, status, issues }; +} + +async function main() { + const args = process.argv.slice(2); + const verbose = args.includes("--verbose"); + const fileArgs = args.filter((a) => !a.startsWith("--")); + + let files: string[]; + if (fileArgs.length > 0) { + files = fileArgs.map((f) => join(ROOT, "ja", f.replace(/^(ja|snippets\/ja)\//, ""))); + } else { + // Check both ja/ pages and snippets/ja/ + const jaFiles = await collectMdx(join(ROOT, "ja")); + const snippetFiles = await collectMdx(join(ROOT, "snippets/ja")); + files = [...jaFiles, ...snippetFiles]; + } + + console.log(`Checking ${files.length} Japanese translation files...\n`); + + const reports: FileReport[] = []; + for (const f of files) { + reports.push(await checkFile(f)); + } + + // Stats + const ok = reports.filter((r) => r.status === "ok").length; + const warn = reports.filter((r) => r.status === "warn").length; + const fail = reports.filter((r) => r.status === "fail").length; + + const totalCJK = reports.reduce((s, r) => s + r.cjkChars, 0); + const totalChars = reports.reduce((s, r) => s + r.totalChars, 0); + const avgCJKRate = totalChars > 0 ? totalCJK / totalChars : 0; + + // CJK rate distribution + const rates = reports.filter((r) => r.totalChars > 50).map((r) => r.cjkRate); + rates.sort((a, b) => a - b); + const p10 = rates[Math.floor(rates.length * 0.1)] ?? 0; + const p50 = rates[Math.floor(rates.length * 0.5)] ?? 0; + const p90 = rates[Math.floor(rates.length * 0.9)] ?? 0; + + const totalHiragana = reports.reduce((s, r) => s + r.hiragana, 0); + const totalKatakana = reports.reduce((s, r) => s + r.katakana, 0); + const totalJP = totalHiragana + totalKatakana; + const avgJPRate = totalCJK > 0 ? totalJP / totalCJK : 0; + + console.log("=== Summary ==="); + console.log(`Files: ${files.length} total, ${ok} ok, ${warn} warn, ${fail} fail`); + console.log(`CJK: ${totalCJK.toLocaleString()} CJK chars / ${totalChars.toLocaleString()} total = ${(avgCJKRate * 100).toFixed(1)}% avg`); + console.log(`Kana: ${totalHiragana.toLocaleString()} hiragana + ${totalKatakana.toLocaleString()} katakana = ${totalJP.toLocaleString()} (${(avgJPRate * 100).toFixed(1)}% of CJK)`); + console.log(`CJK distribution (files >50 chars): p10=${(p10 * 100).toFixed(1)}% p50=${(p50 * 100).toFixed(1)}% p90=${(p90 * 100).toFixed(1)}%`); + console.log(); + + // Show problems + const problems = reports.filter((r) => r.status !== "ok"); + if (problems.length > 0) { + console.log(`=== Issues (${problems.length} files) ===`); + for (const r of problems) { + const icon = r.status === "fail" ? "FAIL" : "WARN"; + console.log(`${icon} ${r.path} (CJK ${(r.cjkRate * 100).toFixed(1)}%, kana ${(r.jpRate * 100).toFixed(0)}%)`); + for (const issue of r.issues) { + console.log(` - ${issue}`); + } + } + console.log(); + } + + // Verbose: show all files sorted by CJK rate + if (verbose) { + console.log("=== All files by CJK rate ==="); + const sorted = [...reports].filter((r) => r.totalChars > 50).sort((a, b) => a.cjkRate - b.cjkRate); + for (const r of sorted.slice(0, 30)) { + console.log(` ${(r.cjkRate * 100).toFixed(1)}% ${r.path} (${r.cjkChars}/${r.totalChars})`); + } + if (sorted.length > 30) console.log(` ... and ${sorted.length - 30} more`); + } + + // Exit code + process.exit(fail > 0 ? 1 : 0); +} + +main().catch((err) => { + console.error(err); + process.exit(1); +}); diff --git a/.github/scripts/translate-ja.ts b/.github/scripts/translate-ja.ts new file mode 100644 index 000000000..10e5531db --- /dev/null +++ b/.github/scripts/translate-ja.ts @@ -0,0 +1,540 @@ +#!/usr/bin/env bun +/** + * Dual-source (EN+ZH) → JA translation script for ComfyUI docs. + * + * Incremental: stores a source hash in each translated file's frontmatter. + * On re-run, skips files whose EN+ZH sources haven't changed. + * + * Usage: + * bun .github/scripts/translate-ja.ts # translate all pending + * bun .github/scripts/translate-ja.ts --dry-run # show what would run + * bun .github/scripts/translate-ja.ts --force # re-translate everything + * bun .github/scripts/translate-ja.ts foo.mdx bar.mdx # specific files only + * + * Environment (.env.local): + * TRANSLATE_CJK_API_KEY - API key for CJK translation (OpenRouter, DashScope, etc.) + * TRANSLATE_CJK_BASE_URL - OpenAI-compatible base URL + * TRANSLATE_CJK_MODEL - Model ID (default: qwen-mt-plus) + * TRANSLATE_CJK_CONCURRENCY - Parallel requests (default: 5) + * DASHSCOPE_API_KEY - Fallback API key for Qwen-MT + */ + +import { readdir, readFile, writeFile, mkdir } from "fs/promises"; +import { createHash } from "crypto"; +import { join, dirname, relative } from "path"; + +// --------------------------------------------------------------------------- +// Load .env.local +// --------------------------------------------------------------------------- + +const ROOT = join(import.meta.dir, "../.."); + +async function loadEnvLocal() { + try { + const content = await readFile(join(ROOT, ".env.local"), "utf-8"); + for (const line of content.split("\n")) { + const trimmed = line.trim(); + if (!trimmed || trimmed.startsWith("#")) continue; + const eq = trimmed.indexOf("="); + if (eq === -1) continue; + const key = trimmed.slice(0, eq).trim(); + const val = trimmed.slice(eq + 1).trim(); + if (!process.env[key]) process.env[key] = val; + } + } catch {} +} +await loadEnvLocal(); + +// --------------------------------------------------------------------------- +// Config +// --------------------------------------------------------------------------- + +const BASE_URL = + process.env.TRANSLATE_CJK_BASE_URL ?? + "https://dashscope-intl.aliyuncs.com/compatible-mode/v1"; +const API_KEY = + process.env.TRANSLATE_CJK_API_KEY ?? process.env.DASHSCOPE_API_KEY ?? ""; +const MODEL = process.env.TRANSLATE_CJK_MODEL ?? "qwen-mt-plus"; +const CONCURRENCY = Number(process.env.TRANSLATE_CJK_CONCURRENCY ?? "5"); +const IS_QWEN_MT = MODEL.startsWith("qwen-mt"); +const ERRORS_PATH = join(ROOT, "tmp/ERRORS.md"); + +// --------------------------------------------------------------------------- +// Helpers +// --------------------------------------------------------------------------- + +/** SHA-256 hash of combined EN+ZH source, truncated to 16 hex chars */ +function sourceHash(en: string, zh: string): string { + return createHash("sha256").update(en).update(zh).digest("hex").slice(0, 8); +} + +/** Extract translationSourceHash from an MDX file's frontmatter */ +function getExistingHash(content: string): string | null { + // Match translationSourceHash anywhere in a frontmatter block (may not be at start of file + // due to leading MISMATCH comments) + const match = content.match( + /translationSourceHash:\s*"?([a-f0-9]{8})"?/ + ); + return match?.[1] ?? null; +} + +/** Inject or update translation metadata in frontmatter */ +function setTranslationMeta( + content: string, + hash: string, + enPath: string, + zhPath: string | null, + mismatches: string[] +): string { + const metaLines = [ + `translationSourceHash: ${hash}`, + `translationFrom: ${enPath}${zhPath ? `, ${zhPath}` : ""}`, + ]; + if (mismatches.length > 0) { + // Store as a YAML array for easy parsing later + metaLines.push(`translationMismatches:`); + for (const m of mismatches) { + metaLines.push(` - "${m.replace(/"/g, '\\"')}"`); + } + } + const metaBlock = metaLines.join("\n"); + + const fmMatch = content.match(/^(---\n)([\s\S]*?)(\n---)/); + if (!fmMatch) { + return `---\n${metaBlock}\n---\n${content}`; + } + const [, open, body, close] = fmMatch; + const rest = content.slice(fmMatch[0].length); + + // Remove old translation meta lines if present + let cleaned = body + .replace(/\ntranslationSourceHash:.*/, "") + .replace(/\ntranslationFrom:.*/, "") + .replace(/\ntranslationMismatches:(?:\n\s+-.*?)*/g, "") + .replace(/^translationSourceHash:.*\n?/, "") + .replace(/^translationFrom:.*\n?/, "") + .replace(/^translationMismatches:(?:\n\s+-.*?)*/g, ""); + + return `${open}${cleaned}\n${metaBlock}${close}${rest}`; +} + +/** Read file, return empty string on missing */ +async function readFileOr(path: string, fallback = ""): Promise { + try { + return await readFile(path, "utf-8"); + } catch { + return fallback; + } +} + +/** Collect all .mdx files under a directory recursively */ +async function collectMdx(dir: string): Promise { + const results: string[] = []; + const entries = await readdir(dir, { withFileTypes: true }); + for (const entry of entries) { + const full = join(dir, entry.name); + if (entry.isDirectory()) { + results.push(...(await collectMdx(full))); + } else if (entry.name.endsWith(".mdx")) { + results.push(full); + } + } + return results; +} + +// --------------------------------------------------------------------------- +// Translation API calls +// --------------------------------------------------------------------------- + +interface TranslationResult { + japanese: string; + mismatches: string[]; +} + +function extractMismatches(text: string): { clean: string; mismatches: string[] } { + // New format: mismatches after "=== MISMATCHES ===" separator + const sepIdx = text.indexOf("=== MISMATCHES ==="); + if (sepIdx !== -1) { + const clean = text.slice(0, sepIdx).trimEnd(); + const mismatchBlock = text.slice(sepIdx + "=== MISMATCHES ===".length).trim(); + const mismatches = mismatchBlock + .split("\n") + .map((l) => l.replace(/^[-*]\s*/, "").trim()) + .filter((l) => l.length > 0); + return { clean, mismatches }; + } + // Legacy: HTML comments (strip them too just in case) + const mismatches: string[] = []; + const re = //g; + let m; + while ((m = re.exec(text)) !== null) mismatches.push(m[1]); + const clean = text.replace(/\s*\s*/g, "\n").trimStart(); + return { clean, mismatches }; +} + +async function callApi( + messages: { role: string; content: string }[], + extraBody: Record = {} +): Promise { + const response = await fetch(`${BASE_URL}/chat/completions`, { + method: "POST", + headers: { + "Content-Type": "application/json", + Authorization: `Bearer ${API_KEY}`, + }, + body: JSON.stringify({ + model: MODEL, + messages, + temperature: 0.3, + max_tokens: 8192, + ...extraBody, + }), + }); + if (!response.ok) { + const err = await response.text(); + throw new Error(`API ${response.status}: ${err}`); + } + const data = (await response.json()) as any; + return data.choices?.[0]?.message?.content ?? ""; +} + +async function translateWithQwenMT( + enText: string, + zhText: string +): Promise { + const content = [ + "=== English Source (primary) ===", + enText, + "", + "=== Chinese Source (reference) ===", + zhText, + "", + "=== Instructions ===", + "Translate the English source to Japanese.", + "Use the Chinese source as reference for correct kanji compound selection and CJK terminology.", + "Preserve all MDX/JSX syntax, component tags, code blocks, URLs, and frontmatter structure exactly.", + "Do NOT translate: component names (e.g. , ), import statements, code identifiers, URLs, href values.", + "DO translate: title, description, sidebarTitle in frontmatter; all prose text; alt text; Card title/children text.", + "If you notice semantic differences between the English and Chinese sources, output them AFTER the MDX content, separated by a line containing only '=== MISMATCHES ===' followed by one mismatch per line.", + "If no mismatches, just output the MDX content with no separator.", + ].join("\n"); + + const translated = await callApi( + [{ role: "user", content }], + { translation_options: { source_lang: "English", target_lang: "Japanese" } } + ); + const { clean, mismatches } = extractMismatches(translated); + return { japanese: clean, mismatches }; +} + +async function translateWithLLM( + enText: string, + zhText: string, + relPath: string +): Promise { + const systemPrompt = `You are an expert translator specializing in Japanese technical documentation for software (ComfyUI - a node-based AI image generation tool). + +Your task: +1. Translate the provided English documentation to natural, professional Japanese. +2. Use the Chinese translation as a REFERENCE to help select correct kanji compounds and CJK-specific technical terminology. +3. Detect any semantic mismatches between the English and Chinese sources. + +Rules: +- Output ONLY the translated Japanese MDX content +- Preserve ALL MDX/JSX syntax exactly: component tags (, , , etc.), import statements, code blocks, URLs, href attributes, frontmatter YAML structure +- DO translate: title/description/sidebarTitle in frontmatter, all prose, Card title and children text, table content, list items +- Do NOT translate: component names, import paths, code identifiers, parameter names in backticks, URLs, anchor IDs +- Use standard Japanese technical writing conventions (です/ます form) +- If you notice semantic differences between EN and ZH, output them AFTER the MDX content, separated by a line containing only '=== MISMATCHES ===' followed by one mismatch per line +- Mismatch descriptions MUST be specific and actionable, e.g. "EN title says X but ZH title says Y" — never just a field name like "description" +- If no mismatches, just output the MDX content with no separator +- NEVER use HTML comments () in your output`; + + const userPrompt = `File: ${relPath} + +=== English Source === +${enText} + +=== Chinese Reference === +${zhText} + +Translate the English source to Japanese. Use Chinese as reference for terminology. Output only the translated MDX.`; + + const translated = await callApi([ + { role: "system", content: systemPrompt }, + { role: "user", content: userPrompt }, + ]); + const { clean, mismatches } = extractMismatches(translated); + return { japanese: clean, mismatches }; +} + +// --------------------------------------------------------------------------- +// Translate a single file +// --------------------------------------------------------------------------- + +interface PathMapping { + enPath: string; + zhPath: string; + jaPath: string; + enRel: string; // relative path for display/frontmatter + zhRel: string; +} + +function defaultMapping(relPath: string): PathMapping { + return { + enPath: join(ROOT, relPath), + zhPath: join(ROOT, "zh-CN", relPath), + jaPath: join(ROOT, "ja", relPath), + enRel: relPath, + zhRel: `zh-CN/${relPath}`, + }; +} + +function snippetMapping(relPath: string): PathMapping { + // relPath is relative inside snippets/, e.g. "install/foo.mdx" + return { + enPath: join(ROOT, "snippets", relPath), + zhPath: join(ROOT, "snippets/zh", relPath), + jaPath: join(ROOT, "snippets/ja", relPath), + enRel: `snippets/${relPath}`, + zhRel: `snippets/zh/${relPath}`, + }; +} + +async function translateFile( + relPath: string, + force: boolean, + mapping: (r: string) => PathMapping = defaultMapping +): Promise<{ mismatches: string[]; status: "translated" | "skipped" | "up-to-date" }> { + const { enPath, zhPath, jaPath, enRel, zhRel } = mapping(relPath); + + // Read sources + const enContent = await readFileOr(enPath); + if (!enContent) { + return { mismatches: [], status: "skipped" }; + } + const zhContent = await readFileOr(zhPath); + + // Skip tiny files (likely just frontmatter redirects) + if (enContent.length < 50) { + await mkdir(dirname(jaPath), { recursive: true }); + await writeFile(jaPath, enContent); + return { mismatches: [], status: "skipped" }; + } + + // Check if already translated with same source hash + const hash = sourceHash(enContent, zhContent); + if (!force) { + const existingJa = await readFileOr(jaPath); + if (existingJa && getExistingHash(existingJa) === hash) { + return { mismatches: [], status: "up-to-date" }; + } + } + + // Translate + const result = IS_QWEN_MT + ? await translateWithQwenMT(enContent, zhContent) + : await translateWithLLM(enContent, zhContent, relPath); + + // Clean up LLM artifacts + let output = result.japanese; + // Remove thinking tags (Qwen 3.5 can leak these) + output = output.replace(/[\s\S]*?<\/think>\s*/g, ""); + // Remove code fence wrappers + output = output.replace(/^```(?:mdx|markdown)?\n/, "").replace(/\n```$/, ""); + + // Post-process: add /ja/ prefix to internal href links + output = output.replace( + /href="\/(?!ja\/|zh-CN\/|logo\/|images\/|snippets\/)([^"]*?)"/g, + 'href="/ja/$1"' + ); + + // Mismatches already extracted and stripped by extractMismatches() + + // Inject translation metadata into frontmatter (skip for snippets — they're inline fragments) + const isSnippet = enRel.startsWith("snippets/"); + if (!isSnippet) { + output = setTranslationMeta( + output, + hash, + enRel, + zhContent ? zhRel : null, + result.mismatches + ); + } + + // Write + await mkdir(dirname(jaPath), { recursive: true }); + await writeFile(jaPath, output); + + return { mismatches: result.mismatches, status: "translated" }; +} + +// --------------------------------------------------------------------------- +// Concurrency pool +// --------------------------------------------------------------------------- + +async function pool( + items: T[], + concurrency: number, + fn: (item: T, index: number) => Promise +) { + let i = 0; + const workers = Array.from({ length: concurrency }, async () => { + while (i < items.length) { + const idx = i++; + await fn(items[idx], idx); + } + }); + await Promise.all(workers); +} + +// --------------------------------------------------------------------------- +// Main +// --------------------------------------------------------------------------- + +async function main() { + if (!API_KEY) { + console.error( + "No API key. Set TRANSLATE_CJK_API_KEY or DASHSCOPE_API_KEY in .env.local" + ); + process.exit(1); + } + + const args = process.argv.slice(2); + const dryRun = args.includes("--dry-run"); + const force = args.includes("--force"); + const snippetsMode = args.includes("--snippets"); + const fileArgs = args.filter((a) => !a.startsWith("--")); + + const mapFn = snippetsMode ? snippetMapping : defaultMapping; + console.log(`Config: model=${MODEL} concurrency=${CONCURRENCY} mode=${IS_QWEN_MT ? "qwen-mt" : "llm"}${snippetsMode ? " [snippets]" : ""}`); + + // Collect files + let files: string[]; + if (fileArgs.length > 0) { + files = fileArgs.map((f) => f.replace(/^(ja\/|zh-CN\/|snippets\/(ja|zh)\/)/, "")); + } else if (snippetsMode) { + // Collect EN snippet files (snippets/ minus snippets/zh/ and snippets/ja/) + const all = await collectMdx(join(ROOT, "snippets")); + files = all + .map((f) => relative(join(ROOT, "snippets"), f)) + .filter((f) => !f.startsWith("zh/") && !f.startsWith("ja/")); + } else { + const all = await collectMdx(ROOT); + files = all + .map((f) => relative(ROOT, f)) + .filter( + (f) => + !f.startsWith("zh-CN/") && + !f.startsWith("ja/") && + !f.startsWith("snippets/") && + !f.startsWith("node_modules/") && + !f.startsWith(".github/") + ); + } + + // Pre-scan: check which files need translation (hash mismatch) + if (!force && !dryRun) { + console.log(`Scanning ${files.length} files for changes...`); + } + + // For dry-run or to show accurate counts, do a quick pre-scan + const pending: string[] = []; + const upToDate: string[] = []; + + for (const relPath of files) { + if (force) { + pending.push(relPath); + continue; + } + const paths = mapFn(relPath); + const enContent = await readFileOr(paths.enPath); + if (!enContent || enContent.length < 50) { + upToDate.push(relPath); + continue; + } + const zhContent = await readFileOr(paths.zhPath); + const hash = sourceHash(enContent, zhContent); + const existingJa = await readFileOr(paths.jaPath); + if (existingJa && getExistingHash(existingJa) === hash) { + upToDate.push(relPath); + } else { + pending.push(relPath); + } + } + + console.log( + `Files: ${files.length} total, ${upToDate.length} up-to-date, ${pending.length} pending` + ); + + if (dryRun) { + console.log("\nWould translate:"); + for (const f of pending.slice(0, 30)) console.log(` ${f}`); + if (pending.length > 30) console.log(` ... and ${pending.length - 30} more`); + return; + } + + if (pending.length === 0) { + console.log("Everything up-to-date. Use --force to re-translate."); + return; + } + + // Translate + await mkdir(join(ROOT, "tmp"), { recursive: true }); + const allMismatches: { file: string; issues: string[] }[] = []; + let translated = 0; + let skipped = 0; + let failed = 0; + const startTime = Date.now(); + + await pool(pending, CONCURRENCY, async (relPath, idx) => { + const tag = `[${idx + 1}/${pending.length}]`; + try { + const result = await translateFile(relPath, force, mapFn); + if (result.status === "translated") { + translated++; + const note = result.mismatches.length > 0 ? ` (${result.mismatches.length} mismatches)` : ""; + console.log(`${tag} OK ${relPath}${note}`); + if (result.mismatches.length > 0) { + allMismatches.push({ file: relPath, issues: result.mismatches }); + } + } else { + skipped++; + console.log(`${tag} SKIP ${relPath}`); + } + } catch (err: any) { + failed++; + console.error(`${tag} FAIL ${relPath}: ${err.message}`); + } + }); + + // Write mismatch report + if (allMismatches.length > 0) { + const lines = [ + "# EN ↔ ZH Mismatch Report", + "", + `Generated: ${new Date().toISOString()}`, + `Files with mismatches: ${allMismatches.length}`, + "", + "---", + "", + ]; + for (const { file, issues } of allMismatches) { + lines.push(`## ${file}`); + for (const issue of issues) lines.push(`- ${issue}`); + lines.push(""); + } + await writeFile(ERRORS_PATH, lines.join("\n")); + console.log(`\nMismatch report: ${ERRORS_PATH}`); + } + + const elapsed = ((Date.now() - startTime) / 1000).toFixed(1); + console.log(`\nDone in ${elapsed}s: ${translated} translated, ${skipped} skipped, ${failed} failed`); + if (failed > 0) console.log("Re-run to retry failed files."); +} + +main().catch((err) => { + console.error(err); + process.exit(1); +}); diff --git a/.github/workflows/ja-sync-check.yml b/.github/workflows/ja-sync-check.yml new file mode 100644 index 000000000..f7c5f82ab --- /dev/null +++ b/.github/workflows/ja-sync-check.yml @@ -0,0 +1,215 @@ +name: Japanese Translation Sync Check + +on: + pull_request: + branches: + - main + paths: + - '**/*.mdx' + - '!ja/**/*.mdx' + - '!snippets/ja/**/*.mdx' + +jobs: + check-ja-translations: + runs-on: ubuntu-latest + + steps: + - name: Checkout code + uses: actions/checkout@v4 + with: + fetch-depth: 0 + + - name: Setup Node.js + uses: actions/setup-node@v4 + with: + node-version: '20' + + - name: Install dependencies + run: npm ci + + - name: Check changed MDX files have ja equivalents and check for moved files + id: check-translations + run: | + # Get list of changed MDX files + CHANGED_FILES=$(git diff --name-only --diff-filter=ACMRT ${{ github.event.pull_request.base.sha }} ${{ github.event.pull_request.head.sha }} | grep "\.mdx$" | grep -v "^ja/" | grep -v "^zh-CN/" | grep -v "^snippets/zh/" | grep -v "^snippets/ja/" || true) + + # Get list of deleted MDX files (potentially moved) + DELETED_FILES=$(git diff --name-only --diff-filter=D ${{ github.event.pull_request.base.sha }} ${{ github.event.pull_request.head.sha }} | grep "\.mdx$" | grep -v "^ja/" | grep -v "^zh-CN/" | grep -v "^snippets/zh/" | grep -v "^snippets/ja/" || true) + + # Get list of added MDX files (potentially destinations of moves) + ADDED_FILES=$(git diff --name-only --diff-filter=A ${{ github.event.pull_request.base.sha }} ${{ github.event.pull_request.head.sha }} | grep "\.mdx$" | grep -v "^ja/" | grep -v "^zh-CN/" | grep -v "^snippets/zh/" | grep -v "^snippets/ja/" || true) + + # Exit if no MDX files were changed, deleted or added + if [ -z "$CHANGED_FILES" ] && [ -z "$DELETED_FILES" ] && [ -z "$ADDED_FILES" ]; then + echo "No MDX files changed outside of ja and snippets/ja directories. Skipping check." + exit 0 + fi + + # Check for moved files - these would be deleted and added in the same PR + MOVED_FILES="" + MOVE_DESTINATIONS="" + + if [ ! -z "$DELETED_FILES" ] && [ ! -z "$ADDED_FILES" ]; then + echo "Potential file moves detected:" + echo "------------------------" + echo "Deleted files:" + echo "$DELETED_FILES" + echo "------------------------" + echo "Added files:" + echo "$ADDED_FILES" + echo "------------------------" + + # Check if redirects are added in docs.json for deleted files + DOCS_JSON_CHANGED=$(git diff --name-only ${{ github.event.pull_request.base.sha }} ${{ github.event.pull_request.head.sha }} | grep -q "docs.json" && echo "true" || echo "false") + + if [ "$DOCS_JSON_CHANGED" = "false" ]; then + echo "Warning: docs.json was not modified - if files were moved, redirects should be added." + fi + + # Check docs.json content for redirects if it was changed + if [ "$DOCS_JSON_CHANGED" = "true" ]; then + echo "Checking docs.json for redirects..." + + # Use Node.js to check redirects with wildcard support + MISSING_REDIRECTS=$(node -e " + const fs = require('fs'); + const docsJson = JSON.parse(fs.readFileSync('docs.json', 'utf8')); + const deletedFiles = process.argv.slice(1); + const redirects = docsJson.redirects || []; + + function matchesPattern(filePath, pattern) { + pattern = pattern.replace(/^\//, ''); + filePath = filePath.replace(/^\//, ''); + const regexPattern = pattern + .replace(/\//g, '\\\\/') + .replace(/:slug\*/g, '.*') + .replace(/:slug/g, '[^/]+') + .replace(/\*/g, '.*'); + const regex = new RegExp(\`^\${regexPattern}$\`); + return regex.test(filePath); + } + + const missing = []; + for (const file of deletedFiles) { + const sourcePath = file.replace(/\.mdx$/, ''); + const hasRedirect = redirects.some(redirect => { + const redirectSource = redirect.source.replace(/^\//, ''); + const filePathNormalized = sourcePath.replace(/^\//, ''); + return redirectSource === filePathNormalized || matchesPattern(filePathNormalized, redirectSource); + }); + + if (hasRedirect) { + console.log(\`Found redirect for moved file: \${file}\`); + } else { + console.log(\`Missing redirect in docs.json for: \${file}\`); + missing.push(file); + } + } + + if (missing.length > 0) { + process.exit(1); + } + " $DELETED_FILES 2>&1 | tee /tmp/redirect_check.log || true) + + # Check if there were missing redirects + if echo "$MISSING_REDIRECTS" | grep -q "Missing redirect"; then + MOVED_FILES=$(echo "$MISSING_REDIRECTS" | grep "Missing redirect" | sed 's/.*for: //') + else + MOVED_FILES="" + fi + else + # If docs.json wasn't changed, all deleted files are suspect + MOVED_FILES="$DELETED_FILES" + fi + fi + + echo "Changed MDX files outside ja directory:" + echo "$CHANGED_FILES" + echo "------------------------" + + # Check each file for corresponding ja updates + MISSING_TRANSLATIONS="" + for file in $CHANGED_FILES; do + # Determine the corresponding ja path based on whether it's a snippet or not + if [[ $file == snippets/* ]]; then + # For snippets, the Japanese version should be in snippets/ja/ + ja_file="${file/snippets\//snippets\/ja\/}" + else + # For regular docs, the Japanese version should be in ja/ + ja_file="ja/${file}" + fi + + # Check if the corresponding ja file was also modified + if git diff --name-only --diff-filter=ACMRT ${{ github.event.pull_request.base.sha }} ${{ github.event.pull_request.head.sha }} | grep -q "^${ja_file}$"; then + echo "Found corresponding change: ${ja_file}" + else + # Check if the ja file exists at all + if [ -f "${ja_file}" ]; then + echo "Missing update to existing file: ${ja_file}" + MISSING_TRANSLATIONS="$MISSING_TRANSLATIONS ${ja_file}" + else + echo "Missing equivalent file: ${ja_file}" + MISSING_TRANSLATIONS="$MISSING_TRANSLATIONS ${ja_file}" + fi + fi + done + + # For added files, check corresponding ja files + for file in $ADDED_FILES; do + # Determine the corresponding ja path based on whether it's a snippet or not + if [[ $file == snippets/* ]]; then + # For snippets, the Japanese version should be in snippets/ja/ + ja_file="${file/snippets\//snippets\/ja\/}" + else + # For regular docs, the Japanese version should be in ja/ + ja_file="ja/${file}" + fi + + # Check if the corresponding ja file was also added or renamed + if git diff --name-only --diff-filter=AR ${{ github.event.pull_request.base.sha }} ${{ github.event.pull_request.head.sha }} | grep -q "^${ja_file}$"; then + echo "Found corresponding added/renamed file: ${ja_file}" + # Also check with rename detection to catch renamed files + elif git diff --name-status --find-renames ${{ github.event.pull_request.base.sha }} ${{ github.event.pull_request.head.sha }} | grep -E "^R[0-9]+\s+" | awk '{print $3}' | grep -q "^${ja_file}$"; then + echo "Found corresponding renamed file: ${ja_file}" + else + echo "Missing equivalent for added file: ${ja_file}" + MISSING_TRANSLATIONS="$MISSING_TRANSLATIONS ${ja_file}" + fi + done + + # Determine if we need to fail the check + SHOULD_FAIL="false" + + # Check for missing translations (warning only, does not fail the build) + if [ "$MISSING_TRANSLATIONS" != "" ]; then + echo "------------------------" + echo "The following translations need to be updated:" + for missing in $MISSING_TRANSLATIONS; do + echo "- $missing" + done + echo "::warning::The following ja translation files need to be updated to stay in sync with the English version:$MISSING_TRANSLATIONS" + fi + + # Check for moved files without redirects + if [ "$MOVED_FILES" != "" ]; then + SHOULD_FAIL="true" + echo "------------------------" + echo "The following files were moved but missing redirects in docs.json:" + for moved in $MOVED_FILES; do + echo "- $moved" + done + echo "------------------------" + echo "Please add redirects in docs.json for moved files using the format:" + echo '{"redirects":[{"source":"/path/to/old-file","destination":"/path/to/new-file"}]}' + echo "------------------------" + fi + + # Exit with error if we found issues + if [ "$SHOULD_FAIL" = "true" ]; then + echo "------------------------" + echo "Please fix the issues above before merging this PR." + exit 1 + else + echo "------------------------" + echo "All checks passed!" + fi diff --git a/.github/workflows/zh-cn-sync-check.yml b/.github/workflows/zh-cn-sync-check.yml index beef51f5d..bd7d4abe2 100644 --- a/.github/workflows/zh-cn-sync-check.yml +++ b/.github/workflows/zh-cn-sync-check.yml @@ -8,6 +8,8 @@ on: - '**/*.mdx' - '!zh-CN/**/*.mdx' - '!snippets/zh/**/*.mdx' + - '!ja/**/*.mdx' + - '!snippets/ja/**/*.mdx' jobs: check-zh-cn-translations: @@ -31,13 +33,13 @@ jobs: id: check-translations run: | # Get list of changed MDX files - CHANGED_FILES=$(git diff --name-only --diff-filter=ACMRT ${{ github.event.pull_request.base.sha }} ${{ github.event.pull_request.head.sha }} | grep "\.mdx$" | grep -v "^zh-CN/" | grep -v "^snippets/zh/" || true) + CHANGED_FILES=$(git diff --name-only --diff-filter=ACMRT ${{ github.event.pull_request.base.sha }} ${{ github.event.pull_request.head.sha }} | grep "\.mdx$" | grep -v "^zh-CN/" | grep -v "^snippets/zh/" | grep -v "^ja/" | grep -v "^snippets/ja/" || true) # Get list of deleted MDX files (potentially moved) - DELETED_FILES=$(git diff --name-only --diff-filter=D ${{ github.event.pull_request.base.sha }} ${{ github.event.pull_request.head.sha }} | grep "\.mdx$" | grep -v "^zh-CN/" | grep -v "^snippets/zh/" || true) + DELETED_FILES=$(git diff --name-only --diff-filter=D ${{ github.event.pull_request.base.sha }} ${{ github.event.pull_request.head.sha }} | grep "\.mdx$" | grep -v "^zh-CN/" | grep -v "^snippets/zh/" | grep -v "^ja/" | grep -v "^snippets/ja/" || true) # Get list of added MDX files (potentially destinations of moves) - ADDED_FILES=$(git diff --name-only --diff-filter=A ${{ github.event.pull_request.base.sha }} ${{ github.event.pull_request.head.sha }} | grep "\.mdx$" | grep -v "^zh-CN/" | grep -v "^snippets/zh/" || true) + ADDED_FILES=$(git diff --name-only --diff-filter=A ${{ github.event.pull_request.base.sha }} ${{ github.event.pull_request.head.sha }} | grep "\.mdx$" | grep -v "^zh-CN/" | grep -v "^snippets/zh/" | grep -v "^ja/" | grep -v "^snippets/ja/" || true) # Exit if no MDX files were changed, deleted or added if [ -z "$CHANGED_FILES" ] && [ -z "$DELETED_FILES" ] && [ -z "$ADDED_FILES" ]; then diff --git a/.gitignore b/.gitignore index 073f957bf..53457f8fc 100644 --- a/.gitignore +++ b/.gitignore @@ -6,3 +6,5 @@ node_modules **/.DS_Store docs.bak .claude/settings.json +.env.local +tmp/ diff --git a/docs.json b/docs.json index 2884cebe4..5d6b70c0a 100644 --- a/docs.json +++ b/docs.json @@ -4182,6 +4182,2173 @@ } } ] + }, + { + "language": "ja", + "tabs": [ + { + "tab": "はじめに", + "pages": [ + { + "group": "はじめに", + "pages": [ + "ja/index", + { + "group": "ローカルインストール", + "icon": "download", + "pages": [ + "ja/installation/system_requirements", + { + "group": "デスクトップ(推奨)", + "pages": [ + "ja/installation/desktop/windows", + "ja/installation/desktop/macos", + "ja/installation/desktop/linux" + ] + }, + "ja/installation/comfyui_portable_windows", + "ja/installation/manual_install", + "ja/installation/update_comfyui" + ] + }, + "ja/get_started/cloud", + { + "group": "カスタムノードのインストール", + "icon": "puzzle-piece", + "pages": [ + "ja/installation/install_custom_node", + { + "group": "ComfyUI-Manager", + "pages": [ + "ja/manager/overview", + "ja/manager/install", + { + "group": "カスタムノード管理", + "pages": [ + "ja/manager/pack-management", + "ja/manager/legacy-ui" + ] + }, + "ja/manager/configuration", + "ja/manager/troubleshooting" + ] + } + ] + }, + "ja/get_started/first_generation" + ] + }, + { + "group": "基本概念", + "pages": [ + "ja/development/core-concepts/workflow", + "ja/development/core-concepts/nodes", + "ja/development/core-concepts/custom-nodes", + "ja/development/core-concepts/properties", + "ja/development/core-concepts/links", + "ja/development/core-concepts/models", + "ja/development/core-concepts/dependencies" + ] + }, + { + "group": "インターフェースガイド", + "pages": [ + "ja/interface/overview", + "ja/interface/app-mode", + "ja/interface/nodes-2", + "ja/interface/maskeditor", + "ja/interface/features/template", + "ja/interface/features/subgraph", + "ja/interface/features/partial-execution", + "ja/interface/features/node-docs", + { + "group": "ComfyUI 設定", + "icon": "gear", + "pages": [ + "ja/interface/settings/overview", + "ja/interface/user", + "ja/interface/credits", + "ja/interface/settings/comfy", + "ja/interface/settings/lite-graph", + "ja/interface/appearance", + "ja/interface/settings/3d", + "ja/interface/settings/comfy-desktop", + "ja/interface/settings/mask-editor", + "ja/interface/shortcuts", + "ja/interface/settings/extension", + "ja/interface/settings/about", + "ja/interface/settings/server-config" + ] + }, + { + "group": "Cloud 専用機能", + "icon": "cloud", + "pages": [ + "ja/cloud/share-workflow", + "ja/cloud/import-models" + ] + } + ] + }, + { + "group": "チュートリアル", + "icon": "book", + "pages": [ + { + "group": "基本チュートリアル", + "pages": [ + "ja/tutorials/basic/text-to-image", + "ja/tutorials/basic/image-to-image", + "ja/tutorials/basic/inpaint", + "ja/tutorials/basic/outpaint", + "ja/tutorials/basic/upscale", + "ja/tutorials/basic/lora", + "ja/tutorials/basic/multiple-loras" + ] + }, + { + "group": "ControlNet", + "pages": [ + "ja/tutorials/controlnet/controlnet", + "ja/tutorials/controlnet/pose-controlnet-2-pass", + "ja/tutorials/controlnet/depth-controlnet", + "ja/tutorials/controlnet/depth-t2i-adapter", + "ja/tutorials/controlnet/mixing-controlnets" + ] + }, + { + "group": "Image", + "pages": [ + { + "group": "Flux", + "pages": [ + "ja/tutorials/flux/flux-2-dev", + "ja/tutorials/flux/flux-2-klein", + "ja/tutorials/flux/flux1-krea-dev", + "ja/tutorials/flux/flux-1-kontext-dev", + "ja/tutorials/flux/flux-1-text-to-image", + "ja/tutorials/flux/flux-1-uso", + "ja/tutorials/flux/flux-1-fill-dev", + "ja/tutorials/flux/flux-1-controlnet" + ] + }, + { + "group": "Qwen", + "pages": [ + "ja/tutorials/image/qwen/qwen-image", + "ja/tutorials/image/qwen/qwen-image-2512", + "ja/tutorials/image/qwen/qwen-image-edit", + "ja/tutorials/image/qwen/qwen-image-edit-2511", + "ja/tutorials/image/qwen/qwen-image-layered" + ] + }, + { + "group": "Z-Image", + "pages": [ + "ja/tutorials/image/z-image/z-image", + "ja/tutorials/image/z-image/z-image-turbo" + ] + }, + { + "group": "Ovis", + "pages": [ + "ja/tutorials/image/ovis/ovis-image" + ] + }, + { + "group": "HiDream", + "pages": [ + "ja/tutorials/image/hidream/hidream-i1", + "ja/tutorials/image/hidream/hidream-e1" + ] + }, + { + "group": "NewBie-image", + "pages": [ + "ja/tutorials/image/newbie-image/newbie-image-exp-0-1" + ] + }, + "ja/tutorials/image/cosmos/cosmos-predict2-t2i", + "ja/tutorials/image/omnigen/omnigen2" + ] + }, + { + "group": "3D", + "pages": [ + "ja/tutorials/3d/hunyuan3D-2" + ] + }, + { + "group": "動画", + "pages": [ + { + "group": "LTX", + "pages": [ + "ja/tutorials/video/ltxv", + "ja/tutorials/video/ltx/ltx-2", + "ja/tutorials/video/ltx/ltx-2-3" + ] + }, + { + "group": "Wan Video", + "pages": [ + "ja/tutorials/video/wan/wan2_2", + "ja/tutorials/video/wan/wan2-2-animate", + "ja/tutorials/video/wan/wan2-2-s2v", + "ja/tutorials/video/wan/wan2-2-fun-inp", + "ja/tutorials/video/wan/wan2-2-fun-control", + "ja/tutorials/video/wan/wan2-2-fun-camera", + { + "group": "Wan2.1", + "pages": [ + "ja/tutorials/video/wan/wan-video", + "ja/tutorials/video/wan/vace", + "ja/tutorials/video/wan/wan-move", + "ja/tutorials/video/wan/wan-alpha", + "ja/tutorials/video/wan/wan-ati", + "ja/tutorials/video/wan/fun-control", + "ja/tutorials/video/wan/fun-camera", + "ja/tutorials/video/wan/fun-inp", + "ja/tutorials/video/wan/wan-flf" + ] + } + ] + }, + { + "group": "Tencent Hunyuan", + "pages": [ + "ja/tutorials/video/hunyuan/hunyuan-video", + "ja/tutorials/video/hunyuan/hunyuan-video-1-5" + ] + }, + { + "group": "Cosmos", + "pages": [ + "ja/tutorials/video/cosmos/cosmos-predict2-video2world" + ] + }, + { + "group": "Kandinsky", + "pages": [ + "ja/tutorials/video/kandinsky/kandinsky-5" + ] + } + ] + }, + { + "group": "オーディオ", + "pages": [ + { + "group": "ACE-Step", + "pages": [ + "ja/tutorials/audio/ace-step/ace-step-v1", + "ja/tutorials/audio/ace-step/ace-step-v1-5" + ] + } + ] + }, + { + "group": "Utility", + "pages": [ + "ja/tutorials/utility/preprocessors", + "ja/tutorials/utility/frame-interpolation", + "ja/tutorials/utility/image-upscale", + "ja/tutorials/utility/video-upscale" + ] + }, + { + "group": "パートナーノード", + "pages": [ + "ja/tutorials/partner-nodes/overview", + "ja/tutorials/partner-nodes/faq", + "ja/tutorials/partner-nodes/pricing", + { + "group": "Black Forest Labs", + "pages": [ + "ja/tutorials/partner-nodes/black-forest-labs/flux-1-1-pro-ultra-image", + "ja/tutorials/partner-nodes/black-forest-labs/flux-1-kontext" + ] + }, + { + "group": "ByteDance", + "pages": [ + "ja/tutorials/partner-nodes/bytedance/seedream-5-lite" + ] + }, + { + "group": "Google", + "pages": [ + "ja/tutorials/partner-nodes/google/gemini", + "ja/tutorials/partner-nodes/google/nano-banana-pro", + "ja/tutorials/partner-nodes/google/nano-banana-2" + ] + }, + { + "group": "Stability AI", + "pages": [ + "ja/tutorials/partner-nodes/stability-ai/stable-image-ultra", + "ja/tutorials/partner-nodes/stability-ai/stable-diffusion-3-5-image", + "ja/tutorials/partner-nodes/stability-ai/stable-audio" + ] + }, + { + "group": "Ideogram", + "pages": [ + "ja/tutorials/partner-nodes/ideogram/ideogram-v3" + ] + }, + { + "group": "Luma", + "pages": [ + "ja/tutorials/partner-nodes/luma/luma-text-to-image", + "ja/tutorials/partner-nodes/luma/luma-image-to-image", + "ja/tutorials/partner-nodes/luma/luma-text-to-video", + "ja/tutorials/partner-nodes/luma/luma-image-to-video" + ] + }, + { + "group": "Moonvalley", + "pages": [ + "ja/tutorials/partner-nodes/moonvalley/moonvalley-video-generation" + ] + }, + { + "group": "OpenAI", + "pages": [ + "ja/tutorials/partner-nodes/openai/gpt-image-1", + "ja/tutorials/partner-nodes/openai/dall-e-2", + "ja/tutorials/partner-nodes/openai/dall-e-3", + "ja/tutorials/partner-nodes/openai/chat" + ] + }, + { + "group": "Recraft", + "pages": [ + "ja/tutorials/partner-nodes/recraft/recraft-v4", + "ja/tutorials/partner-nodes/recraft/recraft-text-to-image" + ] + }, + { + "group": "Kling", + "pages": [ + "ja/tutorials/partner-nodes/kling/kling-3-0", + "ja/tutorials/partner-nodes/kling/kling-motion-control" + ] + }, + { + "group": "Runway", + "pages": [ + "ja/tutorials/partner-nodes/runway/image-generation", + "ja/tutorials/partner-nodes/runway/video-generation" + ] + }, + { + "group": "Rodin", + "pages": [ + "ja/tutorials/partner-nodes/rodin/model-generation" + ] + }, + { + "group": "Tripo", + "pages": [ + "ja/tutorials/partner-nodes/tripo/model-generation" + ] + }, + { + "group": "Hunyuan 3D", + "pages": [ + "ja/tutorials/partner-nodes/hunyuan3d/hunyuan3d-3-0" + ] + }, + { + "group": "Meshy", + "pages": [ + "ja/tutorials/partner-nodes/meshy/meshy-6" + ] + }, + { + "group": "Bria", + "pages": [ + "ja/tutorials/partner-nodes/bria/fibo" + ] + }, + { + "group": "Reve", + "pages": [ + "ja/tutorials/partner-nodes/reve/reve-image" + ] + } + ] + } + ] + }, + "ja/changelog/index" + ] + }, + { + "tab": "組み込みノード", + "pages": [ + "ja/built-in-nodes/overview", + { + "group": "ノード", + "pages": [ + { + "group": "3D", + "pages": [ + "ja/built-in-nodes/Load3D", + "ja/built-in-nodes/Load3DAnimation", + "ja/built-in-nodes/Preview3D", + "ja/built-in-nodes/Preview3DAnimation", + "ja/built-in-nodes/SaveGLB", + "ja/built-in-nodes/VoxelToMesh", + "ja/built-in-nodes/VoxelToMeshBasic" + ] + }, + { + "group": "API Node", + "pages": [ + { + "group": "3D", + "pages": [ + { + "group": "Meshy", + "pages": [ + "ja/built-in-nodes/MeshyAnimateModelNode", + "ja/built-in-nodes/MeshyImageToModelNode", + "ja/built-in-nodes/MeshyMultiImageToModelNode", + "ja/built-in-nodes/MeshyRefineNode", + "ja/built-in-nodes/MeshyRigModelNode", + "ja/built-in-nodes/MeshyTextToModelNode", + "ja/built-in-nodes/MeshyTextureNode" + ] + }, + { + "group": "Rodin", + "pages": [ + "ja/built-in-nodes/Rodin3D_Detail", + "ja/built-in-nodes/Rodin3D_Gen2", + "ja/built-in-nodes/Rodin3D_Regular", + "ja/built-in-nodes/Rodin3D_Sketch", + "ja/built-in-nodes/Rodin3D_Smooth" + ] + }, + { + "group": "Tencent", + "pages": [ + "ja/built-in-nodes/Tencent3DPartNode", + "ja/built-in-nodes/Tencent3DTextureEditNode", + "ja/built-in-nodes/TencentImageToModelNode", + "ja/built-in-nodes/TencentModelTo3DUVNode", + "ja/built-in-nodes/TencentTextToModelNode" + ] + }, + { + "group": "Tripo", + "pages": [ + "ja/built-in-nodes/TripoConversionNode", + "ja/built-in-nodes/TripoImageToModelNode", + "ja/built-in-nodes/TripoMultiviewToModelNode", + "ja/built-in-nodes/TripoRefineNode", + "ja/built-in-nodes/TripoRetargetNode", + "ja/built-in-nodes/TripoRigNode", + "ja/built-in-nodes/TripoTextToModelNode", + "ja/built-in-nodes/TripoTextureNode" + ] + } + ] + }, + { + "group": "Audio", + "pages": [ + { + "group": "Elevenlabs", + "pages": [ + "ja/built-in-nodes/ElevenLabsAudioIsolation", + "ja/built-in-nodes/ElevenLabsInstantVoiceClone", + "ja/built-in-nodes/ElevenLabsSpeechToSpeech", + "ja/built-in-nodes/ElevenLabsSpeechToText", + "ja/built-in-nodes/ElevenLabsTextToDialogue", + "ja/built-in-nodes/ElevenLabsTextToSoundEffects", + "ja/built-in-nodes/ElevenLabsTextToSpeech", + "ja/built-in-nodes/ElevenLabsVoiceSelector" + ] + }, + { + "group": "Stability Ai", + "pages": [ + "ja/built-in-nodes/StabilityAudioInpaint", + "ja/built-in-nodes/StabilityAudioToAudio" + ] + } + ] + }, + { + "group": "Image", + "pages": [ + { + "group": "Bfl", + "pages": [ + "ja/built-in-nodes/FluxProCannyNode", + "ja/built-in-nodes/FluxProDepthNode", + "ja/built-in-nodes/FluxProExpandNode", + "ja/built-in-nodes/FluxProFillNode", + "ja/built-in-nodes/FluxProImageNode", + "ja/built-in-nodes/FluxProUltraImageNode" + ] + }, + { + "group": "Bria", + "pages": [ + "ja/built-in-nodes/BriaImageEditNode", + "ja/built-in-nodes/BriaRemoveImageBackground" + ] + }, + { + "group": "Bytedance", + "pages": [ + "ja/built-in-nodes/ByteDanceImageEditNode", + "ja/built-in-nodes/ByteDanceImageNode", + "ja/built-in-nodes/ByteDanceSeedreamNode" + ] + }, + { + "group": "Gemini", + "pages": [ + "ja/built-in-nodes/GeminiImage", + "ja/built-in-nodes/GeminiImage2Node", + "ja/built-in-nodes/GeminiImageNode" + ] + }, + { + "group": "Grok", + "pages": [ + "ja/built-in-nodes/GrokImageEditNode", + "ja/built-in-nodes/GrokImageNode" + ] + }, + { + "group": "Hitpaw", + "pages": [ + "ja/built-in-nodes/HitPawGeneralImageEnhance" + ] + }, + { + "group": "Ideogram", + "pages": [ + "ja/built-in-nodes/IdeogramV1", + "ja/built-in-nodes/IdeogramV2", + "ja/built-in-nodes/IdeogramV3" + ] + }, + { + "group": "Kling", + "pages": [ + "ja/built-in-nodes/KlingImageGenerationNode", + "ja/built-in-nodes/KlingOmniProImageNode", + "ja/built-in-nodes/KlingVirtualTryOnNode" + ] + }, + { + "group": "Luma", + "pages": [ + "ja/built-in-nodes/LumaConceptsNode", + "ja/built-in-nodes/LumaImageModifyNode", + "ja/built-in-nodes/LumaReferenceNode" + ] + }, + { + "group": "Magnific", + "pages": [ + "ja/built-in-nodes/MagnificImageRelightNode", + "ja/built-in-nodes/MagnificImageSkinEnhancerNode", + "ja/built-in-nodes/MagnificImageStyleTransferNode", + "ja/built-in-nodes/MagnificImageUpscalerCreativeNode", + "ja/built-in-nodes/MagnificImageUpscalerPreciseV2Node" + ] + }, + { + "group": "Openai", + "pages": [ + "ja/built-in-nodes/OpenAIDalle2", + "ja/built-in-nodes/OpenAIDalle3", + "ja/built-in-nodes/OpenAIGPTImage1" + ] + }, + { + "group": "Recraft", + "pages": [ + "ja/built-in-nodes/RecraftColorRGB", + "ja/built-in-nodes/RecraftControls", + "ja/built-in-nodes/RecraftCreateStyleNode", + "ja/built-in-nodes/RecraftCreativeUpscaleNode", + "ja/built-in-nodes/RecraftCrispUpscaleNode", + "ja/built-in-nodes/RecraftImageInpaintingNode", + "ja/built-in-nodes/RecraftImageToImageNode", + "ja/built-in-nodes/RecraftRemoveBackgroundNode", + "ja/built-in-nodes/RecraftReplaceBackgroundNode", + "ja/built-in-nodes/RecraftStyleV3DigitalIllustration", + "ja/built-in-nodes/RecraftStyleV3InfiniteStyleLibrary", + "ja/built-in-nodes/RecraftStyleV3LogoRaster", + "ja/built-in-nodes/RecraftStyleV3RealisticImage", + "ja/built-in-nodes/RecraftStyleV3VectorIllustrationNode", + "ja/built-in-nodes/RecraftTextToImageNode", + "ja/built-in-nodes/RecraftTextToVectorNode", + "ja/built-in-nodes/RecraftV4TextToImageNode", + "ja/built-in-nodes/RecraftV4TextToVectorNode", + "ja/built-in-nodes/RecraftVectorizeImageNode" + ] + }, + { + "group": "Runway", + "pages": [ + "ja/built-in-nodes/RunwayTextToImageNode" + ] + }, + { + "group": "Stability Ai", + "pages": [ + "ja/built-in-nodes/StabilityStableImageSD_3_5Node", + "ja/built-in-nodes/StabilityStableImageUltraNode", + "ja/built-in-nodes/StabilityTextToAudio", + "ja/built-in-nodes/StabilityUpscaleConservativeNode", + "ja/built-in-nodes/StabilityUpscaleCreativeNode", + "ja/built-in-nodes/StabilityUpscaleFastNode" + ] + }, + { + "group": "Topaz", + "pages": [ + "ja/built-in-nodes/TopazImageEnhance" + ] + }, + { + "group": "Wan", + "pages": [ + "ja/built-in-nodes/WanImageToImageApi", + "ja/built-in-nodes/WanTextToImageApi" + ] + }, + { + "group": "Wavespeed", + "pages": [ + "ja/built-in-nodes/WavespeedImageUpscaleNode" + ] + } + ] + }, + { + "group": "Text", + "pages": [ + { + "group": "Gemini", + "pages": [ + "ja/built-in-nodes/GeminiInputFiles", + "ja/built-in-nodes/GeminiNode" + ] + }, + { + "group": "Openai", + "pages": [ + "ja/built-in-nodes/OpenAIChatConfig", + "ja/built-in-nodes/OpenAIChatNode", + "ja/built-in-nodes/OpenAIInputFiles" + ] + } + ] + }, + { + "group": "Video", + "pages": [ + { + "group": "Bria", + "pages": [ + "ja/built-in-nodes/BriaRemoveVideoBackground" + ] + }, + { + "group": "Bytedance", + "pages": [ + "ja/built-in-nodes/ByteDanceFirstLastFrameNode", + "ja/built-in-nodes/ByteDanceImageReferenceNode", + "ja/built-in-nodes/ByteDanceImageToVideoNode", + "ja/built-in-nodes/ByteDanceTextToVideoNode" + ] + }, + { + "group": "Google", + "pages": [ + "ja/built-in-nodes/partner-node/video/google/google-veo2-video" + ] + }, + { + "group": "Grok", + "pages": [ + "ja/built-in-nodes/GrokVideoEditNode", + "ja/built-in-nodes/GrokVideoNode" + ] + }, + { + "group": "Hitpaw", + "pages": [ + "ja/built-in-nodes/HitPawVideoEnhance" + ] + }, + { + "group": "Kling", + "pages": [ + "ja/built-in-nodes/KlingCameraControlI2VNode", + "ja/built-in-nodes/KlingCameraControls", + "ja/built-in-nodes/KlingCameraControlT2VNode", + "ja/built-in-nodes/KlingDualCharacterVideoEffectNode", + "ja/built-in-nodes/KlingFirstLastFrameNode", + "ja/built-in-nodes/KlingImage2VideoNode", + "ja/built-in-nodes/KlingImageToVideoWithAudio", + "ja/built-in-nodes/KlingLipSyncAudioToVideoNode", + "ja/built-in-nodes/KlingLipSyncTextToVideoNode", + "ja/built-in-nodes/KlingMotionControl", + "ja/built-in-nodes/KlingOmniProEditVideoNode", + "ja/built-in-nodes/KlingOmniProFirstLastFrameNode", + "ja/built-in-nodes/KlingOmniProImageToVideoNode", + "ja/built-in-nodes/KlingOmniProTextToVideoNode", + "ja/built-in-nodes/KlingOmniProVideoToVideoNode", + "ja/built-in-nodes/KlingSingleImageVideoEffectNode", + "ja/built-in-nodes/KlingStartEndFrameNode", + "ja/built-in-nodes/KlingTextToVideoNode", + "ja/built-in-nodes/KlingTextToVideoWithAudio", + "ja/built-in-nodes/KlingVideoExtendNode", + "ja/built-in-nodes/KlingVideoNode" + ] + }, + { + "group": "Kling", + "pages": [ + "ja/built-in-nodes/partner-node/video/kwai_vgi/kling-camera-control-i2v", + "ja/built-in-nodes/partner-node/video/kwai_vgi/kling-camera-control-t2v", + "ja/built-in-nodes/partner-node/video/kwai_vgi/kling-camera-controls", + "ja/built-in-nodes/partner-node/video/kwai_vgi/kling-image-to-video", + "ja/built-in-nodes/partner-node/video/kwai_vgi/kling-start-end-frame-to-video", + "ja/built-in-nodes/partner-node/video/kwai_vgi/kling-text-to-video" + ] + }, + { + "group": "Ltxv", + "pages": [ + "ja/built-in-nodes/LtxvApiImageToVideo", + "ja/built-in-nodes/LtxvApiTextToVideo" + ] + }, + { + "group": "Luma", + "pages": [ + "ja/built-in-nodes/LumaImageNode", + "ja/built-in-nodes/LumaImageToVideoNode", + "ja/built-in-nodes/LumaVideoNode" + ] + }, + { + "group": "Luma", + "pages": [ + "ja/built-in-nodes/partner-node/video/luma/luma-concepts", + "ja/built-in-nodes/partner-node/video/luma/luma-image-to-video", + "ja/built-in-nodes/partner-node/video/luma/luma-text-to-video" + ] + }, + { + "group": "MiniMax", + "pages": [ + "ja/built-in-nodes/partner-node/video/minimax/minimax-image-to-video", + "ja/built-in-nodes/partner-node/video/minimax/minimax-text-to-video" + ] + }, + { + "group": "Minimax", + "pages": [ + "ja/built-in-nodes/MinimaxHailuoVideoNode", + "ja/built-in-nodes/MinimaxImageToVideoNode", + "ja/built-in-nodes/MinimaxSubjectToVideoNode", + "ja/built-in-nodes/MinimaxTextToVideoNode" + ] + }, + { + "group": "Moonvalley Marey", + "pages": [ + "ja/built-in-nodes/MoonvalleyImg2VideoNode", + "ja/built-in-nodes/MoonvalleyTxt2VideoNode", + "ja/built-in-nodes/MoonvalleyVideo2VideoNode" + ] + }, + { + "group": "Pika", + "pages": [ + "ja/built-in-nodes/partner-node/video/pika/pika-image-to-video", + "ja/built-in-nodes/partner-node/video/pika/pika-scenes", + "ja/built-in-nodes/partner-node/video/pika/pika-text-to-video", + "ja/built-in-nodes/Pikadditions", + "ja/built-in-nodes/Pikaffects", + "ja/built-in-nodes/PikaImageToVideoNode2_2", + "ja/built-in-nodes/PikaScenesV2_2", + "ja/built-in-nodes/PikaStartEndFrameNode2_2", + "ja/built-in-nodes/Pikaswaps", + "ja/built-in-nodes/PikaTextToVideoNode2_2" + ] + }, + { + "group": "PixVerse", + "pages": [ + "ja/built-in-nodes/partner-node/video/pixverse/pixverse-image-to-video", + "ja/built-in-nodes/partner-node/video/pixverse/pixverse-template", + "ja/built-in-nodes/partner-node/video/pixverse/pixverse-text-to-video", + "ja/built-in-nodes/partner-node/video/pixverse/pixverse-transition-video" + ] + }, + { + "group": "Pixverse", + "pages": [ + "ja/built-in-nodes/PixverseImageToVideoNode", + "ja/built-in-nodes/PixverseTemplateNode", + "ja/built-in-nodes/PixverseTextToVideoNode", + "ja/built-in-nodes/PixverseTransitionVideoNode" + ] + }, + { + "group": "Runway", + "pages": [ + "ja/built-in-nodes/RunwayFirstLastFrameNode", + "ja/built-in-nodes/RunwayImageToVideoNodeGen3a", + "ja/built-in-nodes/RunwayImageToVideoNodeGen4" + ] + }, + { + "group": "Sora", + "pages": [ + "ja/built-in-nodes/OpenAIVideoSora2" + ] + }, + { + "group": "Topaz", + "pages": [ + "ja/built-in-nodes/TopazVideoEnhance" + ] + }, + { + "group": "Veo", + "pages": [ + "ja/built-in-nodes/Veo3FirstLastFrameNode", + "ja/built-in-nodes/Veo3VideoGenerationNode", + "ja/built-in-nodes/VeoVideoGenerationNode" + ] + }, + { + "group": "Vidu", + "pages": [ + "ja/built-in-nodes/Vidu2ImageToVideoNode", + "ja/built-in-nodes/Vidu2ReferenceVideoNode", + "ja/built-in-nodes/Vidu2StartEndToVideoNode", + "ja/built-in-nodes/Vidu2TextToVideoNode", + "ja/built-in-nodes/Vidu3ImageToVideoNode", + "ja/built-in-nodes/Vidu3StartEndToVideoNode", + "ja/built-in-nodes/Vidu3TextToVideoNode", + "ja/built-in-nodes/ViduExtendVideoNode", + "ja/built-in-nodes/ViduImageToVideoNode", + "ja/built-in-nodes/ViduMultiFrameVideoNode", + "ja/built-in-nodes/ViduReferenceVideoNode", + "ja/built-in-nodes/ViduStartEndToVideoNode", + "ja/built-in-nodes/ViduTextToVideoNode" + ] + }, + { + "group": "Wan", + "pages": [ + "ja/built-in-nodes/WanImageToVideoApi", + "ja/built-in-nodes/WanReferenceVideoApi", + "ja/built-in-nodes/WanTextToVideoApi" + ] + }, + { + "group": "Wavespeed", + "pages": [ + "ja/built-in-nodes/WavespeedFlashVSRNode" + ] + } + ] + }, + { + "group": "画像", + "pages": [ + { + "group": "BFL", + "pages": [ + "ja/built-in-nodes/partner-node/image/bfl/flux-1-1-pro-ultra-image" + ] + }, + { + "group": "Ideogram", + "pages": [ + "ja/built-in-nodes/partner-node/image/ideogram/ideogram-v1", + "ja/built-in-nodes/partner-node/image/ideogram/ideogram-v2", + "ja/built-in-nodes/partner-node/image/ideogram/ideogram-v3" + ] + }, + { + "group": "Luma", + "pages": [ + "ja/built-in-nodes/partner-node/image/luma/luma-image-to-image", + "ja/built-in-nodes/partner-node/image/luma/luma-reference", + "ja/built-in-nodes/partner-node/image/luma/luma-text-to-image" + ] + }, + { + "group": "OpenAI", + "pages": [ + "ja/built-in-nodes/partner-node/image/openai/openai-dalle2", + "ja/built-in-nodes/partner-node/image/openai/openai-dalle3", + "ja/built-in-nodes/partner-node/image/openai/openai-gpt-image1" + ] + }, + { + "group": "Recraft", + "pages": [ + "ja/built-in-nodes/partner-node/image/recraft/recraft-color-rgb", + "ja/built-in-nodes/partner-node/image/recraft/recraft-controls", + "ja/built-in-nodes/partner-node/image/recraft/recraft-creative-upscale", + "ja/built-in-nodes/partner-node/image/recraft/recraft-crisp-upscale", + "ja/built-in-nodes/partner-node/image/recraft/recraft-image-inpainting", + "ja/built-in-nodes/partner-node/image/recraft/recraft-image-to-image", + "ja/built-in-nodes/partner-node/image/recraft/recraft-remove-background", + "ja/built-in-nodes/partner-node/image/recraft/recraft-replace-background", + "ja/built-in-nodes/partner-node/image/recraft/recraft-style-digital-illustration", + "ja/built-in-nodes/partner-node/image/recraft/recraft-style-logo-raster", + "ja/built-in-nodes/partner-node/image/recraft/recraft-style-realistic-image", + "ja/built-in-nodes/partner-node/image/recraft/recraft-text-to-image", + "ja/built-in-nodes/partner-node/image/recraft/recraft-text-to-vector", + "ja/built-in-nodes/partner-node/image/recraft/recraft-vectorize-image", + "ja/built-in-nodes/partner-node/image/recraft/save-svg" + ] + }, + { + "group": "Stability AI", + "pages": [ + "ja/built-in-nodes/partner-node/image/stability-ai/stability-ai-stable-diffusion-3-5-image", + "ja/built-in-nodes/partner-node/image/stability-ai/stability-ai-stable-image-ultra" + ] + } + ] + } + ] + }, + { + "group": "Audio", + "pages": [ + "ja/built-in-nodes/AudioAdjustVolume", + "ja/built-in-nodes/AudioConcat", + "ja/built-in-nodes/AudioEqualizer3Band", + "ja/built-in-nodes/AudioMerge", + "ja/built-in-nodes/EmptyAudio", + "ja/built-in-nodes/JoinAudioChannels", + "ja/built-in-nodes/LoadAudio", + "ja/built-in-nodes/LTXVAudioVAEDecode", + "ja/built-in-nodes/LTXVAudioVAEEncode", + "ja/built-in-nodes/LTXVAudioVAELoader", + "ja/built-in-nodes/PreviewAudio", + "ja/built-in-nodes/RecordAudio", + "ja/built-in-nodes/SaveAudio", + "ja/built-in-nodes/SaveAudioMP3", + "ja/built-in-nodes/SaveAudioOpus", + "ja/built-in-nodes/SplitAudioChannels", + "ja/built-in-nodes/TrimAudioDuration" + ] + }, + { + "group": "Camera", + "pages": [ + "ja/built-in-nodes/WanCameraEmbedding" + ] + }, + { + "group": "Context", + "pages": [ + "ja/built-in-nodes/ContextWindowsManual", + "ja/built-in-nodes/WanContextWindowsManual" + ] + }, + { + "group": "Logic", + "pages": [ + "ja/built-in-nodes/AutogrowNamesTestNode", + "ja/built-in-nodes/AutogrowPrefixTestNode", + "ja/built-in-nodes/ComboOptionTestNode", + "ja/built-in-nodes/ComfySoftSwitchNode", + "ja/built-in-nodes/ComfySwitchNode", + "ja/built-in-nodes/ConvertStringToComboNode", + "ja/built-in-nodes/CreateList", + "ja/built-in-nodes/DCTestNode", + "ja/built-in-nodes/InvertBooleanNode" + ] + }, + { + "group": "Mask", + "pages": [ + { + "group": "Compositing", + "pages": [ + "ja/built-in-nodes/JoinImageWithAlpha", + "ja/built-in-nodes/PorterDuffImageComposite", + "ja/built-in-nodes/SplitImageWithAlpha" + ] + }, + "ja/built-in-nodes/BatchMasksNode", + "ja/built-in-nodes/CropMask", + "ja/built-in-nodes/FeatherMask", + "ja/built-in-nodes/GrowMask", + "ja/built-in-nodes/ImageColorToMask", + "ja/built-in-nodes/ImageToMask", + "ja/built-in-nodes/InvertMask", + "ja/built-in-nodes/LoadImageMask", + "ja/built-in-nodes/MaskComposite", + "ja/built-in-nodes/MaskPreview", + "ja/built-in-nodes/MaskToImage", + "ja/built-in-nodes/SolidMask", + "ja/built-in-nodes/ThresholdMask" + ] + }, + { + "group": "Textgen", + "pages": [ + "ja/built-in-nodes/TextGenerate", + "ja/built-in-nodes/TextGenerateLTX2Prompt" + ] + }, + { + "group": "Training", + "pages": [ + "ja/built-in-nodes/LossGraphNode", + "ja/built-in-nodes/TrainLoraNode" + ] + }, + { + "group": "ローダー", + "pages": [ + { + "group": "Video Models", + "pages": [ + "ja/built-in-nodes/ImageOnlyCheckpointLoader" + ] + }, + "ja/built-in-nodes/AudioEncoderLoader", + "ja/built-in-nodes/CheckpointLoaderSimple", + "ja/built-in-nodes/CLIPVisionLoader", + "ja/built-in-nodes/ClipVisionLoader", + "ja/built-in-nodes/ControlNetLoader", + "ja/built-in-nodes/DiffControlNetLoader", + "ja/built-in-nodes/GLIGENLoader", + "ja/built-in-nodes/HunyuanVideo15SuperResolution", + "ja/built-in-nodes/HypernetworkLoader", + "ja/built-in-nodes/LatentUpscaleModelLoader", + "ja/built-in-nodes/LoadLatent", + "ja/built-in-nodes/LoraLoaderBypass", + "ja/built-in-nodes/LoraLoaderBypassModelOnly", + "ja/built-in-nodes/LoraModelLoader", + "ja/built-in-nodes/SaveLoRA", + "ja/built-in-nodes/StyleModelLoader", + "ja/built-in-nodes/unCLIPCheckpointLoader", + "ja/built-in-nodes/UpscaleModelLoader", + "ja/built-in-nodes/VAELoader" + ] + }, + { + "group": "画像", + "pages": [ + { + "group": "Animation", + "pages": [ + "ja/built-in-nodes/SaveAnimatedPNG", + "ja/built-in-nodes/SaveAnimatedWEBP" + ] + }, + { + "group": "Batch", + "pages": [ + "ja/built-in-nodes/ImageFromBatch", + "ja/built-in-nodes/ImageRGBToYUV", + "ja/built-in-nodes/ImageYUVToRGB", + "ja/built-in-nodes/RebatchImages", + "ja/built-in-nodes/RepeatImageBatch" + ] + }, + { + "group": "Image", + "pages": [ + "ja/built-in-nodes/AdjustBrightness", + "ja/built-in-nodes/AdjustContrast", + "ja/built-in-nodes/CenterCropImages", + "ja/built-in-nodes/ImageDeduplication", + "ja/built-in-nodes/ImageGrid", + "ja/built-in-nodes/MergeImageLists", + "ja/built-in-nodes/NormalizeImages", + "ja/built-in-nodes/RandomCropImages", + "ja/built-in-nodes/ResizeImagesByLongerEdge", + "ja/built-in-nodes/ResizeImagesByShorterEdge", + "ja/built-in-nodes/ShuffleDataset", + "ja/built-in-nodes/ShuffleImageTextDataset" + ] + }, + { + "group": "Postprocessing", + "pages": [ + "ja/built-in-nodes/ImageBlend", + "ja/built-in-nodes/ImageBlur", + "ja/built-in-nodes/ImageQuantize", + "ja/built-in-nodes/ImageSharpen", + "ja/built-in-nodes/Morphology" + ] + }, + { + "group": "Preprocessors", + "pages": [ + "ja/built-in-nodes/Canny" + ] + }, + { + "group": "Save", + "pages": [ + "ja/built-in-nodes/SaveSVGNode" + ] + }, + { + "group": "Shader", + "pages": [ + "ja/built-in-nodes/GLSLShader" + ] + }, + { + "group": "Text", + "pages": [ + "ja/built-in-nodes/AddTextPrefix", + "ja/built-in-nodes/AddTextSuffix", + "ja/built-in-nodes/MergeTextLists", + "ja/built-in-nodes/ReplaceText", + "ja/built-in-nodes/StripWhitespace", + "ja/built-in-nodes/TextToLowercase", + "ja/built-in-nodes/TextToUppercase", + "ja/built-in-nodes/TruncateText" + ] + }, + { + "group": "Transform", + "pages": [ + "ja/built-in-nodes/ImageCrop", + "ja/built-in-nodes/ImageCropV2", + "ja/built-in-nodes/ImageFlip", + "ja/built-in-nodes/ImageRotate", + "ja/built-in-nodes/ImageStitch", + "ja/built-in-nodes/ResizeAndPadImage" + ] + }, + { + "group": "アップスケーリング", + "pages": [ + "ja/built-in-nodes/ImageScale", + "ja/built-in-nodes/ImageScaleBy", + "ja/built-in-nodes/ImageScaleToMaxDimension", + "ja/built-in-nodes/ImageScaleToTotalPixels", + "ja/built-in-nodes/ImageUpscaleWithModel" + ] + }, + { + "group": "Video", + "pages": [ + "ja/built-in-nodes/CreateVideo", + "ja/built-in-nodes/GetVideoComponents", + "ja/built-in-nodes/LoadVideo", + "ja/built-in-nodes/SaveVideo", + "ja/built-in-nodes/SaveWEBM", + "ja/built-in-nodes/Video Slice" + ] + }, + "ja/built-in-nodes/BatchImagesNode", + "ja/built-in-nodes/EmptyImage", + "ja/built-in-nodes/GetImageSize", + "ja/built-in-nodes/ImageAddNoise", + "ja/built-in-nodes/ImageBatch", + "ja/built-in-nodes/ImageCompare", + "ja/built-in-nodes/ImageCompositeMasked", + "ja/built-in-nodes/ImageInvert", + "ja/built-in-nodes/ImagePadForOutpaint", + "ja/built-in-nodes/LoadImage", + "ja/built-in-nodes/LoadImageDataSetFromFolder", + "ja/built-in-nodes/LoadImageOutput", + "ja/built-in-nodes/LoadImageSetFromFolderNode", + "ja/built-in-nodes/LoadImageSetNode", + "ja/built-in-nodes/LoadImageTextDataSetFromFolder", + "ja/built-in-nodes/LoadImageTextSetFromFolderNode", + "ja/built-in-nodes/LoadTrainingDataset", + "ja/built-in-nodes/LoraLoader", + "ja/built-in-nodes/LoraLoaderModelOnly", + "ja/built-in-nodes/LTXVPreprocess", + "ja/built-in-nodes/MakeTrainingDataset", + "ja/built-in-nodes/PreviewImage", + "ja/built-in-nodes/ResizeImageMaskNode", + "ja/built-in-nodes/ResolutionBucket", + "ja/built-in-nodes/SaveImage", + "ja/built-in-nodes/SaveImageDataSetToFolder", + "ja/built-in-nodes/SaveImageTextDataSetToFolder", + "ja/built-in-nodes/SaveTrainingDataset", + "ja/built-in-nodes/WebcamCapture" + ] + }, + { + "group": "ユーティリティ", + "pages": [ + { + "group": "Primitive", + "pages": [ + "ja/built-in-nodes/PrimitiveBoolean", + "ja/built-in-nodes/PrimitiveBoundingBox", + "ja/built-in-nodes/PrimitiveFloat", + "ja/built-in-nodes/PrimitiveInt", + "ja/built-in-nodes/PrimitiveString", + "ja/built-in-nodes/PrimitiveStringMultiline" + ] + }, + { + "group": "String", + "pages": [ + "ja/built-in-nodes/CaseConverter", + "ja/built-in-nodes/RegexExtract", + "ja/built-in-nodes/RegexMatch", + "ja/built-in-nodes/RegexReplace", + "ja/built-in-nodes/StringCompare", + "ja/built-in-nodes/StringConcatenate", + "ja/built-in-nodes/StringContains", + "ja/built-in-nodes/StringLength", + "ja/built-in-nodes/StringReplace", + "ja/built-in-nodes/StringSubstring", + "ja/built-in-nodes/StringTrim" + ] + }, + "ja/built-in-nodes/BatchImagesMasksLatentsNode", + "ja/built-in-nodes/ColorToRGBInt", + "ja/built-in-nodes/CustomCombo", + "ja/built-in-nodes/Mahiro", + "ja/built-in-nodes/MarkdownNote", + "ja/built-in-nodes/Note", + "ja/built-in-nodes/PreviewAny", + "ja/built-in-nodes/Reroute", + "ja/built-in-nodes/TerminalLog", + "ja/built-in-nodes/wanBlockSwap" + ] + }, + { + "group": "条件付け", + "pages": [ + { + "group": "3D Models", + "pages": [ + "ja/built-in-nodes/StableZero123_Conditioning", + "ja/built-in-nodes/StableZero123_Conditioning_Batched", + "ja/built-in-nodes/SV3D_Conditioning" + ] + }, + { + "group": "Controlnet", + "pages": [ + "ja/built-in-nodes/ControlNetApply", + "ja/built-in-nodes/ControlNetApplyAdvanced", + "ja/built-in-nodes/ControlNetApplySD3", + "ja/built-in-nodes/ControlNetInpaintingAliMamaApply", + "ja/built-in-nodes/SetUnionControlNetType" + ] + }, + { + "group": "Gligen", + "pages": [ + "ja/built-in-nodes/GLIGENTextBoxApply" + ] + }, + { + "group": "Inpaint", + "pages": [ + "ja/built-in-nodes/CosmosImageToVideoLatent", + "ja/built-in-nodes/CosmosPredict2ImageToVideoLatent", + "ja/built-in-nodes/InpaintModelConditioning", + "ja/built-in-nodes/Wan22ImageToVideoLatent" + ] + }, + { + "group": "Instructpix2Pix", + "pages": [ + "ja/built-in-nodes/InstructPixToPixConditioning" + ] + }, + { + "group": "Lotus", + "pages": [ + "ja/built-in-nodes/LotusConditioning" + ] + }, + { + "group": "Stable Cascade", + "pages": [ + "ja/built-in-nodes/StableCascade_StageB_Conditioning", + "ja/built-in-nodes/StableCascade_SuperResolutionControlnet" + ] + }, + { + "group": "Style Model", + "pages": [ + "ja/built-in-nodes/StyleModelApply" + ] + }, + { + "group": "Upscale Diffusion", + "pages": [ + "ja/built-in-nodes/SD_4XUpscale_Conditioning" + ] + }, + { + "group": "Video Models", + "pages": [ + "ja/built-in-nodes/conditioning/video-models/wan-vace-to-video", + "ja/built-in-nodes/GenerateTracks", + "ja/built-in-nodes/Hunyuan3Dv2Conditioning", + "ja/built-in-nodes/Hunyuan3Dv2ConditioningMultiView", + "ja/built-in-nodes/HunyuanImageToVideo", + "ja/built-in-nodes/HunyuanVideo15ImageToVideo", + "ja/built-in-nodes/Kandinsky5ImageToVideo", + "ja/built-in-nodes/LTXVAddGuide", + "ja/built-in-nodes/LTXVConditioning", + "ja/built-in-nodes/LTXVCropGuides", + "ja/built-in-nodes/LTXVImgToVideo", + "ja/built-in-nodes/LTXVImgToVideoInplace", + "ja/built-in-nodes/NormalizeVideoLatentStart", + "ja/built-in-nodes/Stablezero123Conditioning", + "ja/built-in-nodes/Stablezero123ConditioningBatched", + "ja/built-in-nodes/SVD_img2vid_Conditioning", + "ja/built-in-nodes/SvdImg2vidConditioning", + "ja/built-in-nodes/Wan22FunControlToVideo", + "ja/built-in-nodes/WanAnimateToVideo", + "ja/built-in-nodes/WanCameraImageToVideo", + "ja/built-in-nodes/WanFirstLastFrameToVideo", + "ja/built-in-nodes/WanFunControlToVideo", + "ja/built-in-nodes/WanFunInpaintToVideo", + "ja/built-in-nodes/WanHuMoImageToVideo", + "ja/built-in-nodes/WanImageToVideo", + "ja/built-in-nodes/WanInfiniteTalkToVideo", + "ja/built-in-nodes/WanMoveConcatTrack", + "ja/built-in-nodes/WanMoveTracksFromCoords", + "ja/built-in-nodes/WanMoveTrackToVideo", + "ja/built-in-nodes/WanMoveVisualizeTracks", + "ja/built-in-nodes/WanPhantomSubjectToVideo", + "ja/built-in-nodes/WanSoundImageToVideo", + "ja/built-in-nodes/WanSoundImageToVideoExtend", + "ja/built-in-nodes/WanTrackToVideo", + "ja/built-in-nodes/WanVaceToVideo" + ] + }, + "ja/built-in-nodes/AudioEncoderEncode", + "ja/built-in-nodes/CLIPSetLastLayer", + "ja/built-in-nodes/ClipSetLastLayer", + "ja/built-in-nodes/CLIPTextEncode", + "ja/built-in-nodes/ClipTextEncode", + "ja/built-in-nodes/CLIPTextEncodeControlnet", + "ja/built-in-nodes/CLIPTextEncodeLumina2", + "ja/built-in-nodes/CLIPVisionEncode", + "ja/built-in-nodes/ClipVisionEncode", + "ja/built-in-nodes/ConditioningAverage", + "ja/built-in-nodes/ConditioningCombine", + "ja/built-in-nodes/ConditioningConcat", + "ja/built-in-nodes/ConditioningSetArea", + "ja/built-in-nodes/ConditioningSetAreaPercentage", + "ja/built-in-nodes/ConditioningSetAreaPercentageVideo", + "ja/built-in-nodes/ConditioningSetAreaStrength", + "ja/built-in-nodes/ConditioningSetMask", + "ja/built-in-nodes/ConditioningStableAudio", + "ja/built-in-nodes/HunyuanRefinerLatent", + "ja/built-in-nodes/PerpNeg", + "ja/built-in-nodes/Sd4xupscaleConditioning", + "ja/built-in-nodes/T5TokenizerOptions", + "ja/built-in-nodes/TextEncodeAceStepAudio", + "ja/built-in-nodes/TextEncodeAceStepAudio1.5", + "ja/built-in-nodes/unCLIPConditioning" + ] + }, + { + "group": "モデルパッチ", + "pages": [ + { + "group": "Chroma Radiance", + "pages": [ + "ja/built-in-nodes/ChromaRadianceOptions" + ] + }, + { + "group": "Unet", + "pages": [ + "ja/built-in-nodes/Epsilon Scaling", + "ja/built-in-nodes/EpsilonScaling", + "ja/built-in-nodes/FreeU", + "ja/built-in-nodes/FreeU_V2", + "ja/built-in-nodes/HyperTile", + "ja/built-in-nodes/PatchModelAddDownscale", + "ja/built-in-nodes/PerturbedAttentionGuidance", + "ja/built-in-nodes/TemporalScoreRescaling", + "ja/built-in-nodes/TomePatchModel" + ] + } + ] + }, + { + "group": "潜在変数", + "pages": [ + { + "group": "3D", + "pages": [ + "ja/built-in-nodes/EmptyLatentHunyuan3Dv2", + "ja/built-in-nodes/VAEDecodeHunyuan3D" + ] + }, + { + "group": "Advanced", + "pages": [ + { + "group": "Operations", + "pages": [ + "ja/built-in-nodes/LatentApplyOperation", + "ja/built-in-nodes/LatentApplyOperationCFG", + "ja/built-in-nodes/LatentOperationSharpen", + "ja/built-in-nodes/LatentOperationTonemapReinhard" + ] + }, + "ja/built-in-nodes/LatentAdd", + "ja/built-in-nodes/LatentBatchSeedBehavior", + "ja/built-in-nodes/LatentConcat", + "ja/built-in-nodes/LatentCut", + "ja/built-in-nodes/LatentCutToBatch", + "ja/built-in-nodes/LatentInterpolate", + "ja/built-in-nodes/LatentMultiply", + "ja/built-in-nodes/LatentSubtract" + ] + }, + { + "group": "Audio", + "pages": [ + "ja/built-in-nodes/EmptyAceStep1.5LatentAudio", + "ja/built-in-nodes/EmptyAceStepLatentAudio", + "ja/built-in-nodes/EmptyLatentAudio", + "ja/built-in-nodes/LTXVEmptyLatentAudio", + "ja/built-in-nodes/VAEDecodeAudio", + "ja/built-in-nodes/VAEDecodeAudioTiled", + "ja/built-in-nodes/VAEEncodeAudio" + ] + }, + { + "group": "Batch", + "pages": [ + "ja/built-in-nodes/LatentBatch", + "ja/built-in-nodes/LatentFromBatch", + "ja/built-in-nodes/RebatchLatents", + "ja/built-in-nodes/RepeatLatentBatch", + "ja/built-in-nodes/ReplaceVideoLatentFrames" + ] + }, + { + "group": "Chroma Radiance", + "pages": [ + "ja/built-in-nodes/EmptyChromaRadianceLatentImage" + ] + }, + { + "group": "Inpaint", + "pages": [ + "ja/built-in-nodes/SetLatentNoiseMask", + "ja/built-in-nodes/VAEEncodeForInpaint" + ] + }, + { + "group": "Qwen", + "pages": [ + "ja/built-in-nodes/EmptyQwenImageLayeredLatentImage" + ] + }, + { + "group": "Sd3", + "pages": [ + "ja/built-in-nodes/EmptySD3LatentImage" + ] + }, + { + "group": "Stable Cascade", + "pages": [ + "ja/built-in-nodes/StableCascade_EmptyLatentImage", + "ja/built-in-nodes/StableCascade_StageC_VAEEncode" + ] + }, + { + "group": "Transform", + "pages": [ + "ja/built-in-nodes/LatentCrop", + "ja/built-in-nodes/LatentFlip", + "ja/built-in-nodes/LatentRotate" + ] + }, + { + "group": "Video", + "pages": [ + { + "group": "Ltxv", + "pages": [ + "ja/built-in-nodes/EmptyLTXVLatentVideo", + "ja/built-in-nodes/LTXVConcatAVLatent", + "ja/built-in-nodes/LTXVSeparateAVLatent" + ] + }, + "ja/built-in-nodes/EmptyCosmosLatentVideo", + "ja/built-in-nodes/EmptyHunyuanLatentVideo", + "ja/built-in-nodes/EmptyHunyuanVideo15Latent", + "ja/built-in-nodes/EmptyMochiLatentVideo", + "ja/built-in-nodes/latent/video/trim-video-latent", + "ja/built-in-nodes/LTXVLatentUpsampler", + "ja/built-in-nodes/TrimVideoLatent" + ] + }, + "ja/built-in-nodes/BatchLatentsNode", + "ja/built-in-nodes/EmptyFlux2LatentImage", + "ja/built-in-nodes/EmptyHunyuanImageLatent", + "ja/built-in-nodes/EmptyLatentImage", + "ja/built-in-nodes/HunyuanVideo15LatentUpscaleWithModel", + "ja/built-in-nodes/LatentBlend", + "ja/built-in-nodes/LatentComposite", + "ja/built-in-nodes/LatentCompositeMasked", + "ja/built-in-nodes/LatentUpscale", + "ja/built-in-nodes/LatentUpscaleBy", + "ja/built-in-nodes/SaveLatent", + "ja/built-in-nodes/VAEDecode", + "ja/built-in-nodes/VAEDecodeTiled", + "ja/built-in-nodes/VAEEncode", + "ja/built-in-nodes/VAEEncodeTiled" + ] + }, + { + "group": "サンプリング", + "pages": [ + { + "group": "Custom Sampling", + "pages": [ + { + "group": "Guiders", + "pages": [ + "ja/built-in-nodes/BasicGuider", + "ja/built-in-nodes/CFGGuider", + "ja/built-in-nodes/DualCFGGuider" + ] + }, + { + "group": "Noise", + "pages": [ + "ja/built-in-nodes/AddNoise", + "ja/built-in-nodes/DisableNoise", + "ja/built-in-nodes/RandomNoise" + ] + }, + { + "group": "Samplers", + "pages": [ + "ja/built-in-nodes/KSamplerSelect", + "ja/built-in-nodes/SamplerDPMAdaptative", + "ja/built-in-nodes/SamplerDpmpp2mSde", + "ja/built-in-nodes/SamplerDPMPP_2M_SDE", + "ja/built-in-nodes/SamplerDPMPP_2S_Ancestral", + "ja/built-in-nodes/SamplerDPMPP_3M_SDE", + "ja/built-in-nodes/SamplerDPMPP_SDE", + "ja/built-in-nodes/SamplerDpmppSde", + "ja/built-in-nodes/SamplerER_SDE", + "ja/built-in-nodes/SamplerEulerAncestral", + "ja/built-in-nodes/SamplerEulerAncestralCFGPP", + "ja/built-in-nodes/SamplerEulerCFGpp", + "ja/built-in-nodes/SamplerLCMUpscale", + "ja/built-in-nodes/SamplerLMS", + "ja/built-in-nodes/SamplerSASolver", + "ja/built-in-nodes/SamplerSEEDS2" + ] + }, + { + "group": "Schedulers", + "pages": [ + "ja/built-in-nodes/AlignYourStepsScheduler", + "ja/built-in-nodes/BasicScheduler", + "ja/built-in-nodes/BetaSamplingScheduler", + "ja/built-in-nodes/ExponentialScheduler", + "ja/built-in-nodes/Flux2Scheduler", + "ja/built-in-nodes/GITSScheduler", + "ja/built-in-nodes/KarrasScheduler", + "ja/built-in-nodes/LaplaceScheduler", + "ja/built-in-nodes/LTXVScheduler", + "ja/built-in-nodes/OptimalStepsScheduler", + "ja/built-in-nodes/PolyexponentialScheduler", + "ja/built-in-nodes/SDTurboScheduler", + "ja/built-in-nodes/VPScheduler" + ] + }, + { + "group": "Sigmas", + "pages": [ + "ja/built-in-nodes/ExtendIntermediateSigmas", + "ja/built-in-nodes/FlipSigmas", + "ja/built-in-nodes/SamplingPercentToSigma", + "ja/built-in-nodes/SetFirstSigma", + "ja/built-in-nodes/SplitSigmas", + "ja/built-in-nodes/SplitSigmasDenoise" + ] + }, + "ja/built-in-nodes/APG", + "ja/built-in-nodes/ManualSigmas", + "ja/built-in-nodes/SamplerCustom", + "ja/built-in-nodes/SamplerCustomAdvanced" + ] + }, + { + "group": "Video Models", + "pages": [ + "ja/built-in-nodes/VideoLinearCFGGuidance", + "ja/built-in-nodes/VideoTriangleCFGGuidance" + ] + }, + "ja/built-in-nodes/DifferentialDiffusion", + "ja/built-in-nodes/KSampler", + "ja/built-in-nodes/KSamplerAdvanced", + "ja/built-in-nodes/PerpNegGuider", + "ja/built-in-nodes/sampling/ksampler", + "ja/built-in-nodes/SelfAttentionGuidance" + ] + }, + { + "group": "上級", + "pages": [ + { + "group": "Attention Experiments", + "pages": [ + "ja/built-in-nodes/CLIPAttentionMultiply", + "ja/built-in-nodes/UNetCrossAttentionMultiply", + "ja/built-in-nodes/UNetSelfAttentionMultiply", + "ja/built-in-nodes/UNetTemporalAttentionMultiply" + ] + }, + { + "group": "Conditioning", + "pages": [ + { + "group": "Audio", + "pages": [ + "ja/built-in-nodes/ReferenceTimbreAudio" + ] + }, + { + "group": "Edit Models", + "pages": [ + "ja/built-in-nodes/ReferenceLatent" + ] + }, + { + "group": "Flux", + "pages": [ + "ja/built-in-nodes/CLIPTextEncodeFlux", + "ja/built-in-nodes/ClipTextEncodeFlux", + "ja/built-in-nodes/FluxDisableGuidance", + "ja/built-in-nodes/FluxGuidance", + "ja/built-in-nodes/FluxKontextImageScale", + "ja/built-in-nodes/FluxKontextMultiReferenceLatentMethod" + ] + }, + { + "group": "Kandinsky5", + "pages": [ + "ja/built-in-nodes/CLIPTextEncodeKandinsky5" + ] + }, + "ja/built-in-nodes/CLIPTextEncodeHiDream", + "ja/built-in-nodes/CLIPTextEncodeHunyuanDiT", + "ja/built-in-nodes/ClipTextEncodeHunyuanDit", + "ja/built-in-nodes/CLIPTextEncodePixArtAlpha", + "ja/built-in-nodes/CLIPTextEncodeSD3", + "ja/built-in-nodes/CLIPTextEncodeSDXL", + "ja/built-in-nodes/ClipTextEncodeSdxl", + "ja/built-in-nodes/CLIPTextEncodeSDXLRefiner", + "ja/built-in-nodes/ClipTextEncodeSdxlRefiner", + "ja/built-in-nodes/ConditioningSetTimestepRange", + "ja/built-in-nodes/ConditioningZeroOut", + "ja/built-in-nodes/TextEncodeHunyuanVideo_ImageToVideo", + "ja/built-in-nodes/TextEncodeQwenImageEdit", + "ja/built-in-nodes/TextEncodeQwenImageEditPlus", + "ja/built-in-nodes/TextEncodeZImageOmni" + ] + }, + { + "group": "Debug", + "pages": [ + { + "group": "Model", + "pages": [ + "ja/built-in-nodes/EasyCache", + "ja/built-in-nodes/LazyCache", + "ja/built-in-nodes/ModelComputeDtype" + ] + } + ] + }, + { + "group": "Guidance", + "pages": [ + "ja/built-in-nodes/CFGNorm", + "ja/built-in-nodes/CFGZeroStar", + "ja/built-in-nodes/NAGuidance", + "ja/built-in-nodes/SkipLayerGuidanceDiT", + "ja/built-in-nodes/SkipLayerGuidanceDiTSimple", + "ja/built-in-nodes/SkipLayerGuidanceSD3", + "ja/built-in-nodes/TCFG" + ] + }, + { + "group": "Hooks", + "pages": [ + { + "group": "Clip", + "pages": [ + "ja/built-in-nodes/SetClipHooks" + ] + }, + { + "group": "Combine", + "pages": [ + "ja/built-in-nodes/CombineHooks", + "ja/built-in-nodes/CombineHooksEight", + "ja/built-in-nodes/CombineHooksFour" + ] + }, + { + "group": "Cond Pair", + "pages": [ + "ja/built-in-nodes/PairConditioningCombine", + "ja/built-in-nodes/PairConditioningSetDefaultAndCombine", + "ja/built-in-nodes/PairConditioningSetProperties", + "ja/built-in-nodes/PairConditioningSetPropertiesAndCombine" + ] + }, + { + "group": "Cond Single", + "pages": [ + "ja/built-in-nodes/ConditioningSetDefaultAndCombine", + "ja/built-in-nodes/ConditioningSetProperties", + "ja/built-in-nodes/ConditioningSetPropertiesAndCombine" + ] + }, + { + "group": "Create", + "pages": [ + "ja/built-in-nodes/CreateHookLora", + "ja/built-in-nodes/CreateHookLoraModelOnly", + "ja/built-in-nodes/CreateHookModelAsLora", + "ja/built-in-nodes/CreateHookModelAsLoraModelOnly" + ] + }, + { + "group": "Manual", + "pages": [ + "ja/built-in-nodes/SetModelHooksOnCond" + ] + }, + { + "group": "Scheduling", + "pages": [ + "ja/built-in-nodes/CreateHookKeyframe", + "ja/built-in-nodes/CreateHookKeyframesFromFloats", + "ja/built-in-nodes/CreateHookKeyframesInterpolated", + "ja/built-in-nodes/SetHookKeyframes" + ] + }, + "ja/built-in-nodes/ConditioningTimestepsRange" + ] + }, + { + "group": "Loaders", + "pages": [ + { + "group": "Deprecated", + "pages": [ + "ja/built-in-nodes/DiffusersLoader" + ] + }, + { + "group": "Qwen", + "pages": [ + "ja/built-in-nodes/QwenImageDiffsynthControlnet" + ] + }, + { + "group": "Zimage", + "pages": [ + "ja/built-in-nodes/ZImageFunControlnet" + ] + }, + "ja/built-in-nodes/CheckpointLoader", + "ja/built-in-nodes/CLIPLoader", + "ja/built-in-nodes/ClipLoader", + "ja/built-in-nodes/DeprecatedCheckpointLoader", + "ja/built-in-nodes/DeprecatedDiffusersLoader", + "ja/built-in-nodes/DualCLIPLoader", + "ja/built-in-nodes/LTXAVTextEncoderLoader", + "ja/built-in-nodes/ModelPatchLoader", + "ja/built-in-nodes/QuadrupleCLIPLoader", + "ja/built-in-nodes/TripleCLIPLoader", + "ja/built-in-nodes/UNETLoader" + ] + }, + { + "group": "Model", + "pages": [ + "ja/built-in-nodes/ModelSamplingAuraFlow", + "ja/built-in-nodes/ModelSamplingContinuousEDM", + "ja/built-in-nodes/ModelSamplingContinuousV", + "ja/built-in-nodes/ModelSamplingDiscrete", + "ja/built-in-nodes/ModelSamplingFlux", + "ja/built-in-nodes/ModelSamplingLTXV", + "ja/built-in-nodes/ModelSamplingSD3", + "ja/built-in-nodes/ModelSamplingStableCascade", + "ja/built-in-nodes/RenormCFG", + "ja/built-in-nodes/RescaleCFG" + ] + }, + { + "group": "Model Merging", + "pages": [ + { + "group": "Model Specific", + "pages": [ + "ja/built-in-nodes/ModelMergeAuraflow", + "ja/built-in-nodes/ModelMergeCosmos14B", + "ja/built-in-nodes/ModelMergeCosmos7B", + "ja/built-in-nodes/ModelMergeCosmosPredict2_14B", + "ja/built-in-nodes/ModelMergeCosmosPredict2_2B", + "ja/built-in-nodes/ModelMergeFlux1", + "ja/built-in-nodes/ModelMergeLTXV", + "ja/built-in-nodes/ModelMergeMochiPreview", + "ja/built-in-nodes/ModelMergeQwenImage", + "ja/built-in-nodes/ModelMergeSD1", + "ja/built-in-nodes/ModelMergeSD35_Large", + "ja/built-in-nodes/ModelMergeSD3_2B", + "ja/built-in-nodes/ModelMergeSDXL", + "ja/built-in-nodes/ModelMergeWAN2_1" + ] + }, + "ja/built-in-nodes/CheckpointSave", + "ja/built-in-nodes/CLIPAdd", + "ja/built-in-nodes/CLIPMergeAdd", + "ja/built-in-nodes/CLIPMergeSimple", + "ja/built-in-nodes/ClipMergeSimple", + "ja/built-in-nodes/CLIPMergeSubtract", + "ja/built-in-nodes/CLIPSave", + "ja/built-in-nodes/ClipSave", + "ja/built-in-nodes/CLIPSubtract", + "ja/built-in-nodes/ImageOnlyCheckpointSave", + "ja/built-in-nodes/LoraSave", + "ja/built-in-nodes/ModelMergeAdd", + "ja/built-in-nodes/ModelMergeBlocks", + "ja/built-in-nodes/ModelMergeSimple", + "ja/built-in-nodes/ModelMergeSubtract", + "ja/built-in-nodes/ModelSave", + "ja/built-in-nodes/SaveLoRANode", + "ja/built-in-nodes/VAESave" + ] + }, + { + "group": "Model Patches", + "pages": [ + { + "group": "Flux", + "pages": [ + "ja/built-in-nodes/USOStyleReference" + ] + }, + "ja/built-in-nodes/ScaleROPE" + ] + }, + { + "group": "Photomaker", + "pages": [ + "ja/built-in-nodes/PhotoMakerEncode", + "ja/built-in-nodes/PhotoMakerLoader" + ] + }, + "ja/built-in-nodes/FreSca", + "ja/built-in-nodes/TorchCompileModel" + ] + } + ] + } + ] + }, + { + "tab": "開発", + "pages": [ + "ja/development/overview", + { + "group": "ComfyUI Server", + "icon": "code", + "pages": [ + "ja/development/comfyui-server/comms_overview", + "ja/development/comfyui-server/comms_messages", + "ja/development/comfyui-server/comms_routes", + "ja/development/comfyui-server/execution_model_inversion_guide", + "ja/development/comfyui-server/api-key-integration" + ] + }, + { + "group": "Cloud API", + "icon": "cloud", + "pages": [ + "ja/development/cloud/overview", + "ja/development/cloud/api-reference", + "ja/development/cloud/openapi" + ] + }, + { + "group": "CLI", + "pages": [ + "ja/comfy-cli/getting-started", + "ja/comfy-cli/reference", + "ja/comfy-cli/troubleshooting" + ] + }, + { + "group": "カスタムノード開発", + "pages": [ + "ja/custom-nodes/overview", + "ja/custom-nodes/walkthrough", + { + "group": "バックエンド", + "icon": "python", + "pages": [ + "ja/custom-nodes/backend/server_overview", + "ja/custom-nodes/backend/lifecycle", + "ja/custom-nodes/backend/datatypes", + "ja/custom-nodes/backend/images_and_masks", + "ja/custom-nodes/backend/more_on_inputs", + "ja/custom-nodes/backend/lazy_evaluation", + "ja/custom-nodes/backend/expansion", + "ja/custom-nodes/backend/lists", + "ja/custom-nodes/backend/snippets", + "ja/custom-nodes/backend/tensors", + "ja/custom-nodes/backend/node-replacement" + ] + }, + { + "group": "UI", + "icon": "js", + "pages": [ + "ja/custom-nodes/js/javascript_overview", + "ja/custom-nodes/js/javascript_hooks", + "ja/custom-nodes/js/javascript_objects_and_hijacking", + "ja/custom-nodes/js/javascript_settings", + "ja/custom-nodes/js/javascript_dialog", + "ja/custom-nodes/js/javascript_toast", + "ja/custom-nodes/js/javascript_about_panel_badges", + "ja/custom-nodes/js/javascript_bottom_panel_tabs", + "ja/custom-nodes/js/javascript_sidebar_tabs", + "ja/custom-nodes/js/javascript_selection_toolbox", + "ja/custom-nodes/js/javascript_commands_keybindings", + "ja/custom-nodes/js/javascript_topbar_menu", + "ja/custom-nodes/js/context-menu-migration", + "ja/custom-nodes/js/subgraphs", + "ja/custom-nodes/js/javascript_examples", + "ja/custom-nodes/i18n" + ] + }, + "ja/custom-nodes/v3_migration", + "ja/custom-nodes/help_page", + "ja/custom-nodes/workflow_templates", + "ja/custom-nodes/subgraph_blueprints" + ] + }, + { + "group": "レジストリ(Registry)", + "pages": [ + "ja/registry/overview", + "ja/registry/publishing", + "ja/registry/claim-my-node", + "ja/registry/standards", + "ja/registry/cicd", + "ja/registry/specifications" + ] + }, + { + "group": "仕様", + "pages": [ + { + "group": "ワークフロー JSON", + "pages": [ + "ja/specs/workflow_json", + "ja/specs/workflow_json_0.4" + ] + }, + { + "group": "ノード定義", + "pages": [ + "ja/specs/nodedef_json", + "ja/specs/nodedef_json_1_0" + ] + } + ] + } + ] + }, + { + "tab": "サポート", + "pages": [ + "ja/support/contact-support", + { + "group": "アカウント管理", + "icon": "user", + "pages": [ + "ja/account/create-account", + "ja/account/login", + "ja/account/delete-account" + ] + }, + { + "group": "請求サポート", + "pages": [ + { + "group": "サブスクリプション", + "pages": [ + "ja/support/subscription/subscribing", + "ja/support/subscription/managing", + "ja/support/subscription/changing-plan", + "ja/support/subscription/canceling" + ] + }, + { + "group": "お支払い", + "pages": [ + "ja/support/payment/accepted-payment-methods", + "ja/support/payment/editing-payment-information", + "ja/support/payment/payment-history", + "ja/support/payment/unsuccessful-payments", + "ja/support/payment/payment-currency", + "ja/support/payment/invoice-information" + ] + } + ] + }, + { + "group": "トラブルシューティング", + "icon": "bug", + "pages": [ + "ja/troubleshooting/overview", + "ja/troubleshooting/model-issues", + "ja/troubleshooting/custom-node-issues" + ] + }, + { + "group": "コミュニティ", + "pages": [ + "ja/community/contributing", + "ja/community/links" + ] + } + ] + }, + { + "tab": "Registry APIリファレンス", + "openapi": { + "source": "https://api.comfy.org/openapi", + "directory": "zh-CN/api-reference" + } + }, + { + "tab": "Cloud APIリファレンス", + "openapi": { + "source": "openapi-cloud.yaml", + "directory": "zh-CN/api-reference/cloud" + } + } + ], + "footer": { + "socials": { + "github": "https://github.com/comfyanonymous/ComfyUI/", + "x": "https://x.com/ComfyUI", + "discord": "https://discord.com/invite/comfyorg", + "youtube": "https://www.youtube.com/@comfyorg" + }, + "links": [ + { + "header": "リソース", + "items": [ + { + "label": "インストール", + "href": "https://docs.comfy.org/ja/installation/system_requirements" + }, + { + "label": "チュートリアル", + "href": "https://docs.comfy.org/ja/tutorials/basic/text-to-image" + }, + { + "label": "開発", + "href": "https://docs.comfy.org/ja/development/overview" + } + ] + }, + { + "header": "プロダクト", + "items": [ + { + "label": "機能", + "href": "https://www.comfy.org/?utm_source=docs#features-1" + }, + { + "label": "ギャラリー", + "href": "https://www.comfy.org/gallery?utm_source=docs" + }, + { + "label": "ダウンロード", + "href": "https://www.comfy.org/download?utm_source=docs" + } + ] + }, + { + "header": "会社情報", + "items": [ + { + "label": "概要", + "href": "https://www.comfy.org/about?utm_source=docs" + }, + { + "label": "採用情報", + "href": "https://www.comfy.org/careers?utm_source=docs" + }, + { + "label": "利用規約", + "href": "https://www.comfy.org/terms-of-service?utm_source=docs" + }, + { + "label": "プライバシーポリシー", + "href": "https://www.comfy.org/privacy-policy?utm_source=docs" + } + ] + } + ] + }, + "navbar": { + "links": [ + { + "label": "ダウンロード", + "href": "https://comfy.org/download?utm_source=docs" + } + ], + "primary": { + "type": "button", + "label": "Comfy Cloud", + "href": "https://comfy.org/cloud?utm_source=docs" + } + } } ] }, @@ -4373,6 +6540,58 @@ { "source": "/zh-CN/custom-nodes/backend/subgraphs", "destination": "/zh-CN/custom-nodes/backend/expansion" + }, + { + "source": "/ja/get_started/gettingstarted", + "destination": "/ja/get_started/first_generation" + }, + { + "source": "/ja/advanced/ltxv", + "destination": "/ja/tutorials/video/ltxv" + }, + { + "source": "/ja/advanced/hunyuan-video", + "destination": "/ja/tutorials/video/hunyuan-video" + }, + { + "source": "/ja/tutorials/advanced/hidream", + "destination": "/ja/tutorials/image/hidream/hidream-i1" + }, + { + "source": "/ja/tutorials/advanced/hidream-e1", + "destination": "/ja/tutorials/image/hidream/hidream-e1" + }, + { + "source": "/ja/tutorials/api-nodes/:slug*", + "destination": "/ja/tutorials/partner-nodes/:slug*" + }, + { + "source": "/ja/built-in-nodes/api-nodes/:slug*", + "destination": "/ja/built-in-nodes/partner-node/:slug*" + }, + { + "source": "/ja/tutorials/video/hunyuan-video", + "destination": "/ja/tutorials/video/hunyuan/hunyuan-video" + }, + { + "source": "/ja/custom-nodes/backend/subgraphs", + "destination": "/ja/custom-nodes/backend/expansion" + }, + { + "source": "/ja/get_started/manual_install", + "destination": "/ja/installation/manual_install" + }, + { + "source": "/ja/get_started/pre_package", + "destination": "/ja/installation/comfyui_portable_windows" + }, + { + "source": "/ja/development/shortcuts", + "destination": "/ja/interface/shortcuts" + }, + { + "source": "/ja/troubleshooting", + "destination": "/ja/troubleshooting/overview" } ] } \ No newline at end of file diff --git a/giscus-comments.js b/giscus-comments.js index ed916f11b..62d1323b7 100644 --- a/giscus-comments.js +++ b/giscus-comments.js @@ -472,11 +472,18 @@ newDiscussionLink: 'Start New Discussion' }, zh: { - title: '💬 参与讨论', + title: '💬 参与讨论', message: '由于访问量较高,评论功能暂时不可用。', suggestion: '请先查找是否有关于此页面的相关讨论。如果找不到相关讨论,再发起新的讨论以便将评论与此页面关联。', discussionLink: '查找相关讨论', newDiscussionLink: '发起新讨论' + }, + ja: { + title: '💬 ディスカッションに参加', + message: 'アクセスが集中しているため、コメント機能は一時的にご利用いただけません。', + suggestion: 'まず、このページに関連するディスカッションがあるか確認してください。関連するディスカッションが見つからない場合は、新しいディスカッションを作成してコメントとこのページを関連付けてください。', + discussionLink: '関連ディスカッションを検索', + newDiscussionLink: '新しいディスカッションを開始' } }, network: { @@ -493,12 +500,20 @@ suggestion: '请先查找是否有关于此页面的相关讨论。如果找不到相关讨论,再发起新的讨论以便将评论与此页面关联。', discussionLink: '查找相关讨论', newDiscussionLink: '发起新讨论' + }, + ja: { + title: '💬 ディスカッションに参加', + message: 'コメントを読み込めませんでした。', + suggestion: 'まず、このページに関連するディスカッションがあるか確認してください。関連するディスカッションが見つからない場合は、新しいディスカッションを作成してコメントとこのページを関連付けてください。', + discussionLink: '関連ディスカッションを検索', + newDiscussionLink: '新しいディスカッションを開始' } } }; - + const isChinesePage = window.location.pathname.includes('/zh-CN/') || window.location.pathname.includes('/cn/'); - const lang = isChinesePage ? 'zh' : 'en'; + const isJapanesePage = window.location.pathname.includes('/ja/'); + const lang = isJapanesePage ? 'ja' : isChinesePage ? 'zh' : 'en'; const notice = noticeMessages[noticeType][lang]; const noticeDiv = document.createElement('div'); @@ -639,9 +654,10 @@ script.setAttribute('data-input-position', 'bottom'); script.setAttribute('data-theme', currentTheme === 'dark' ? 'dark' : 'light'); - // Set language based on path - only Chinese pages should be marked as Chinese + // Set language based on path const isChinesePage = newPath.includes('/zh-CN/') || newPath.includes('/cn/'); - const giscusLang = isChinesePage ? 'zh-CN' : 'en'; + const isJapanesePage = newPath.includes('/ja/'); + const giscusLang = isJapanesePage ? 'ja' : isChinesePage ? 'zh-CN' : 'en'; script.setAttribute('data-lang', giscusLang); // Debug logging diff --git a/ja/account/create-account.mdx b/ja/account/create-account.mdx new file mode 100644 index 000000000..848fabeef --- /dev/null +++ b/ja/account/create-account.mdx @@ -0,0 +1,54 @@ +--- +title: Comfy アカウントの作成 +sidebarTitle: アカウントを作成 +description: ComfyUI のすべての機能とサービスにアクセスするための新しい Comfy アカウントを作成する方法を学びます。 +translationSourceHash: 12e1f192 +translationFrom: account/create-account.mdx, zh-CN/account/create-account.mdx +--- + +Comfy アカウントを作成すると、[パートナー ノード(API ノード)](/tutorials/partner-nodes/overview) や [クラウド サブスクリプション](https://www.comfy.org/cloud) にアクセスできるようになり、ComfyUI プラットフォーム全体でプレミアム機能やサービスを利用できるようになります。 + +## Comfy Cloud での Comfy アカウント作成 + +ComfyUI 用の Comfy アカウントは、Comfy Cloud 上から直接作成できます。 + +1. [Comfy Cloud](https://www.comfy.org) にアクセスします +2. **サインアップ** または **アカウントを作成** をクリックします +3. 以下のログイン方法のいずれかを選択します: + - **メールアドレス**:メールアドレスを入力し、パスワードを作成します + - **Google**:Google アカウントでサインアップします + - **GitHub**:GitHub アカウントでサインアップします +4. 登録手続を完了します +5. メールアドレスによる登録を選択した場合は、メールアドレスの確認を行います + +## ローカル環境での Comfy アカウント作成 + +ローカル環境に ComfyUI をインストール済みの場合、アプリケーション内から Comfy アカウントを作成できます。 + +1. ローカルマシンで ComfyUI を起動します +2. インターフェース内の **設定** に移動します +3. **ユーザー** セクションへ進みます(詳細は [ユーザー設定](/interface/user) をご参照ください) +4. **アカウントを作成** または **サインアップ** をクリックします +5. 以下のログイン方法のいずれかを選択します: + - **メールアドレス**:メールアドレスを入力し、パスワードを作成します + - **Google**:Google アカウントでサインアップします + - **GitHub**:GitHub アカウントでサインアップします +6. 登録手続を完了します + +![ユーザー設定インターフェース](/images/interface/setting/user.jpg) + +## 次のステップ + +アカウントの作成およびメール確認が完了したら、以下の操作を行ってください: +- [アカウントにログインする](/account/login) +- プロフィールの設定や好みの環境を調整する +- ComfyUI の各種機能の利用を開始する +- 教材やドキュメントを参照して学習を深める + +## トラブルシューティング + +アカウント作成時に問題が発生した場合の対処法: +- メールアドレスが有効であり、かつ既に登録されていないことを確認してください +- パスワードが最低限の要件(例:文字数・記号の使用など)を満たしているか確認してください +- ブラウザのキャッシュをクリアして、再度試行してください +- 問題が解決しない場合は、[サポート](/support/contact-support) までお問い合わせください \ No newline at end of file diff --git a/ja/account/delete-account.mdx b/ja/account/delete-account.mdx new file mode 100644 index 000000000..d5318b66d --- /dev/null +++ b/ja/account/delete-account.mdx @@ -0,0 +1,45 @@ +--- +title: Comfy アカウントの削除 +sidebarTitle: アカウントを削除する +description: ComfyUI および関連データを含む Comfy アカウントを永久に削除する方法について学びます。 +translationSourceHash: d4bac6a6 +translationFrom: account/delete-account.mdx, zh-CN/account/delete-account.mdx +--- + + +アカウントの削除は完全に不可逆であり、元に戻すことはできません。すべてのデータ、ワークフロー、設定が永久に削除されます。 + + +## 削除前の確認事項 + +アカウント削除を実行する前に、以下の点をご確認ください。 + +- **データのバックアップ**: Comfy Cloud をご利用の場合、資産(assets)はお客様のアカウント下に保存されています。そのため、今後も利用したいデータは事前にバックアップしてください。Comfy Cloud をご利用でない場合、API 利用状況は https://platform.comfy.org/ でご確認いただけます。 +- **サブスクリプションの解約**: 将来的な課金を防ぐため、すべての有効なサブスクリプションを事前に解約してください。 +- **請求書のダウンロード**: 必要に応じて、支払い履歴や請求書のコピーを保存してください。 +- **代替手段の検討**: 永久的な削除ではなく、一時的にアカウントを無効化することも検討できます。 + +## Comfy アカウントの削除方法 + +ComfyUI 用の Comfy アカウントを永久に削除するには、[support@comfy.org](mailto:support@comfy.org) 宛てに削除依頼メールを送信してください。 + +メールには以下の情報を必ず記載してください: +- ご登録済みのメールアドレス +- アカウント削除および関連する個人データの全削除を明確に求める文言(例:「私のアカウントおよび関連するすべての個人データの削除を依頼します」) + +GDPR や類似のデータ保護規制に基づき、お客様には個人データの削除を請求する権利があります。当社は、ご依頼を受けてから 30 日以内に処理を行い、アカウントおよび関連データが完全に削除された時点で、確認メールをお送りいたします。 + + +旧バージョンのアプリケーションでは、アカウント設定画面に依然として「アカウントを削除」ボタンが表示される場合があります。このボタンは現在機能していません。上記のメールによる手続きをご利用ください。 + + +## 削除対象となるデータ + +アカウントを削除すると、以下のデータがすべて永久に削除されます: + +- ユーザープロフィールおよびアカウント情報 +- 保存済みのすべてのワークフローおよびプロジェクト +- 生成された画像および出力結果 +- カスタム設定およびユーザー設定(プリファレンス) +- 支払い履歴および請求情報 +- API キーおよびアクセストークン \ No newline at end of file diff --git a/ja/account/login.mdx b/ja/account/login.mdx new file mode 100644 index 000000000..a3228648e --- /dev/null +++ b/ja/account/login.mdx @@ -0,0 +1,125 @@ +--- +title: Comfy アカウントにログイン +sidebarTitle: ログイン +description: ComfyUI でプラットフォームのすべての機能およびサービスを利用するため、Comfy アカウントにアクセスします。 +translationSourceHash: 3afbd799 +translationFrom: account/login.mdx, zh-CN/account/login.mdx +--- + +import GetApiKey from '/snippets/get-api-key.mdx' + +Comfy アカウントを利用すると、[パートナーノード(API ノード)](/tutorials/partner-nodes/overview)および[クラウドサブスクリプション](https://www.comfy.org/cloud)にアクセスでき、ComfyUI プラットフォーム全体でプレミアム機能やサービスをご利用いただけます。 + +## サポートされるログイン方法 + +ComfyUI では、以下のログイン方法がサポートされています: +- **メールアドレス**:登録済みのメールアドレスとパスワードでログイン +- **Google**:Google アカウントでログイン +- **GitHub**:GitHub アカウントでログイン + +## Comfy Cloud でのログイン + +Comfy Cloud 上で ComfyUI を使用するための Comfy アカウントにアクセスするには: + +1. [Comfy Cloud](https://www.comfy.org) へ移動します +2. **ログイン**または**サインイン**をクリックします +3. ログイン方法を選択します: + - **メールアドレス**:メールアドレスとパスワードを入力し、「ログイン」をクリックします + - **Google**:Google ログインボタンをクリックして認証を行います + - **GitHub**:GitHub ログインボタンをクリックして認証を行います + +## ローカル環境でのログイン + +ローカルに ComfyUI をインストール済みの場合: + +1. ローカルマシン上で ComfyUI を起動します +2. インターフェース内の **設定** へ移動します +3. **ユーザー** セクションへ進みます(詳細は [ユーザー設定](/interface/user) をご参照ください) +4. ログイン方法を選択します: + - **メールアドレス**:メールアドレスとパスワードを入力します + - **Google**:Google ログインボタンをクリックして認証を行います + - **GitHub**:GitHub ログインボタンをクリックして認証を行います + - **API キー**:ホワイトリスト未登録のデプロイメント向けに API キーによるログイン(以下参照) + +![ユーザー設定インターフェース](/images/interface/setting/user.jpg) + +### API キーによるログイン + +現在、すべての ComfyUI デプロイメントが当社のドメイン認証ホワイトリストに登録されているわけではないため、ホワイトリスト未登録サイトからのログインを可能とするために、最新のアップデート(2025-05-10)で API キーによるログイン機能を追加しました。以下に、API キーを用いたログイン手順を示します: + + + + + + + + + + ログインポップアップ内で `Comfy API Key` を選択します + ![「Comfy API キー」ログインの選択](/images/interface/setting/user/user-login-api-1.jpg) + + + + ![API キーの入力](/images/interface/setting/user/user-login-api-2.jpg) + 1. API キーを入力し、保存します + 2. API キーをお持ちでない場合は、「ここで取得」リンクをクリックして https://platform.comfy.org/login へ移動し、ログインして取得してください。 + + + 成功すると、設定メニューに該当する API キーによるログイン情報が表示されます + ![ログイン済み](/images/interface/setting/user/user-api-logged.jpg) + + + + + +API キーの申請および取得手順については、以下のステップをご参照ください: + + + + + + ![API キーの管理](/images/interface/setting/user/user-login-api-key-5.jpg) + 使用していない API キー、または漏洩リスクのある API キーについては、「Delete」をクリックして削除することで、不要な損失を防ぐことができます。 + + + ![ログアウト](/images/interface/setting/user/user-login-api-key-6.jpg) + API キーを取得済みで、パブリックな端末でログインしている場合は、速やかにログアウトすることを推奨します。 + + + + + + +## パスワードを忘れてしまった場合 + +メールアドレスによるログインでパスワードを忘れた場合: + +1. ログインページの **パスワードを忘れた場合?** リンクをクリックします +2. 登録済みのメールアドレスを入力します +3. パスワード再設定手順が記載されたメールを受信したことを確認します +4. メール内の再設定リンクをクリックします +5. 新しいパスワードを作成します +6. 新しいパスワードでログインします + +## ログインに関するトラブルシューティング + +ログイン時に問題が発生した場合: + +- メールアドレスが正しいか確認してください +- パスワード入力時に Caps Lock が有効になっていないか確認してください +- ブラウザの Cookie およびキャッシュをクリアしてください +- 別のブラウザ、またはシークレットモードで試してみてください +- アカウントのメールアドレスが検証済みであることを確認してください +- 問題が解決しない場合は、[サポート](/support/contact-support) までお問い合わせください + +## セキュリティに関するヒント + +アカウントの安全性を保つために: +- 強固で一意のパスワードを使用してください +- ログイン情報を他の人と共有しないでください +- 共有デバイスを使用する際は、必ずログアウトしてください +- 定期的にパスワードを更新してください \ No newline at end of file diff --git a/ja/api-reference/cloud/overview.mdx b/ja/api-reference/cloud/overview.mdx new file mode 100644 index 000000000..bc053aa99 --- /dev/null +++ b/ja/api-reference/cloud/overview.mdx @@ -0,0 +1,33 @@ +--- +title: "Cloud API 概要" +translationSourceHash: 0d18ecaa +translationFrom: api-reference/cloud/overview.mdx, zh-CN/api-reference/cloud/overview.mdx +--- + + + **実験的 API:** この API は実験段階であり、変更される可能性があります。エンドポイント、リクエスト/レスポンス形式、および動作は予告なしに変更される場合があります。 + + +Comfy Cloud API は、Comfy Cloud インフラストラクチャ上でワークフローを実行するためのプログラムによるアクセスを提供します。 + + + **サブスクリプションが必要:** API を経由してワークフローを実行するには、有効な Comfy Cloud サブスクリプションが必要です。詳細は [料金プラン](https://www.comfy.org/cloud/pricing?utm_source=docs) をご覧ください。 + + +## はじめに + +- [Cloud API 概要](/development/cloud/overview) - 導入、認証、およびクイックスタートガイド +- [API リファレンス](/development/cloud/api-reference) - コード例付きの完全なエンドポイントドキュメント +- [OpenAPI 仕様](/development/cloud/openapi) - 機械読み取り可能な API 仕様 + +## エンドポイントカテゴリ + +| カテゴリ | 説明 | +|----------|-------------| +| ワークフロー | 実行用にワークフローを送信 | +| ジョブ | ジョブステータスの監視とキューの管理 | +| アセット | ファイルのアップロードとダウンロード | +| モデル | 利用可能な AI モデルの閲覧 | +| ノード | 利用可能なノードに関する情報の取得 | +| ユーザー | アカウント情報と個人データ | +| システム | サーバーステータスとヘルスチェック | \ No newline at end of file diff --git a/ja/built-in-nodes/APG.mdx b/ja/built-in-nodes/APG.mdx new file mode 100644 index 000000000..12ab92cbe --- /dev/null +++ b/ja/built-in-nodes/APG.mdx @@ -0,0 +1,29 @@ +--- +title: "APG - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における APG ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "APG" +icon: "circle" +mode: wide +translationSourceHash: 22860fc2 +translationFrom: built-in-nodes/APG.mdx, zh-CN/built-in-nodes/APG.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/APG/en.md) + +APG(Adaptive Projected Guidance:アダプティブ投影ガイド)ノードは、拡散過程におけるガイドの適用方法を調整することで、サンプリングプロセスを変更します。このノードは、引导向量を条件付き出力に対して平行および直交の成分に分離し、より制御性の高い画像生成を実現します。また、ガイドのスケーリング、その大きさの正規化、および拡散ステップ間の滑らかな遷移を実現するためのモーメンタム(運動量)の適用といったパラメーターを提供します。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `model` | MODEL | 必須 | - | - | 自動適応投影ガイドを適用する対象の拡散モデル | +| `eta` | FLOAT | 必須 | 1.0 | -10.0 ~ 10.0 | 平行方向の引导向量のスケールを制御します。値が 1 の場合、標準的な CFG 動作となります。 | +| `norm_threshold` | FLOAT | 必須 | 5.0 | 0.0 ~ 50.0 | 引导向量をこの値に正規化します。値が 0 の場合、正規化は無効になります。 | +| `momentum` | FLOAT | 必須 | 0.0 | -5.0 ~ 1.0 | 拡散過程におけるガイドの移動平均を制御します。値が 0 の場合、無効になります。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | サンプリングプロセスに自適応投影ガイドが適用された修正済みモデルを返します | \ No newline at end of file diff --git a/ja/built-in-nodes/AddNoise.mdx b/ja/built-in-nodes/AddNoise.mdx new file mode 100644 index 000000000..853f8f5d5 --- /dev/null +++ b/ja/built-in-nodes/AddNoise.mdx @@ -0,0 +1,35 @@ +--- +title: "AddNoise - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の AddNoise ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "AddNoise" +icon: "circle" +mode: wide +translationSourceHash: 44155b2c +translationFrom: built-in-nodes/AddNoise.mdx, zh-CN/built-in-nodes/AddNoise.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/AddNoise/en.md) + +# AddNoise + +このノードは、指定されたノイズパラメーターおよびシグマ(σ)値を用いて、潜在画像に制御されたノイズを付加します。入力をモデルのサンプリングシステムを通じて処理し、与えられたシグマ範囲に適したノイズスケーリングを適用します。 + +## 動作原理 + +このノードは潜在画像を入力として受け取り、提供されたノイズジェネレーターおよびシグマ値に基づいてノイズを付加します。まず、シグマ値が指定されているかを確認します。指定されていない場合は、元の潜在画像を変更せずにそのまま返します。その後、モデルのサンプリングシステムを用いて潜在画像を処理し、スケーリングされたノイズを適用します。ノイズのスケーリングは、複数のシグマ値が指定された場合には最初と最後のシグマ値の差分によって決定され、単一のシグマ値のみが指定された場合にはそのシグマ値によって決定されます。空の潜在画像(ゼロのみから構成される画像)は処理中にシフトされません。最終的な出力は、ノイズが付加された新たな潜在表現であり、NaN や無限大の値は安定性を確保するためにゼロに変換されます。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `model` | MODEL | 必須 | - | - | サンプリングパラメーターおよび処理関数を含むモデル | +| `noise` | NOISE | 必須 | - | - | 基本的なノイズパターンを生成するノイズジェネレーター | +| `sigmas` | SIGMAS | 必須 | - | - | ノイズスケーリングの強度を制御するシグマ値 | +| `latent_image` | LATENT | 必須 | - | - | ノイズを付加する対象となる入力潜在表現 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `LATENT` | LATENT | ノイズが付加された修正済み潜在表現 | \ No newline at end of file diff --git a/ja/built-in-nodes/AddTextPrefix.mdx b/ja/built-in-nodes/AddTextPrefix.mdx new file mode 100644 index 000000000..bcdddf3e1 --- /dev/null +++ b/ja/built-in-nodes/AddTextPrefix.mdx @@ -0,0 +1,27 @@ +--- +title: "AddTextPrefix - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の AddTextPrefix ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "AddTextPrefix" +icon: "circle" +mode: wide +translationSourceHash: 3e23c03e +translationFrom: built-in-nodes/AddTextPrefix.mdx, zh-CN/built-in-nodes/AddTextPrefix.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や、改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/AddTextPrefix/en.md) + +Add Text Prefix ノードは、各入力テキストの先頭に指定された文字列を追加することで、テキストを変更します。このノードはテキストとプレフィックス(接頭辞)を入力として受け取り、結合された結果を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `text` | STRING | はい | | プレフィックスを追加する対象のテキストです。 | +| `prefix` | STRING | いいえ | | テキストの先頭に追加する文字列(デフォルト値:"")。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `text` | STRING | プレフィックスが先頭に追加された結果のテキストです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/AddTextSuffix.mdx b/ja/built-in-nodes/AddTextSuffix.mdx new file mode 100644 index 000000000..eba8529fe --- /dev/null +++ b/ja/built-in-nodes/AddTextSuffix.mdx @@ -0,0 +1,25 @@ +--- +title: "AddTextSuffix - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の AddTextSuffix ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "AddTextSuffix" +icon: "circle" +mode: wide +translationSourceHash: c9a28c24 +translationFrom: built-in-nodes/AddTextSuffix.mdx, zh-CN/built-in-nodes/AddTextSuffix.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/AddTextSuffix/en.md) + +このノードは、指定された接尾辞(サフィックス)を入力テキスト文字列の末尾に追加します。元のテキストと接尾辞を入力として受け取り、結合された結果を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `text` | STRING | はい | | 接尾辞を追加する元のテキストです。 | +| `suffix` | STRING | いいえ | | テキストに追加する接尾辞(デフォルト値:"")。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `text` | STRING | 接尾辞が追加された後の最終的なテキストです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/AdjustBrightness.mdx b/ja/built-in-nodes/AdjustBrightness.mdx new file mode 100644 index 000000000..38d0fcec3 --- /dev/null +++ b/ja/built-in-nodes/AdjustBrightness.mdx @@ -0,0 +1,25 @@ +--- +title: "AdjustBrightness - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の AdjustBrightness ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "AdjustBrightness" +icon: "circle" +mode: wide +translationSourceHash: 9068cea8 +translationFrom: built-in-nodes/AdjustBrightness.mdx, zh-CN/built-in-nodes/AdjustBrightness.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/AdjustBrightness/en.md) + +Adjust Brightness ノードは、入力画像の明るさを調整します。このノードは、各ピクセルの値に指定された係数を乗算し、結果として得られる値が有効な範囲内に収まるよう調整します。係数が 1.0 の場合、画像は変化せず、1.0 より小さい値では画像が暗くなり、1.0 より大きい値では明るくなります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 明るさを調整する対象の入力画像です。 | +| `factor` | FLOAT | いいえ | 0.0 - 2.0 | 明るさの係数です。1.0 = 変化なし、<1.0 = 暗くなる、>1.0 = 明るくなる。(デフォルト値:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 明るさが調整された出力画像です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/AdjustContrast.mdx b/ja/built-in-nodes/AdjustContrast.mdx new file mode 100644 index 000000000..d65b3e433 --- /dev/null +++ b/ja/built-in-nodes/AdjustContrast.mdx @@ -0,0 +1,27 @@ +--- +title: "AdjustContrast - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における AdjustContrast ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "AdjustContrast" +icon: "circle" +mode: wide +translationSourceHash: d59ce250 +translationFrom: built-in-nodes/AdjustContrast.mdx, zh-CN/built-in-nodes/AdjustContrast.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/AdjustContrast/en.md) + +「調整:コントラスト」ノードは、入力画像のコントラストレベルを変更します。このノードは、画像内の明部と暗部の差異を調整することで動作します。係数が 1.0 の場合、画像は変更されません。1.0 より小さい値ではコントラストが低下し、1.0 より大きい値ではコントラストが増加します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | コントラストを調整する対象となる入力画像です。 | +| `factor` | FLOAT | いいえ | 0.0 - 2.0 | コントラスト係数です。1.0 = 変更なし、<1.0 = コントラスト低下、>1.0 = コントラスト増加。(デフォルト: 1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | コントラストが調整された結果の画像です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/AlignYourStepsScheduler.mdx b/ja/built-in-nodes/AlignYourStepsScheduler.mdx new file mode 100644 index 000000000..c123e0d6d --- /dev/null +++ b/ja/built-in-nodes/AlignYourStepsScheduler.mdx @@ -0,0 +1,28 @@ +--- +title: "AlignYourStepsScheduler - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の AlignYourStepsScheduler ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "AlignYourStepsScheduler" +icon: "circle" +mode: wide +translationSourceHash: 18a2c803 +translationFrom: built-in-nodes/AlignYourStepsScheduler.mdx, zh-CN/built-in-nodes/AlignYourStepsScheduler.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご協力ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/AlignYourStepsScheduler/en.md) + +AlignYourStepsScheduler ノードは、異なるモデルタイプに基づいて、デノイズ処理に用いるシグマ(σ)値を生成します。このノードは、サンプリングプロセスにおける各ステップに適したノイズレベルを計算し、`denoise` パラメーターに応じて総ステップ数を調整します。これにより、サンプリングステップをさまざまな拡散モデルの特定要件に合わせることができます。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `model_type` | STRING | コンボボックス | - | SD1, SDXL, SVD | シグマ値の計算に使用するモデルの種類を指定します | +| `steps` | INT | 整数 | 10 | 1–10000 | 生成するサンプリングステップの総数です | +| `denoise` | FLOAT | 浮動小数点数 | 1.0 | 0.0–1.0 | 画像のデノイズ量を制御します。1.0 の場合は全ステップを使用し、それより小さい値ではステップ数が減少します | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `sigmas` | SIGMAS | デノイズ処理のために計算されたシグマ値を返します | \ No newline at end of file diff --git a/ja/built-in-nodes/AudioAdjustVolume.mdx b/ja/built-in-nodes/AudioAdjustVolume.mdx new file mode 100644 index 000000000..90f606d03 --- /dev/null +++ b/ja/built-in-nodes/AudioAdjustVolume.mdx @@ -0,0 +1,25 @@ +--- +title: "AudioAdjustVolume - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の AudioAdjustVolume ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "AudioAdjustVolume" +icon: "circle" +mode: wide +translationSourceHash: 0aa4a4e9 +translationFrom: built-in-nodes/AudioAdjustVolume.mdx, zh-CN/built-in-nodes/AudioAdjustVolume.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください![GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/AudioAdjustVolume/en.md) + +AudioAdjustVolume ノードは、デシベル(dB)単位での音量調整を適用することにより、音声の響度を変更します。このノードは音声入力を受け取り、指定された音量レベルに基づいてゲイン係数を適用します。ここで、正の値は音量を増加させ、負の値は音量を減少させます。ノードは、元の音声と同じサンプルレートを持つ、処理済みの音声を返します。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `audio` | AUDIO | 必須 | - | - | 処理対象の音声入力 | +| `volume` | INT | 必須 | 1.0 | -100 ~ 100 | デシベル(dB)単位の音量調整。0 = 変更なし、+6 = 2倍、-6 = 半分など | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `audio` | AUDIO | 音量が調整された処理済み音声 | \ No newline at end of file diff --git a/ja/built-in-nodes/AudioConcat.mdx b/ja/built-in-nodes/AudioConcat.mdx new file mode 100644 index 000000000..0929f3988 --- /dev/null +++ b/ja/built-in-nodes/AudioConcat.mdx @@ -0,0 +1,26 @@ +--- +title: "AudioConcat - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の AudioConcat ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "AudioConcat" +icon: "circle" +mode: wide +translationSourceHash: 1017476f +translationFrom: built-in-nodes/AudioConcat.mdx, zh-CN/built-in-nodes/AudioConcat.mdx +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/AudioConcat/en.md) + +AudioConcat ノードは、2つの音声入力を連結することでそれらを統合します。このノードは2つの音声入力を受け取り、指定した順序(`audio2` を `audio1` の前または後に配置)で接続します。また、モノラル音声をステレオに変換し、2つの入力間でサンプルレートを一致させるなど、異なる音声フォーマットへの自動対応も行います。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|------------|----------|------------|-------------|------|------| +| `audio1` | AUDIO | 必須 | - | - | 連結される最初の音声入力 | +| `audio2` | AUDIO | 必須 | - | - | 連結される2番目の音声入力 | +| `direction` | COMBO | 必須 | after | ['after', 'before'] | `audio2` を `audio1` の後ろに追加するか、前に追加するかを指定 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `AUDIO` | AUDIO | 2つの入力音声ファイルを連結した統合音声 | \ No newline at end of file diff --git a/ja/built-in-nodes/AudioEncoderEncode.mdx b/ja/built-in-nodes/AudioEncoderEncode.mdx new file mode 100644 index 000000000..3e5dd6040 --- /dev/null +++ b/ja/built-in-nodes/AudioEncoderEncode.mdx @@ -0,0 +1,25 @@ +--- +title: "AudioEncoderEncode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における AudioEncoderEncode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "AudioEncoderEncode" +icon: "circle" +mode: wide +translationSourceHash: dc9a9d87 +translationFrom: built-in-nodes/AudioEncoderEncode.mdx, zh-CN/built-in-nodes/AudioEncoderEncode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/AudioEncoderEncode/en.md) + +AudioEncoderEncode ノードは、音声エンコーダーモデルを用いて音声データをエンコード処理します。このノードは音声入力を受信し、条件付けパイプラインにおける後続処理に利用可能なエンコード済み表現へと変換します。本ノードは、生の音声波形を音声ベースの機械学習アプリケーションに適した形式へと変換します。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `audio_encoder` | AUDIO_ENCODER | 必須 | - | - | 音声入力の処理に使用される音声エンコーダーモデル | +| `audio` | AUDIO | 必須 | - | - | 波形およびサンプルレート情報を含む音声データ | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | AUDIO_ENCODER_OUTPUT | 音声エンコーダーによって生成されたエンコード済み音声表現 | \ No newline at end of file diff --git a/ja/built-in-nodes/AudioEncoderLoader.mdx b/ja/built-in-nodes/AudioEncoderLoader.mdx new file mode 100644 index 000000000..58877986a --- /dev/null +++ b/ja/built-in-nodes/AudioEncoderLoader.mdx @@ -0,0 +1,24 @@ +--- +title: "AudioEncoderLoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における AudioEncoderLoader ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "AudioEncoderLoader" +icon: "circle" +mode: wide +translationSourceHash: 7d838c09 +translationFrom: built-in-nodes/AudioEncoderLoader.mdx, zh-CN/built-in-nodes/AudioEncoderLoader.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/AudioEncoderLoader/en.md) + +AudioEncoderLoader ノードは、利用可能な音声エンコーダー(オーディオエンコーダー)ファイルから音声エンコーダーモデルを読み込みます。このノードは音声エンコーダーのファイル名を入力として受け取り、ワークフロー内で音声処理タスクに使用可能な、読み込まれた音声エンコーダーモデルを返します。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|------------|----------|------------|------------|------|------| +| `audio_encoder_name` | STRING | COMBO | - | 利用可能な音声エンコーダー(オーディオエンコーダー)ファイル | `audio_encoders` フォルダーから読み込む音声エンコーダーモデルファイルを選択します | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `audio_encoder` | AUDIO_ENCODER | 音声処理ワークフローで使用するための、読み込まれた音声エンコーダーモデルを返します | \ No newline at end of file diff --git a/ja/built-in-nodes/AudioEqualizer3Band.mdx b/ja/built-in-nodes/AudioEqualizer3Band.mdx new file mode 100644 index 000000000..400e1734f --- /dev/null +++ b/ja/built-in-nodes/AudioEqualizer3Band.mdx @@ -0,0 +1,35 @@ +--- +title: "AudioEqualizer3Band - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における AudioEqualizer3Band ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "AudioEqualizer3Band" +icon: "circle" +mode: wide +translationSourceHash: 713e8ce6 +translationFrom: built-in-nodes/AudioEqualizer3Band.mdx, zh-CN/built-in-nodes/AudioEqualizer3Band.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/AudioEqualizer3Band/en.md) + +「オーディオ・イコライザー(3バンド)」ノードを使用すると、オーディオ波形の低音(バス)、中音(ミッド)、高音(トゥレブル)の各周波数帯域を調整できます。このノードでは、低音用のロウシェルフフィルター、中音用のピークフィルター、高音用のハイシェルフフィルターの3種類の独立したフィルターが適用されます。各バンドは、ゲイン、周波数、および帯域幅の設定を用いて個別に制御可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `audio` | AUDIO | はい | - | 波形とサンプルレートを含む入力オーディオデータです。 | +| `low_gain_dB` | FLOAT | いいえ | -24.0 ~ 24.0 | 低周波数帯(低音)のゲイン。正の値でブースト、負の値でカットします。(デフォルト:0.0) | +| `low_freq` | INT | いいえ | 20 ~ 500 | ロウシェルフフィルターのカットオフ周波数(単位:ヘルツ[Hz])。(デフォルト:100) | +| `mid_gain_dB` | FLOAT | いいえ | -24.0 ~ 24.0 | 中周波数帯のゲイン。正の値でブースト、負の値でカットします。(デフォルト:0.0) | +| `mid_freq` | INT | いいえ | 200 ~ 4000 | ミッド帯域のピークフィルターの中心周波数(単位:ヘルツ[Hz])。(デフォルト:1000) | +| `mid_q` | FLOAT | いいえ | 0.1 ~ 10.0 | ミッド帯域のピークフィルターの Q 値(帯域幅)。値が小さいほど帯域が広くなり、大きいほど帯域が狭くなります。(デフォルト:0.707) | +| `high_gain_dB` | FLOAT | いいえ | -24.0 ~ 24.0 | 高周波数帯(高音)のゲイン。正の値でブースト、負の値でカットします。(デフォルト:0.0) | +| `high_freq` | INT | いいえ | 1000 ~ 15000 | ハイシェルフフィルターのカットオフ周波数(単位:ヘルツ[Hz])。(デフォルト:5000) | + +**注意:** `low_gain_dB`、`mid_gain_dB`、`high_gain_dB` の各パラメーターは、その値がゼロでない場合にのみ適用されます。ゲインを 0.0 に設定すると、対応するフィルターステージはスキップされます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `audio` | AUDIO | イコライズ処理を適用済みのオーディオデータです。変更後の波形および元のサンプルレートを含みます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/AudioMerge.mdx b/ja/built-in-nodes/AudioMerge.mdx new file mode 100644 index 000000000..fb3687596 --- /dev/null +++ b/ja/built-in-nodes/AudioMerge.mdx @@ -0,0 +1,26 @@ +--- +title: "AudioMerge - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の AudioMerge ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "AudioMerge" +icon: "circle" +mode: wide +translationSourceHash: 1d8b6c74 +translationFrom: built-in-nodes/AudioMerge.mdx, zh-CN/built-in-nodes/AudioMerge.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/AudioMerge/en.md) + +AudioMerge ノードは、2 つの音声トラックの波形を重ね合わせることでそれらを統合します。このノードは、両方の音声入力のサンプルレートを自動的に一致させ、統合前にそれぞれの長さを等しく調整します。また、音声信号を統合するための複数の数学的演算手法を提供し、出力が許容可能な音量レベル内に収まるよう保証します。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `audio1` | AUDIO | 必須 | - | - | 統合する最初の音声入力 | +| `audio2` | AUDIO | 必須 | - | - | 統合する二番目の音声入力 | +| `merge_method` | COMBO | 必須 | - | ["add", "mean", "subtract", "multiply"] | 音声波形を統合する際に使用する手法 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `AUDIO` | AUDIO | 統合された音声出力。統合後の波形およびサンプルレートを含みます | \ No newline at end of file diff --git a/ja/built-in-nodes/AutogrowNamesTestNode.mdx b/ja/built-in-nodes/AutogrowNamesTestNode.mdx new file mode 100644 index 000000000..5f9766c74 --- /dev/null +++ b/ja/built-in-nodes/AutogrowNamesTestNode.mdx @@ -0,0 +1,26 @@ +--- +title: "AutogrowNamesTestNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における AutogrowNamesTestNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "AutogrowNamesTestNode" +icon: "circle" +mode: wide +translationSourceHash: bcb7b98e +translationFrom: built-in-nodes/AutogrowNamesTestNode.mdx, zh-CN/built-in-nodes/AutogrowNamesTestNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/AutogrowNamesTestNode/en.md) + +このノードは、Autogrow 入力機能のテスト用ノードです。動的に変化する数の浮動小数点数(FLOAT)入力を受け取り、それぞれに特定の名前(ラベル)が付与されています。そして、それらの値をカンマ区切りの単一文字列に結合します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `autogrow` | FLOAT | はい | N/A | 動的入力グループです。「a」「b」「c」のいずれかから選択した事前に定義された名前を付けて、複数の浮動小数点数入力を追加できます。このノードは、これらの名前付き入力の任意の組み合わせを受け付けます。 | + +**注意:** `autogrow` 入力は動的です。ワークフローの要件に応じて、「a」「b」「c」という名前の個別の浮動小数点数入力を自由に追加・削除できます。ノードは、提供されたすべての値を処理します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | STRING | 提供されたすべての浮動小数点数入力の値を含む単一の文字列で、各値はカンマで連結されています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/AutogrowPrefixTestNode.mdx b/ja/built-in-nodes/AutogrowPrefixTestNode.mdx new file mode 100644 index 000000000..76dadcd4c --- /dev/null +++ b/ja/built-in-nodes/AutogrowPrefixTestNode.mdx @@ -0,0 +1,28 @@ +--- +title: "AutogrowPrefixTestNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における AutogrowPrefixTestNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "AutogrowPrefixTestNode" +icon: "circle" +mode: wide +translationSourceHash: 8a49267a +translationFrom: built-in-nodes/AutogrowPrefixTestNode.mdx, zh-CN/built-in-nodes/AutogrowPrefixTestNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/AutogrowPrefixTestNode/en.md) + +AutogrowPrefixTestNode は、自動増加(autogrow)入力機能をテストするためのロジックノードです。このノードは可変個数の浮動小数点数(FLOAT)入力を受け取り、それらの値をカンマ区切りの文字列に結合して出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `autogrow` | AUTOGROW | はい | 1~10 個の入力 | 1~10 個の浮動小数点数値を受け付ける動的な入力グループです。グループ内の各入力は FLOAT 型です。 | + +**注意:** `autogrow` 入力は特殊な動的入力です。このグループには最大 10 個まで浮動小数点数入力を追加できます。ノードは提供されたすべての値を処理します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | STRING | 入力されたすべての浮動小数点数値をカンマで区切った形式で含む単一の文字列です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/BasicGuider.mdx b/ja/built-in-nodes/BasicGuider.mdx new file mode 100644 index 000000000..ad55efa83 --- /dev/null +++ b/ja/built-in-nodes/BasicGuider.mdx @@ -0,0 +1,25 @@ +--- +title: "BasicGuider - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における BasicGuider ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "BasicGuider" +icon: "circle" +mode: wide +translationSourceHash: 3208cbb2 +translationFrom: built-in-nodes/BasicGuider.mdx, zh-CN/built-in-nodes/BasicGuider.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見した場合や改善に関するご提案がありましたら、ぜひご貢献ください![GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/BasicGuider/en.md) + +BasicGuider ノードは、サンプリング処理向けのシンプルなガイド機構を作成します。このノードはモデルと条件付けデータを入力として受け取り、サンプリング中に生成プロセスを制御するための「ガイドオブジェクト(guider object)」を出力します。本ノードは、制御された画像生成に必要な基本的なガイド機能を提供します。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `model` | MODEL | 必須 | - | - | ガイド処理に使用するモデル | +| `conditioning` | CONDITIONING | 必須 | - | - | 生成プロセスを制御するための条件付けデータ | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `GUIDER` | GUIDER | サンプリング処理中に生成をガイドするために使用可能なガイドオブジェクト | \ No newline at end of file diff --git a/ja/built-in-nodes/BasicScheduler.mdx b/ja/built-in-nodes/BasicScheduler.mdx new file mode 100755 index 000000000..68681b73c --- /dev/null +++ b/ja/built-in-nodes/BasicScheduler.mdx @@ -0,0 +1,78 @@ +--- +title: "BasicScheduler - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の BasicScheduler ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "BasicScheduler" +icon: "circle" +mode: wide +translationSourceHash: 1a782e08 +translationFrom: built-in-nodes/BasicScheduler.mdx, zh-CN/built-in-nodes/BasicScheduler.mdx +translationMismatches: + - "description" +--- +`BasicScheduler` ノードは、指定されたスケジューラー、モデル、およびデノイズパラメーターに基づいて、拡散モデル向けの一連のシグマ(σ)値を計算するように設計されています。このノードは、デノイズ係数に応じてステップ数を動的に調整し、拡散プロセスを微調整します。これにより、高度なサンプリングプロセス(例:マルチステージサンプリングなど)において、各段階に対して精密な「レシピ」を提供します。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 比喩による説明 | 技術的な目的 | +| ----------- | ---------------- | ---------- | ---------- | --------- | ---------------------------------- | ------------------------------------ | +| `model` | MODEL | Input | - | - | **キャンバスの材質**:異なる材質のキャンバスには、異なるペイント配合が必要 | 拡散モデルオブジェクト。シグマ値の計算基盤を決定 | +| `scheduler` | COMBO[STRING] | Widget | - | 9種類の選択肢 | **調色技法**:ペイント濃度の変化方法を選択 | スケジューリングアルゴリズム。ノイズ減衰モードを制御 | +| `steps` | INT | Widget | 20 | 1–10000 | **調色回数**:20回の調色 vs 50回の調色 — 精密さの違い | サンプリングステップ数。生成品質と速度に影響 | +| `denoise` | FLOAT | Widget | 1.0 | 0.0–1.0 | **創作強度**:微調整から全面的な再描画までを制御 | デノイズ強度。部分的な再描画シナリオに対応 | + +### スケジューラーの種類 + +ソースコード `comfy.samplers.SCHEDULER_NAMES` を基に、以下の9種類のスケジューラーをサポートしています: + +| スケジューラー名 | 特徴 | 使用ケース | ノイズ減衰パターン | +| --------------------- | ------------------ | ------------------------------ | ------------------------------ | +| **normal** | 標準的な線形スケジュール | 一般用途、バランス重視 | 均一な減衰 | +| **karras** | 滑らかな遷移 | 高品質・ディテール重視の生成 | 滑らかな非線形減衰 | +| **exponential** | 指数関数的減衰 | 高速生成、効率重視 | 指数関数的な急激な減衰 | +| **sgm_uniform** | SGM均一スケジュール | 特定モデル向け最適化 | SGM最適化済み減衰 | +| **simple** | 単純スケジュール | 簡易テスト、基本的な用途 | 単純化された減衰 | +| **ddim_uniform** | DDIM均一スケジュール | DDIMサンプリングの最適化 | DDIM固有の減衰 | +| **beta** | ベータ分布ベース | 特殊な確率分布を必要とするケース | ベータ関数による減衰 | +| **linear_quadratic** | 線形+二次関数混合 | 複雑なシナリオ向け最適化 | 二次関数による減衰 | +| **kl_optimal** | KLダイバージェンス最適 | 理論的な最適化を追求する場合 | KLダイバージェンス最適化済み減衰 | + +## 出力 + +| パラメーター | データ型 | 出力タイプ | 比喩による説明 | 技術的な意味 | +| ----------- | -------- | ---------- | ---------------------------------------- | ---------------------------------------- | +| `sigmas` | SIGMAS | Output | **ペイント配合表**:ステップごとに使用する詳細なペイント濃度リスト | ノイズレベルのシーケンス。拡散モデルのデノイズ処理をガイド | + +## ノードの役割:画家の調色アシスタント + +あなたが、混沌としたペイント(ノイズ)から明瞭な画像を描き出す画家であると想像してください。`BasicScheduler` は、まるであなたの**プロフェッショナルな調色アシスタント**のように振る舞い、ステップごとの正確なペイント濃度の「配合レシピ」を準備します。 + +### ワークフロー + +- **ステップ1**:90%濃度のペイント(高ノイズレベル)を使用 +- **ステップ2**:80%濃度のペイントを使用 +- **ステップ3**:70%濃度のペイントを使用 +- **…** +- **最終ステップ**:0%濃度(クリーンなキャンバス、ノイズなし) + +### 調色アシスタントの特別なスキル + +**異なる調色方法(スケジューラー)**: + +- **"karras"方式**:ペイント濃度が非常に滑らかに変化 — 専門家画家のグラデーション技法のような自然な遷移 +- **"exponential"方式**:ペイント濃度が急速に低下 — 短時間での創作に最適 +- **"linear"方式**:ペイント濃度が均一に低下 — 安定性と制御性に優れる + +**細かい制御(steps)**: + +- **20回の調色**:素早く描く — 効率を最優先 +- **50回の調色**:丁寧に描く — 品質を最優先 + +**創作強度(denoise)**: + +- **1.0 = 全新制作**:真っ白なキャンバスから完全にゼロから開始 +- **0.5 = 半分の改造**:元の絵の半分を保持し、残り半分を変更 +- **0.2 = 微調整**:元の絵に対してほんのわずかな修正のみ実行 + +### 他のノードとの連携 + +`BasicScheduler`(調色アシスタント) → レシピの準備 → `SamplerCustom`(画家) → 実際の描画 → 完成作品 \ No newline at end of file diff --git a/ja/built-in-nodes/BatchImagesMasksLatentsNode.mdx b/ja/built-in-nodes/BatchImagesMasksLatentsNode.mdx new file mode 100644 index 000000000..f3c936034 --- /dev/null +++ b/ja/built-in-nodes/BatchImagesMasksLatentsNode.mdx @@ -0,0 +1,28 @@ +--- +title: "BatchImagesMasksLatentsNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における BatchImagesMasksLatentsNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "BatchImagesMasksLatentsNode" +icon: "circle" +mode: wide +translationSourceHash: d6890b63 +translationFrom: built-in-nodes/BatchImagesMasksLatentsNode.mdx, zh-CN/built-in-nodes/BatchImagesMasksLatentsNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/BatchImagesMasksLatentsNode/en.md) + +「Batch Images/Masks/Latents」ノードは、同一タイプの複数の入力を単一のバッチに結合します。このノードは、入力が画像(IMAGE)、マスク(MASK)、または潜在表現(LATENT)のいずれであるかを自動的に検出し、適切なバッチ処理方式を適用します。これは、バッチ入力を受け付けるノードに対して複数のアイテムを事前に準備する際に非常に有用です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `inputs` | IMAGE、MASK、または LATENT | はい | 1~50 個の入力 | バッチとして結合される動的な入力リストです。1~50 個の項目を追加できます。すべての項目は同一の型である必要があります(全項目が画像、全項目がマスク、または全項目が潜在表現)。 + +**注意:** このノードは、`inputs` リスト内の最初の項目に基づいてデータ型(IMAGE、MASK、または LATENT)を自動的に判定します。その後のすべての項目は、この型と一致していなければなりません。異なるデータ型を混在させようとすると、ノードはエラーを発生します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | IMAGE、MASK、または LATENT | 単一のバッチ化された出力です。データ型は入力型と一致します(バッチ化された IMAGE、バッチ化された MASK、またはバッチ化された LATENT)。 | \ No newline at end of file diff --git a/ja/built-in-nodes/BatchImagesNode.mdx b/ja/built-in-nodes/BatchImagesNode.mdx new file mode 100644 index 000000000..8c1fc9161 --- /dev/null +++ b/ja/built-in-nodes/BatchImagesNode.mdx @@ -0,0 +1,26 @@ +--- +title: "BatchImagesNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における BatchImagesNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "BatchImagesNode" +icon: "circle" +mode: wide +translationSourceHash: b99539dc +translationFrom: built-in-nodes/BatchImagesNode.mdx, zh-CN/built-in-nodes/BatchImagesNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や、改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/BatchImagesNode/en.md) + +「Batch Images」ノードは、複数の個別の画像を単一のバッチに統合します。このノードは可変数の画像入力を受け取り、それらを1つのバッチ化された画像テンソルとして出力します。これにより、後続のノードで一括して処理することが可能になります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `images` | IMAGE | はい | 2~50 個の入力 | 画像入力を動的に追加できるリストです。2~50 枚の画像をバッチとして統合できます。ノードのインターフェースから、必要に応じてさらに画像入力スロットを追加できます。 | + +**注意:** ノードが正常に動作するには、少なくとも2枚の画像を接続する必要があります。最初の入力スロットは常に必須であり、ノードのインターフェースに表示される「+」ボタンを使って、さらにスロットを追加できます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | IMAGE | 全ての入力画像をスタック(積み重ね)して構成された、単一のバッチ化された画像テンソルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/BatchLatentsNode.mdx b/ja/built-in-nodes/BatchLatentsNode.mdx new file mode 100644 index 000000000..da275a16e --- /dev/null +++ b/ja/built-in-nodes/BatchLatentsNode.mdx @@ -0,0 +1,29 @@ +--- +title: "BatchLatentsNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の BatchLatentsNode ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "BatchLatentsNode" +icon: "circle" +mode: wide +translationSourceHash: 598e3d89 +translationFrom: built-in-nodes/BatchLatentsNode.mdx, zh-CN/built-in-nodes/BatchLatentsNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や、改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/BatchLatentsNode/en.md) + +「Batch Latents」ノードは、複数の潜在表現(latent)入力を1つのバッチに統合します。このノードは可変個数の潜在サンプルを受け取り、バッチ次元(batch dimension)に沿ってそれらを結合し、後続のノードで一括して処理できるようにします。これは、単一の操作で複数の画像を生成または処理する際に非常に有用です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `latents` | LATENT | はい | N/A | バッチに含める最初の潜在サンプルです。 | +| `latent_2` ~ `latent_50` | LATENT | いいえ | N/A | バッチに含める追加の潜在サンプルです。合計で2個から50個までの潜在入力を追加できます。 | + +**注意:** このノードが正常に動作するには、少なくとも2つの潜在入力が必要です。より多くの潜在表現を接続すると、ノードが自動的に入力スロットを作成し、最大50個まで対応します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | LATENT | 全ての入力潜在表現を1つのバッチとして統合した、単一の潜在出力です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/BatchMasksNode.mdx b/ja/built-in-nodes/BatchMasksNode.mdx new file mode 100644 index 000000000..8a06ef888 --- /dev/null +++ b/ja/built-in-nodes/BatchMasksNode.mdx @@ -0,0 +1,28 @@ +--- +title: "BatchMasksNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における BatchMasksNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "BatchMasksNode" +icon: "circle" +mode: wide +translationSourceHash: 438e6a9c +translationFrom: built-in-nodes/BatchMasksNode.mdx, zh-CN/built-in-nodes/BatchMasksNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/BatchMasksNode/en.md) + +「Batch Masks」ノードは、複数の個別のマスク入力を単一のバッチに統合します。このノードは可変数のマスク入力を受け取り、それらを単一のバッチ化されたマスクテンソルとして出力します。これにより、後続のノードでマスクをバッチ処理することが可能になります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `mask_0` | MASK | はい | - | 最初のマスク入力です。 | +| `mask_1` | MASK | はい | - | 2番目のマスク入力です。 | +| `mask_2` ~ `mask_49` | MASK | いいえ | - | 追加のオプションのマスク入力です。このノードは合計で最小2つ、最大50個のマスクを受け付けることができます。 | + +**注意:** このノードは自動増加型の入力テンプレートを使用しています。少なくとも2つのマスク(`mask_0` および `mask_1`)を接続する必要があります。さらに最大48個のオプションのマスク入力(`mask_2` ~ `mask_49`)を追加でき、合計で50個のマスクまで対応可能です。接続されたすべてのマスクは、単一のバッチに統合されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | MASK | 全ての入力マスクをスタック(積み重ね)して構成された、単一のバッチ化されたマスクです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/BetaSamplingScheduler.mdx b/ja/built-in-nodes/BetaSamplingScheduler.mdx new file mode 100644 index 000000000..aa6f40522 --- /dev/null +++ b/ja/built-in-nodes/BetaSamplingScheduler.mdx @@ -0,0 +1,29 @@ +--- +title: "BetaSamplingScheduler - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の BetaSamplingScheduler ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "BetaSamplingScheduler" +icon: "circle" +mode: wide +translationSourceHash: eca14d65 +translationFrom: built-in-nodes/BetaSamplingScheduler.mdx, zh-CN/built-in-nodes/BetaSamplingScheduler.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご協力をお願いいたします![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/BetaSamplingScheduler/en.md) + +BetaSamplingScheduler ノードは、ベータスケジューリングアルゴリズムを用いて、サンプリングプロセスに使用される一連のノイズレベル(sigmas)を生成します。このノードはモデルおよび設定パラメーターを受け取り、画像生成時のデノイジングプロセスを制御するためのカスタマイズ可能なノイズスケジュールを作成します。このスケジューラーでは、alpha および beta パラメーターを用いて、ノイズ低減の軌道を微調整できます。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `model` | MODEL | 必須 | - | - | サンプリングに使用されるモデル。モデルのサンプリングオブジェクトを提供します | +| `steps` | INT | 必須 | 20 | 1–10000 | sigmas を生成するためのサンプリングステップ数 | +| `alpha` | FLOAT | 必須 | 0.6 | 0.0–50.0 | ベータスケジューラーの alpha パラメーター。スケジューリング曲線の形状を制御します | +| `beta` | FLOAT | 必須 | 0.6 | 0.0–50.0 | ベータスケジューラーの beta パラメーター。スケジューリング曲線の形状を制御します | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `SIGMAS` | SIGMAS | サンプリングプロセスで使用されるノイズレベルのシーケンス | \ No newline at end of file diff --git a/ja/built-in-nodes/BriaImageEditNode.mdx b/ja/built-in-nodes/BriaImageEditNode.mdx new file mode 100644 index 000000000..d680f851d --- /dev/null +++ b/ja/built-in-nodes/BriaImageEditNode.mdx @@ -0,0 +1,42 @@ +--- +title: "BriaImageEditNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における BriaImageEditNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "BriaImageEditNode" +icon: "circle" +mode: wide +translationSourceHash: 2a41cc21 +translationFrom: built-in-nodes/BriaImageEditNode.mdx, zh-CN/built-in-nodes/BriaImageEditNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/BriaImageEditNode/en.md) + +Bria FIBO 画像編集ノードでは、テキストによる指示を使って既存の画像を編集できます。このノードは、入力画像とプロンプトを Bria API に送信し、FIBO モデルを用いてユーザーの要求に基づいた編集済み画像を生成します。また、編集範囲を特定の領域に限定するためにマスク画像を指定することも可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"FIBO"` | 画像編集に使用するモデルのバージョンです。 | +| `image` | IMAGE | はい | - | 編集対象となる入力画像です。 | +| `prompt` | STRING | いいえ | - | 画像の編集方法を記述したテキスト指示(デフォルト:空)。 | +| `negative_prompt` | STRING | いいえ | - | 編集後の画像に**含めたくない内容**を記述したテキスト(デフォルト:空)。 | +| `structured_prompt` | STRING | いいえ | - | JSON 形式で記述された構造化編集プロンプトを含む文字列です。通常の `prompt` の代わりにこちらを使用することで、より正確かつプログラム的に制御できます(デフォルト:空)。 | +| `seed` | INT | はい | 1 ~ 2147483647 | 乱数生成の初期化に使用される値で、再現性のある結果を保証します(デフォルト:1)。 | +| `guidance_scale` | FLOAT | はい | 3.0 ~ 5.0 | 生成画像がプロンプトにどれだけ忠実に従うかを制御します。値が大きいほど、プロンプトへの従属度が高くなります(デフォルト:3.0)。 | +| `steps` | INT | はい | 20 ~ 50 | モデルが実行するデノイジング(ノイズ除去)ステップ数です(デフォルト:50)。 | +| `moderation` | DYNAMICCOMBO | はい | `"true"`
`"false"` | コンテンツ審査機能の有効/無効を切り替えます。「`"true"`」を選択すると、追加の審査オプションが表示されます。 | +| `mask` | MASK | いいえ | - | オプションのマスク画像です。指定した場合、編集は画像のマスク適用領域のみに適用されます。 | + +**重要な制約事項:** + +* `prompt` または `structured_prompt` のいずれか**少なくとも一方**を指定する必要があります。両方を空のままにすることはできません。 +* `image` 入力は**必ず 1 つだけ**指定する必要があります。 +* `moderation` パラメーターを `"true"` に設定すると、追加のブール型入力として `prompt_content_moderation`、`visual_input_moderation`、`visual_output_moderation` の 3 つが利用可能になります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `IMAGE` | IMAGE | Bria API から返される編集済み画像です。 | +| `structured_prompt` | STRING | 編集処理中に実際に使用された、あるいは生成された構造化プロンプトです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/BriaRemoveImageBackground.mdx b/ja/built-in-nodes/BriaRemoveImageBackground.mdx new file mode 100644 index 000000000..fef090633 --- /dev/null +++ b/ja/built-in-nodes/BriaRemoveImageBackground.mdx @@ -0,0 +1,32 @@ +--- +title: "BriaRemoveImageBackground - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における BriaRemoveImageBackground ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "BriaRemoveImageBackground" +icon: "circle" +mode: wide +translationSourceHash: cb8d7eed +translationFrom: built-in-nodes/BriaRemoveImageBackground.mdx, zh-CN/built-in-nodes/BriaRemoveImageBackground.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/BriaRemoveImageBackground/en.md) + +このノードは、Bria RMBG 2.0 サービスを用いて画像の背景を除去します。画像を外部 API に送信して処理を行い、背景が除去された結果を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 背景を除去する対象となる入力画像です。 | +| `moderation` | COMBO | いいえ | `"false"`
`"true"` | コンテンツ審査設定です。`"true"` に設定すると、追加の審査オプションが有効になります。 | +| `visual_input_moderation` | BOOLEAN | いいえ | - | 入力画像に対して視覚的コンテンツ審査を有効化します。このパラメーターは、`moderation` が `"true"` に設定されている場合のみ利用可能です。デフォルト値:`False`。 | +| `visual_output_moderation` | BOOLEAN | いいえ | - | 出力画像に対して視覚的コンテンツ審査を有効化します。このパラメーターは、`moderation` が `"true"` に設定されている場合のみ利用可能です。デフォルト値:`True`。 | +| `seed` | INT | いいえ | 0 ~ 2147483647 | ノードを再実行するかどうかを制御するシード値です。シード値に関わらず、結果は非決定的です。デフォルト値:`0`。 | + +**注意:** `visual_input_moderation` および `visual_output_moderation` パラメーターは `moderation` パラメーターに依存します。これらは `moderation` が `"true"` に設定された場合にのみ有効となり、その際に必須となります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 背景が除去された処理済み画像です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/BriaRemoveVideoBackground.mdx b/ja/built-in-nodes/BriaRemoveVideoBackground.mdx new file mode 100644 index 000000000..f8e5bcdcf --- /dev/null +++ b/ja/built-in-nodes/BriaRemoveVideoBackground.mdx @@ -0,0 +1,28 @@ +--- +title: "BriaRemoveVideoBackground - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における BriaRemoveVideoBackground ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "BriaRemoveVideoBackground" +icon: "circle" +mode: wide +translationSourceHash: 85dd008e +translationFrom: built-in-nodes/BriaRemoveVideoBackground.mdx, zh-CN/built-in-nodes/BriaRemoveVideoBackground.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/BriaRemoveVideoBackground/en.md) + +このノードは、Bria AI サービスを用いて動画の背景を除去します。入力動画を処理し、元の背景をユーザーが選択した純色に置き換えます。この処理は外部 API を介して実行され、結果は新しい動画ファイルとして返されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `video` | VIDEO | はい | N/A | 背景を除去する対象となる入力動画ファイルです。 | +| `background_color` | STRING | はい | `"Black"`
`"White"`
`"Gray"`
`"Red"`
`"Green"`
`"Blue"`
`"Yellow"`
`"Cyan"`
`"Magenta"`
`"Orange"` | 出力動画の新しい背景として使用する純色です。 | +| `seed` | INT | いいえ | 0 ~ 2147483647 | ノードを再実行するかどうかを制御するシード値です。結果はシード値に関わらず非決定的です。(デフォルト:0) | + +**注意:** 入力動画の再生時間は 60 秒以内である必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 背景が除去され、選択した色に置き換えられた処理済みの動画ファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ByteDanceFirstLastFrameNode.mdx b/ja/built-in-nodes/ByteDanceFirstLastFrameNode.mdx new file mode 100644 index 000000000..080f5fe7a --- /dev/null +++ b/ja/built-in-nodes/ByteDanceFirstLastFrameNode.mdx @@ -0,0 +1,35 @@ +--- +title: "ByteDanceFirstLastFrameNode - ComfyUI 組み込みノード ドキュメント" +description: "ComfyUI における ByteDanceFirstLastFrameNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ByteDanceFirstLastFrameNode" +icon: "circle" +mode: wide +translationSourceHash: 63f5ba0b +translationFrom: built-in-nodes/ByteDanceFirstLastFrameNode.mdx, zh-CN/built-in-nodes/ByteDanceFirstLastFrameNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひ貢献してください! [GitHubで編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ByteDanceFirstLastFrameNode/en.md) + +このノードは、テキストプロンプトと最初・最後のフレーム画像を組み合わせて動画を生成します。ユーザーが指定した説明文および2つのキーフレームに基づき、それらの間を滑らかに遷移する完全な動画シーケンスを作成します。また、出力動画の解像度、アスペクト比、再生時間、その他の生成パラメーターを制御するためのさまざまなオプションが提供されています。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `model` | COMBO | ドロップダウン | seedance_1_lite | seedance_1_lite | モデル名 | +| `prompt` | STRING | 文字列 | - | - | 動画生成に使用されるテキストプロンプトです。 | +| `first_frame` | IMAGE | 画像 | - | - | 動画で使用される最初のフレーム画像です。 | +| `last_frame` | IMAGE | 画像 | - | - | 動画で使用される最後のフレーム画像です。 | +| `resolution` | COMBO | ドロップダウン | - | 480p, 720p, 1080p | 出力動画の解像度です。 | +| `aspect_ratio` | COMBO | ドロップダウン | - | adaptive, 16:9, 4:3, 1:1, 3:4, 9:16, 21:9 | 出力動画のアスペクト比です。 | +| `duration` | INT | スライダー | 5 | 3–12 | 出力動画の再生時間(秒単位)です。 | +| `seed` | INT | 数値 | 0 | 0–2147483647 | 生成時に使用する乱数シードです。(任意) | +| `camera_fixed` | BOOLEAN | ブール値 | False | - | カメラを固定するかどうかを指定します。プラットフォームは、ユーザーのプロンプト末尾に「カメラを固定」という指示を自動付加しますが、実際の効果は保証されません。(任意) | +| `watermark` | BOOLEAN | ブール値 | True | - | 動画に「AI生成」のウォーターマークを追加するかどうかを指定します。(任意) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画ファイル | \ No newline at end of file diff --git a/ja/built-in-nodes/ByteDanceImageEditNode.mdx b/ja/built-in-nodes/ByteDanceImageEditNode.mdx new file mode 100644 index 000000000..91ba5d154 --- /dev/null +++ b/ja/built-in-nodes/ByteDanceImageEditNode.mdx @@ -0,0 +1,31 @@ +--- +title: "ByteDanceImageEditNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ByteDanceImageEditNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ByteDanceImageEditNode" +icon: "circle" +mode: wide +translationSourceHash: d55d1ce9 +translationFrom: built-in-nodes/ByteDanceImageEditNode.mdx, zh-CN/built-in-nodes/ByteDanceImageEditNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ByteDanceImageEditNode/en.md) + +ByteDance 画像編集ノード(ByteDance Image Edit Node)では、API を通じて字節跳動(ByteDance)の AI モデルを用いて画像を編集できます。入力画像と、望ましい変更内容を記述したテキストプロンプトを指定すると、ノードがその指示に従って画像を処理します。このノードは API との通信を自動的に処理し、編集後の画像を返します。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `model` | MODEL | COMBO | seededit_3 | Image2ImageModelName の選択肢 | モデル名 | +| `image` | IMAGE | IMAGE | - | - | 編集対象となるベース画像 | +| `prompt` | STRING | STRING | "" | - | 画像編集のための指示文 | +| `seed` | INT | INT | 0 | 0–2147483647 | 生成時に使用するシード値 | +| `guidance_scale` | FLOAT | FLOAT | 5.5 | 1.0–10.0 | 数値が高いほど、画像がプロンプトに忠実に従うようになります | +| `watermark` | BOOLEAN | BOOLEAN | True | - | 画像に「AI 生成」の透かしを追加するかどうか | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `IMAGE` | IMAGE | 字節跳動(ByteDance)API から返される編集済み画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/ByteDanceImageNode.mdx b/ja/built-in-nodes/ByteDanceImageNode.mdx new file mode 100644 index 000000000..c6880eb73 --- /dev/null +++ b/ja/built-in-nodes/ByteDanceImageNode.mdx @@ -0,0 +1,33 @@ +--- +title: "ByteDanceImageNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ByteDanceImageNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ByteDanceImageNode" +icon: "circle" +mode: wide +translationSourceHash: a31424c1 +translationFrom: built-in-nodes/ByteDanceImageNode.mdx, zh-CN/built-in-nodes/ByteDanceImageNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ByteDanceImageNode/en.md) + +ByteDance Image ノードは、テキストプロンプトに基づく API を通じて字節跳動(バイトダンス)のモデルを用いて画像を生成します。このノードでは、異なるモデルの選択、画像サイズの指定、シード値やガイドランススケールなどの各種生成パラメーターの制御が可能です。ノードは字節跳動の画像生成サービスに接続し、生成された画像を返します。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `model` | MODEL | COMBO | seedream_3 | Text2ImageModelName のオプション | モデル名 | +| `prompt` | STRING | STRING | - | - | 画像生成に使用するテキストプロンプト | +| `size_preset` | STRING | COMBO | - | RECOMMENDED_PRESETS のラベル | おすすめのサイズを選択します。「Custom」を選択すると、以下の幅と高さが有効になります | +| `width` | INT | INT | 1024 | 512–2048(ステップ 64) | 画像のカスタム幅。「`size_preset`」が `Custom` に設定されている場合のみ有効です | +| `height` | INT | INT | 1024 | 512–2048(ステップ 64) | 画像のカスタム高さ。「`size_preset`」が `Custom` に設定されている場合のみ有効です | +| `seed` | INT | INT | 0 | 0–2147483647(ステップ 1) | 生成に使用するシード値(任意) | +| `guidance_scale` | FLOAT | FLOAT | 2.5 | 1.0–10.0(ステップ 0.01) | 値が大きいほど、生成画像がプロンプトに忠実になります(任意) | +| `watermark` | BOOLEAN | BOOLEAN | True | - | 画像に「AI generated(AI 生成)」の透かしを追加するかどうか(任意) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `IMAGE` | IMAGE | 字節跳動(バイトダンス)API により生成された画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/ByteDanceImageReferenceNode.mdx b/ja/built-in-nodes/ByteDanceImageReferenceNode.mdx new file mode 100644 index 000000000..f99c9172f --- /dev/null +++ b/ja/built-in-nodes/ByteDanceImageReferenceNode.mdx @@ -0,0 +1,31 @@ +--- +title: "ByteDanceImageReferenceNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ByteDanceImageReferenceNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ByteDanceImageReferenceNode" +icon: "circle" +mode: wide +translationSourceHash: 730d45fb +translationFrom: built-in-nodes/ByteDanceImageReferenceNode.mdx, zh-CN/built-in-nodes/ByteDanceImageReferenceNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ByteDanceImageReferenceNode/en.md) + +ByteDance 画像参照ノード(ByteDance Image Reference Node)は、テキストプロンプトと1〜4枚の参照画像を用いて動画を生成します。このノードは、参照画像とプロンプトを外部 API サービスに送信し、指定したテキストの内容を再現するとともに、参照画像の視覚的スタイルやコンテンツを反映した動画を生成します。また、出力動画の解像度、アスペクト比、再生時間、その他の生成パラメーターを細かく制御するための各種設定が提供されています。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | 初期値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `model` | MODEL | COMBO | seedance_1_lite | seedance_1_lite | モデル名 | +| `prompt` | STRING | STRING | - | - | 動画生成に使用するテキストプロンプトです。 | +| `images` | IMAGE | IMAGE | - | - | 1〜4枚の画像です。 | +| `resolution` | STRING | COMBO | - | 480p, 720p | 出力動画の解像度です。 | +| `aspect_ratio` | STRING | COMBO | - | adaptive, 16:9, 4:3, 1:1, 3:4, 9:16, 21:9 | 出力動画のアスペクト比です。 | +| `duration` | INT | INT | 5 | 3–12 | 出力動画の再生時間(単位:秒)です。 | +| `seed` | INT | INT | 0 | 0–2147483647 | 生成時に使用する乱数シードです。 | +| `watermark` | BOOLEAN | BOOLEAN | True | - | 動画に「AI生成」の透かしを追加するかどうかを指定します。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 入力プロンプトおよび参照画像に基づいて生成された動画ファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ByteDanceImageToVideoNode.mdx b/ja/built-in-nodes/ByteDanceImageToVideoNode.mdx new file mode 100644 index 000000000..a9c1f7e7f --- /dev/null +++ b/ja/built-in-nodes/ByteDanceImageToVideoNode.mdx @@ -0,0 +1,34 @@ +--- +title: "ByteDanceImageToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ByteDanceImageToVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ByteDanceImageToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: ff3e39d4 +translationFrom: built-in-nodes/ByteDanceImageToVideoNode.mdx, zh-CN/built-in-nodes/ByteDanceImageToVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見した場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ByteDanceImageToVideoNode/en.md) + +ByteDance Image to Video ノードは、入力画像とテキストプロンプトに基づき、字節跳動(ByteDance)のモデルをAPI経由で利用して動画を生成します。このノードは開始フレームとなる画像を受け取り、指定された説明に従った動画シーケンスを生成します。また、動画の解像度、アスペクト比、再生時間、その他の生成パラメーターについて、さまざまなカスタマイズオプションを提供しています。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|------------|----------|------------|------------|------|------| +| `model` | STRING | COMBO | seedance_1_pro | Image2VideoModelName オプション | モデル名 | +| `prompt` | STRING | STRING | - | - | 動画生成に使用されるテキストプロンプトです。 | +| `image` | IMAGE | IMAGE | - | - | 動画の開始フレームとして使用される画像です。 | +| `resolution` | STRING | COMBO | - | ["480p", "720p", "1080p"] | 出力動画の解像度です。 | +| `aspect_ratio` | STRING | COMBO | - | ["adaptive", "16:9", "4:3", "1:1", "3:4", "9:16", "21:9"] | 出力動画のアスペクト比です。 | +| `duration` | INT | INT | 5 | 3–12 | 出力動画の再生時間(秒単位)です。 | +| `seed` | INT | INT | 0 | 0–2147483647 | 生成時に使用する乱数シードです。 | +| `camera_fixed` | BOOLEAN | BOOLEAN | False | - | カメラを固定するかどうかを指定します。プラットフォームは、ユーザーのプロンプト末尾に「カメラを固定する」という指示を自動付与しますが、実際の効果は保証されません。 | +| `watermark` | BOOLEAN | BOOLEAN | True | - | 動画に「AI生成」の透かしを追加するかどうかを指定します。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `output` | VIDEO | 入力画像およびプロンプトパラメーターに基づいて生成された動画ファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ByteDanceSeedreamNode.mdx b/ja/built-in-nodes/ByteDanceSeedreamNode.mdx new file mode 100644 index 000000000..24e21b0ac --- /dev/null +++ b/ja/built-in-nodes/ByteDanceSeedreamNode.mdx @@ -0,0 +1,36 @@ +--- +title: "ByteDanceSeedreamNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ByteDanceSeedreamNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ByteDanceSeedreamNode" +icon: "circle" +mode: wide +translationSourceHash: 0d9c78dc +translationFrom: built-in-nodes/ByteDanceSeedreamNode.mdx, zh-CN/built-in-nodes/ByteDanceSeedreamNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ByteDanceSeedreamNode/en.md) + +ByteDance Seedream 4 ノードは、統合されたテキストから画像への生成機能と、最大4K解像度での高精度な単一文による編集機能を提供します。テキストプロンプトに基づいて新しい画像を作成したり、テキストによる指示で既存の画像を編集したりできます。このノードは、単一画像の生成に加えて、複数の関連画像を順次生成することもサポートしています。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `model` | MODEL | COMBO | "seedream-4-0-250828" | ["seedream-4-0-250828"] | モデル名 | +| `prompt` | STRING | STRING | "" | - | 画像の作成または編集に用いるテキストプロンプト | +| `image` | IMAGE | IMAGE | - | - | 画像から画像への生成に用いる入力画像。単一参照または複数参照生成では、1~10枚の画像リストを指定できます。 | +| `size_preset` | STRING | COMBO | `RECOMMENDED_PRESETS_SEEDREAM_4` の最初のプリセット | `RECOMMENDED_PRESETS_SEEDREAM_4` のすべてのラベル | 推奨サイズを選択します。「カスタム」を選択すると、以下の幅(width)および高さ(height)が有効になります。 | +| `width` | INT | INT | 2048 | 1024–4096(ステップ64) | 画像のカスタム幅。`size_preset` が `Custom` に設定されている場合のみ有効です。 | +| `height` | INT | INT | 2048 | 1024–4096(ステップ64) | 画像のカスタム高さ。`size_preset` が `Custom` に設定されている場合のみ有効です。 | +| `sequential_image_generation` | STRING | COMBO | "disabled" | ["disabled", "auto"] | 画像のグループ生成モード。「disabled」では単一画像が生成されます。「auto」では、モデルが複数の関連画像(例:物語のシーン、キャラクターのバリエーションなど)を生成するかどうかを自動的に判断します。 | +| `max_images` | INT | INT | 1 | 1–15 | `sequential_image_generation` が `"auto"` の場合に生成される画像の最大数。入力画像と生成画像を含む総画像数は15枚を超えることはできません。 | +| `seed` | INT | INT | 0 | 0–2147483647 | 生成時に使用するシード値 | +| `watermark` | BOOLEAN | BOOLEAN | True | - | 画像に「AI生成」の透かしを追加するかどうか | +| `fail_on_partial` | BOOLEAN | BOOLEAN | True | - | 有効にした場合、要求された画像のいずれかが欠落している、またはエラーを返すと実行が中止されます。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `IMAGE` | IMAGE | 入力パラメーターおよびプロンプトに基づいて生成された画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/ByteDanceTextToVideoNode.mdx b/ja/built-in-nodes/ByteDanceTextToVideoNode.mdx new file mode 100644 index 000000000..559b27ae9 --- /dev/null +++ b/ja/built-in-nodes/ByteDanceTextToVideoNode.mdx @@ -0,0 +1,40 @@ +--- +title: "ByteDanceTextToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ByteDanceTextToVideoNode ノードの完全なドキュメントです。入力、出力、パラメータおよび使用方法について学びましょう。" +sidebarTitle: "ByteDanceTextToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 74aed7f0 +translationFrom: built-in-nodes/ByteDanceTextToVideoNode.mdx, zh-CN/built-in-nodes/ByteDanceTextToVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ByteDanceTextToVideoNode/en.md) + +ByteDance 文字列から動画生成ノード(ByteDanceTextToVideoNode)は、テキストプロンプトに基づく API を通じて ByteDance のモデルを用いて動画を生成します。このノードはテキストによる説明および各種動画設定を入力として受け取り、指定された仕様に合致する動画を生成します。ノードは API との通信を処理し、生成された動画を出力として返します。 + +## 入力パラメータ + +| パラメータ名 | データ型 | 入力タイプ | デフォルト値 | 取値範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `model` | STRING | ドロップダウン選択 | seedance_1_pro | Text2VideoModelName オプション | モデル名 | +| `prompt` | STRING | 文字列 | - | - | 動画生成に使用されるテキストプロンプトです。 | +| `resolution` | STRING | ドロップダウン選択 | - | ["480p", "720p", "1080p"] | 出力動画の解像度です。 | +| `aspect_ratio` | STRING | ドロップダウン選択 | - | ["16:9", "4:3", "1:1", "3:4", "9:16", "21:9"] | 出力動画のアスペクト比です。 | +| `duration` | INT | 整数 | 5 | 3–12 | 出力動画の再生時間(秒単位)です。 | +| `seed` | INT | 整数 | 0 | 0–2147483647 | 生成時に使用するシード値です。(任意) | +| `camera_fixed` | BOOLEAN | ブール値 | False | - | カメラを固定するかどうかを指定します。プラットフォームは、ユーザーのプロンプト末尾に「カメラを固定」という指示を自動付与しますが、実際の効果は保証されません。(任意) | +| `watermark` | BOOLEAN | ブール値 | True | - | 動画に「AI生成」の透かしを追加するかどうかを指定します。(任意) | + +**パラメータ制約:** + +- `prompt` パラメータは、空白文字を除去した後、少なくとも 1 文字を含む必要があります。 +- `prompt` パラメータには、以下の文字列(テキストパラメータ)を含めることはできません:`"resolution"`、`"ratio"`、`"duration"`、`"seed"`、`"camerafixed"`、`"watermark"` +- `duration` パラメータは、3 秒から 12 秒の間の値に制限されます。 +- `seed` パラメータは、0 から 2,147,483,647 の間の値を受け付けます。 + +## 出力パラメータ + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画ファイル | \ No newline at end of file diff --git a/ja/built-in-nodes/CFGGuider.mdx b/ja/built-in-nodes/CFGGuider.mdx new file mode 100644 index 000000000..14f53a312 --- /dev/null +++ b/ja/built-in-nodes/CFGGuider.mdx @@ -0,0 +1,27 @@ +--- +title: "CFGGuider - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における CFGGuider ノードの完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "CFGGuider" +icon: "circle" +mode: wide +translationSourceHash: a3453c63 +translationFrom: built-in-nodes/CFGGuider.mdx, zh-CN/built-in-nodes/CFGGuider.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CFGGuider/en.md) + +CFGGuider ノードは、画像生成におけるサンプリングプロセスを制御するためのガイドシステムを作成します。このノードはモデルおよび正の条件付け(ポジティブ・コンディショニング)と負の条件付け(ネガティブ・コンディショニング)の入力を受け取り、分類器不要のガイドスケール(Classifier-Free Guidance Scale)を適用して、生成プロセスを望ましいコンテンツへと誘導すると同時に、不要な要素を回避します。このノードは「ガイドオブジェクト(guider object)」を出力し、これをサンプリングノードに渡すことで、画像生成の方向性を制御できます。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `model` | MODEL | 必須 | - | - | ガイドに使用するモデル | +| `positive` | CONDITIONING | 必須 | - | - | 生成を望ましいコンテンツへと誘導する正の条件付け | +| `negative` | CONDITIONING | 必須 | - | - | 生成を不要なコンテンツから遠ざける負の条件付け | +| `cfg` | FLOAT | 必須 | 8.0 | 0.0 - 100.0 | 分類器不要のガイドスケール。条件付けが生成プロセスに与える影響の強さを制御します | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `GUIDER` | GUIDER | 生成プロセスの制御に使用できるガイドオブジェクト。サンプリングノードに渡すことができます | \ No newline at end of file diff --git a/ja/built-in-nodes/CFGNorm.mdx b/ja/built-in-nodes/CFGNorm.mdx new file mode 100644 index 000000000..fac184dfb --- /dev/null +++ b/ja/built-in-nodes/CFGNorm.mdx @@ -0,0 +1,25 @@ +--- +title: "CFGNorm - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CFGNorm ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CFGNorm" +icon: "circle" +mode: wide +translationSourceHash: d7052a6d +translationFrom: built-in-nodes/CFGNorm.mdx, zh-CN/built-in-nodes/CFGNorm.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合や、改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CFGNorm/en.md) + +CFGNorm ノードは、拡散モデルにおける分類器不要ガイド(Classifier-Free Guidance: CFG)プロセスに正規化技術を適用します。このノードは、条件付き出力と非条件付き出力のノルムを比較することで、デノイズされた予測値のスケールを調整し、さらに効果の強さを制御するために強度乗数(strength multiplier)を適用します。これにより、ガイドスケーリングにおける極端な値を抑制し、生成プロセスの安定化を図ります。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `model` | MODEL | 必須 | - | - | CFG 正規化を適用する拡散モデル | +| `strength` | FLOAT | 必須 | 1.0 | 0.0 ~ 100.0 | CFG スケーリングに適用される正規化効果の強さを制御します | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `patched_model` | MODEL | サンプリングプロセスに CFG 正規化が適用された、修正済みのモデルを返します | \ No newline at end of file diff --git a/ja/built-in-nodes/CFGZeroStar.mdx b/ja/built-in-nodes/CFGZeroStar.mdx new file mode 100644 index 000000000..d32a0ed71 --- /dev/null +++ b/ja/built-in-nodes/CFGZeroStar.mdx @@ -0,0 +1,26 @@ +--- +title: "CFGZeroStar - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における CFGZeroStar ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CFGZeroStar" +icon: "circle" +mode: wide +translationSourceHash: 0496f6d8 +translationFrom: built-in-nodes/CFGZeroStar.mdx, zh-CN/built-in-nodes/CFGZeroStar.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CFGZeroStar/en.md) + +CFGZeroStar ノードは、拡散モデルに対して特殊なガイドスケーリング技術を適用します。このノードは、条件付き予測と非条件付き予測の差分に基づいて最適化されたスケール係数を算出し、クラス分類器を用いないガイド(Classifier-Free Guidance)プロセスを修正します。このアプローチにより、最終出力を調整し、モデルの安定性を維持しつつ、生成プロセスに対する制御性を高めます。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `model` | MODEL | 必須 | - | - | CFGZeroStar ガイドスケーリング技術を適用して修正する拡散モデル | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `patched_model` | MODEL | CFGZeroStar ガイドスケーリングが適用された修正済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/CLIPAdd.mdx b/ja/built-in-nodes/CLIPAdd.mdx new file mode 100644 index 000000000..c009de117 --- /dev/null +++ b/ja/built-in-nodes/CLIPAdd.mdx @@ -0,0 +1,25 @@ +--- +title: "CLIPAdd - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における CLIPAdd ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CLIPAdd" +icon: "circle" +mode: wide +translationSourceHash: 0f1b5469 +translationFrom: built-in-nodes/CLIPAdd.mdx, zh-CN/built-in-nodes/CLIPAdd.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CLIPAdd/en.md) + +CLIPAdd ノードは、2つの CLIP モデルのキーパッチを統合することで、それらを結合します。具体的には、最初の CLIP モデルのコピーを作成し、そのコピーに2番目のモデルから得られるほとんどのキーパッチ(位置 ID およびロジットスケールパラメーターを除く)を追加します。これにより、最初のモデルの構造を維持しつつ、異なる CLIP モデルの特徴を融合することが可能になります。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `clip1` | CLIP | 必須 | - | - | 統合の基盤となる主要な CLIP モデル | +| `clip2` | CLIP | 必須 | - | - | 追加するパッチを提供する副次的な CLIP モデル | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `CLIP` | CLIP | 両方の入力モデルの特徴を統合した、結合済みの CLIP モデルを返します | \ No newline at end of file diff --git a/ja/built-in-nodes/CLIPAttentionMultiply.mdx b/ja/built-in-nodes/CLIPAttentionMultiply.mdx new file mode 100644 index 000000000..327abff3d --- /dev/null +++ b/ja/built-in-nodes/CLIPAttentionMultiply.mdx @@ -0,0 +1,30 @@ +--- +title: "CLIPAttentionMultiply - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における CLIPAttentionMultiply ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CLIPAttentionMultiply" +icon: "circle" +mode: wide +translationSourceHash: 0d8f74b9 +translationFrom: built-in-nodes/CLIPAttentionMultiply.mdx, zh-CN/built-in-nodes/CLIPAttentionMultiply.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CLIPAttentionMultiply/en.md) + +CLIPAttentionMultiply ノードは、自己注意層の異なる構成要素に乗算係数を適用することで、CLIP モデル内の注意機構(アテンション・メカニズム)を調整することを可能にします。具体的には、CLIP モデルの注意機構におけるクエリ(query)、キー(key)、バリュー(value)、および出力プロジェクションの重みとバイアスを変更します。この実験的なノードは、指定されたスケーリング係数を適用した入力 CLIP モデルの変更済みコピーを作成します。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `clip` | CLIP | 必須 | - | - | 変更対象の CLIP モデル | +| `q` | FLOAT | 必須 | 1.0 | 0.0 – 10.0 | クエリ投影の重みおよびバイアスに対する乗算係数 | +| `k` | FLOAT | 必須 | 1.0 | 0.0 – 10.0 | キー投影の重みおよびバイアスに対する乗算係数 | +| `v` | FLOAT | 必須 | 1.0 | 0.0 – 10.0 | バリュー投影の重みおよびバイアスに対する乗算係数 | +| `out` | FLOAT | 必須 | 1.0 | 0.0 – 10.0 | 出力プロジェクションの重みおよびバイアスに対する乗算係数 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `CLIP` | CLIP | 指定された注意機構スケーリング係数を適用した変更済み CLIP モデルを返します | \ No newline at end of file diff --git a/ja/built-in-nodes/CLIPMergeAdd.mdx b/ja/built-in-nodes/CLIPMergeAdd.mdx new file mode 100644 index 000000000..daac43c42 --- /dev/null +++ b/ja/built-in-nodes/CLIPMergeAdd.mdx @@ -0,0 +1,27 @@ +--- +title: "CLIPMergeAdd - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における CLIPMergeAdd ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CLIPMergeAdd" +icon: "circle" +mode: wide +translationSourceHash: 49230585 +translationFrom: built-in-nodes/CLIPMergeAdd.mdx, zh-CN/built-in-nodes/CLIPMergeAdd.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CLIPMergeAdd/en.md) + +CLIPMergeAdd ノードは、2つの CLIP モデルを、2番目のモデルから抽出したパッチを1番目のモデルに加算することで統合します。このノードは、1番目の CLIP モデルのコピーを作成し、2番目のモデルから位置 ID(Position IDs)やロジットスケール(logit scale)パラメーターを除外した上で、その他の重要なパッチを選択的に統合します。これにより、ベースとなるモデルの構造を維持したまま、CLIP モデルのコンポーネントを統合できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `clip1` | CLIP | はい | - | マージの基盤としてクローンされ、使用されるベースとなる CLIP モデル | +| `clip2` | CLIP | はい | - | ベースモデルに追加される重要なパッチを提供する補助的な CLIP モデル | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `CLIP` | CLIP | ベースモデルの構造を保持しつつ、補助モデルからのパッチが追加された統合済みの CLIP モデル | \ No newline at end of file diff --git a/ja/built-in-nodes/CLIPMergeSubtract.mdx b/ja/built-in-nodes/CLIPMergeSubtract.mdx new file mode 100644 index 000000000..dbad3309e --- /dev/null +++ b/ja/built-in-nodes/CLIPMergeSubtract.mdx @@ -0,0 +1,30 @@ +--- +title: "CLIPMergeSubtract - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における CLIPMergeSubtract ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CLIPMergeSubtract" +icon: "circle" +mode: wide +translationSourceHash: a395659e +translationFrom: built-in-nodes/CLIPMergeSubtract.mdx, zh-CN/built-in-nodes/CLIPMergeSubtract.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案がありましたら、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CLIPMergeSubtract/en.md) + +CLIPMergeSubtract ノードは、ある CLIP モデルの重みから別の CLIP モデルの重みを減算することでモデルのマージを行います。このノードは、まず最初のモデルをクローンし、その後、2 つ目のモデルのキーパッチを減算(減算の強さを調整可能な乗数で制御可能)することで新しい CLIP モデルを作成します。これにより、ベースモデルから特定の特徴を除去することによる、きめ細かなモデルブレンドが可能になります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `clip1` | CLIP | はい | - | クローンおよび変更対象となるベースの CLIP モデル | +| `clip2` | CLIP | はい | - | そのキーパッチがベースモデルから減算される CLIP モデル | +| `multiplier` | FLOAT | はい | -10.0 ~ 10.0 | 減算操作の強さを制御する乗数(デフォルト値:1.0) | + +**注意:** このノードでは、`multiplier` の値に関わらず、`.position_ids` および `.logit_scale` パラメーターは減算操作の対象から除外されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `clip` | CLIP | 最初のモデルから 2 つ目のモデルの重みを減算した結果得られる CLIP モデル | \ No newline at end of file diff --git a/ja/built-in-nodes/CLIPSubtract.mdx b/ja/built-in-nodes/CLIPSubtract.mdx new file mode 100644 index 000000000..0fde75ff7 --- /dev/null +++ b/ja/built-in-nodes/CLIPSubtract.mdx @@ -0,0 +1,28 @@ +--- +title: "CLIPSubtract - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CLIPSubtract ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CLIPSubtract" +icon: "circle" +mode: wide +translationSourceHash: 561fbc42 +translationFrom: built-in-nodes/CLIPSubtract.mdx, zh-CN/built-in-nodes/CLIPSubtract.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CLIPSubtract/en.md) + +CLIPSubtract ノードは、2つの CLIP モデル間で減算演算を実行します。このノードでは、最初の CLIP モデルをベースとして用い、2番目の CLIP モデルのキーパッチを減算します。また、減算の強さを制御するためのオプションの乗数を指定できます。これにより、あるモデルから別のモデルの特定の特徴を除去することで、細かく調整されたモデルのブレンドが可能になります。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `clip1` | CLIP | 必須 | - | - | 変更対象となるベースの CLIP モデル | +| `clip2` | CLIP | 必須 | - | - | そのキーパッチがベースモデルから減算される CLIP モデル | +| `multiplier` | FLOAT | 必須 | 1.0 | -10.0 ~ 10.0(ステップ 0.01) | 減算演算の強さを制御します | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `CLIP` | CLIP | 減算演算後に得られる CLIP モデル | \ No newline at end of file diff --git a/ja/built-in-nodes/CLIPTextEncodeControlnet.mdx b/ja/built-in-nodes/CLIPTextEncodeControlnet.mdx new file mode 100644 index 000000000..f17829991 --- /dev/null +++ b/ja/built-in-nodes/CLIPTextEncodeControlnet.mdx @@ -0,0 +1,30 @@ +--- +title: "CLIPTextEncodeControlnet - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における CLIPTextEncodeControlnet ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CLIPTextEncodeControlnet" +icon: "circle" +mode: wide +translationSourceHash: c6a352a0 +translationFrom: built-in-nodes/CLIPTextEncodeControlnet.mdx, zh-CN/built-in-nodes/CLIPTextEncodeControlnet.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善に関するご提案がある場合は、ぜひご協力ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CLIPTextEncodeControlnet/en.md) + +CLIPTextEncodeControlnet ノードは、CLIP モデルを用いてテキスト入力を処理し、既存の条件付けデータと組み合わせることで、ControlNet アプリケーション向けに強化された条件付け出力を生成します。このノードは入力テキストをトークン化し、CLIP モデルを通じてエンコードした後、得られた埋め込みベクトルを、指定された条件付けデータにクロスアテンション用の ControlNet パラメーターとして追加します。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `clip` | CLIP | 必須 | - | - | テキストのトークン化およびエンコードに使用される CLIP モデル | +| `conditioning` | CONDITIONING | 必須 | - | - | ControlNet パラメーターにより強化される既存の条件付けデータ | +| `text` | STRING | 複数行対応、動的プロンプト | - | - | CLIP モデルによって処理されるテキスト入力 | + +**注意:** このノードは正常に動作するために、`clip` および `conditioning` の両方の入力が必要です。`text` 入力は動的プロンプトおよび複数行テキストをサポートしており、柔軟なテキスト処理が可能です。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `CONDITIONING` | CONDITIONING | ControlNet のクロスアテンションパラメーターが追加された強化済みの条件付けデータ | \ No newline at end of file diff --git a/ja/built-in-nodes/CLIPTextEncodeHiDream.mdx b/ja/built-in-nodes/CLIPTextEncodeHiDream.mdx new file mode 100644 index 000000000..275a96952 --- /dev/null +++ b/ja/built-in-nodes/CLIPTextEncodeHiDream.mdx @@ -0,0 +1,32 @@ +--- +title: "CLIPTextEncodeHiDream - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における CLIPTextEncodeHiDream ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CLIPTextEncodeHiDream" +icon: "circle" +mode: wide +translationSourceHash: ab29dd86 +translationFrom: built-in-nodes/CLIPTextEncodeHiDream.mdx, zh-CN/built-in-nodes/CLIPTextEncodeHiDream.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CLIPTextEncodeHiDream/en.md) + +CLIPTextEncodeHiDream ノードは、異なる言語モデルを用いて複数のテキスト入力を処理し、それらを単一の条件付け(conditioning)出力に統合します。このノードは、4つの異なるソース(CLIP-L、CLIP-G、T5-XXL、および LLaMA)から取得したテキストをトークン化し、スケジュールされたエンコーディング手法を用いてエンコードします。これにより、複数の言語モデルを同時に活用することで、より高度なテキスト条件付けが可能になります。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `clip` | CLIP | 必須入力 | - | - | トークン化およびエンコーディングに使用される CLIP モデル | +| `clip_l` | STRING | 複数行テキスト | - | - | CLIP-L モデル処理用のテキスト入力 | +| `clip_g` | STRING | 複数行テキスト | - | - | CLIP-G モデル処理用のテキスト入力 | +| `t5xxl` | STRING | 複数行テキスト | - | - | T5-XXL モデル処理用のテキスト入力 | +| `llama` | STRING | 複数行テキスト | - | - | LLaMA モデル処理用のテキスト入力 | + +**注意:** すべてのテキスト入力は、動的プロンプトおよび複数行テキスト入力をサポートしています。本ノードは正常に動作するために、上記の4つのテキストパラメーターすべてを指定する必要があります。各パラメーターは、スケジュールされたエンコーディングプロセスを通じて最終的な条件付け出力に寄与します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `CONDITIONING` | CONDITIONING | すべての処理済みテキスト入力から得られる統合された条件付け出力 | \ No newline at end of file diff --git a/ja/built-in-nodes/CLIPTextEncodeKandinsky5.mdx b/ja/built-in-nodes/CLIPTextEncodeKandinsky5.mdx new file mode 100644 index 000000000..ad9463e81 --- /dev/null +++ b/ja/built-in-nodes/CLIPTextEncodeKandinsky5.mdx @@ -0,0 +1,28 @@ +--- +title: "CLIPTextEncodeKandinsky5 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における CLIPTextEncodeKandinsky5 ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CLIPTextEncodeKandinsky5" +icon: "circle" +mode: wide +translationSourceHash: b21de64b +translationFrom: built-in-nodes/CLIPTextEncodeKandinsky5.mdx, zh-CN/built-in-nodes/CLIPTextEncodeKandinsky5.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CLIPTextEncodeKandinsky5/en.md) + +CLIPTextEncodeKandinsky5 ノードは、Kandinsky 5 モデルで使用するためのテキストプロンプトを準備します。このノードは、2つの独立したテキスト入力を受け取り、指定された CLIP モデルを用いてそれらをトークン化し、単一の条件付け(conditioning)出力に統合します。この出力は、画像生成プロセスを制御するために使用されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `clip` | CLIP | はい | | テキストプロンプトのトークン化およびエンコーディングに使用される CLIP モデルです。 | +| `clip_l` | STRING | はい | | 主要なテキストプロンプトです。この入力は複数行のテキストおよび動的プロンプトをサポートします。 | +| `qwen25_7b` | STRING | はい | | サブテキストプロンプト(補助的なテキストプロンプト)です。この入力は複数行のテキストおよび動的プロンプトをサポートします。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `CONDITIONING` | CONDITIONING | 2つのテキストプロンプトから生成された統合条件データであり、画像生成のために Kandinsky 5 モデルへ入力する準備が整っています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/CLIPTextEncodeLumina2.mdx b/ja/built-in-nodes/CLIPTextEncodeLumina2.mdx new file mode 100644 index 000000000..ca2414f48 --- /dev/null +++ b/ja/built-in-nodes/CLIPTextEncodeLumina2.mdx @@ -0,0 +1,30 @@ +--- +title: "CLIPTextEncodeLumina2 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における CLIPTextEncodeLumina2 ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CLIPTextEncodeLumina2" +icon: "circle" +mode: wide +translationSourceHash: e5de11a2 +translationFrom: built-in-nodes/CLIPTextEncodeLumina2.mdx, zh-CN/built-in-nodes/CLIPTextEncodeLumina2.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案がありましたら、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CLIPTextEncodeLumina2/en.md) + +CLIP Text Encode for Lumina2 ノードは、CLIP モデルを用いてシステムプロンプトとユーザー・プロンプトをエンコードし、拡散モデルが特定の画像を生成する際のガイドとして利用可能な埋め込みベクトル(embedding)を生成します。このノードでは、あらかじめ定義されたシステムプロンプトとユーザーが指定したカスタムテキスト・プロンプトを組み合わせ、CLIP モデルを通じて処理することで、画像生成に用いる条件付けデータ(conditioning data)を作成します。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `system_prompt` | STRING | COMBO | - | `"superior"`, `"alignment"` | Lumina2 では、2 種類のシステムプロンプトが提供されています。
**Superior**: テキストプロンプトまたはユーザー・プロンプトに基づき、卓越した画像・テキスト対応度(image-text alignment)を実現した高品質な画像を生成するよう設計されたアシスタントです。
**Alignment**: テキストプロンプトに基づき、最高レベルの画像・テキスト対応度を実現した高品質な画像を生成するよう設計されたアシスタントです。 | +| `user_prompt` | STRING | STRING | - | - | エンコード対象のテキストです。 | +| `clip` | CLIP | CLIP | - | - | テキストのエンコードに使用される CLIP モデルです。 | + +**注意:** `clip` 入力は必須であり、`None` を指定することはできません。`clip` 入力が無効な場合、ノードはエラーを発生させ、「チェックポイントに有効な CLIP モデルまたはテキストエンコーダーが含まれていない可能性があります」というメッセージを表示します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `CONDITIONING` | CONDITIONING | 拡散モデルの制御に用いられる、テキストを埋め込んだ条件付けデータです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/CLIPTextEncodePixArtAlpha.mdx b/ja/built-in-nodes/CLIPTextEncodePixArtAlpha.mdx new file mode 100644 index 000000000..fe85d1138 --- /dev/null +++ b/ja/built-in-nodes/CLIPTextEncodePixArtAlpha.mdx @@ -0,0 +1,27 @@ +--- +title: "CLIPTextEncodePixArtAlpha - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における CLIPTextEncodePixArtAlpha ノードの完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "CLIPTextEncodePixArtAlpha" +icon: "circle" +mode: wide +translationSourceHash: c955c6be +translationFrom: built-in-nodes/CLIPTextEncodePixArtAlpha.mdx, zh-CN/built-in-nodes/CLIPTextEncodePixArtAlpha.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CLIPTextEncodePixArtAlpha/en.md) + +テキストをエンコードし、PixArt Alpha 向けの解像度条件付けを行います。このノードはテキスト入力を処理し、幅と高さの情報を付与することで、PixArt Alpha モデル専用の条件付けデータを生成します。PixArt Sigma モデルには対応していません。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `width` | INT | 入力 | 1024 | 0 ~ MAX_RESOLUTION | 解像度条件付けにおける幅の次元 | +| `height` | INT | 入力 | 1024 | 0 ~ MAX_RESOLUTION | 解像度条件付けにおける高さの次元 | +| `text` | STRING | 入力 | - | - | エンコード対象のテキスト入力。複数行入力および動的プロンプトをサポート | +| `clip` | CLIP | 入力 | - | - | トークン化およびエンコーディングに使用される CLIP モデル | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `CONDITIONING` | CONDITIONING | テキストトークンおよび解像度情報が含まれるエンコード済みの条件付けデータ | \ No newline at end of file diff --git a/ja/built-in-nodes/CLIPTextEncodeSD3.mdx b/ja/built-in-nodes/CLIPTextEncodeSD3.mdx new file mode 100644 index 000000000..9a1d3d3bc --- /dev/null +++ b/ja/built-in-nodes/CLIPTextEncodeSD3.mdx @@ -0,0 +1,36 @@ +--- +title: "CLIPTextEncodeSD3 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における CLIPTextEncodeSD3 ノードの完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "CLIPTextEncodeSD3" +icon: "circle" +mode: wide +translationSourceHash: d4b1f4d4 +translationFrom: built-in-nodes/CLIPTextEncodeSD3.mdx, zh-CN/built-in-nodes/CLIPTextEncodeSD3.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CLIPTextEncodeSD3/en.md) + +CLIPTextEncodeSD3 ノードは、複数のテキストプロンプトを異なる CLIP モデルを用いてエンコードすることで、Stable Diffusion 3(SD3)モデル向けのテキスト入力を処理します。このノードは、3 つの独立したテキスト入力(`clip_g`、`clip_l`、`t5xxl`)を扱い、空のテキスト入力に対するパディング処理を制御するオプションを提供します。また、異なるテキスト入力間でのトークン長の整合性を保証し、SD3 の生成パイプラインで使用可能な条件データ(conditioning data)を返します。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `clip` | CLIP | 必須 | - | - | テキストエンコーディングに使用される CLIP モデル | +| `clip_l` | STRING | 複数行、動的プロンプト対応 | - | - | ローカル CLIP モデル用のテキスト入力 | +| `clip_g` | STRING | 複数行、動的プロンプト対応 | - | - | グローバル CLIP モデル用のテキスト入力 | +| `t5xxl` | STRING | 複数行、動的プロンプト対応 | - | - | T5-XXL モデル用のテキスト入力 | +| `empty_padding` | COMBO | 選択 | - | ["none", "empty_prompt"] | 空のテキスト入力の処理方法を制御します | + +**パラメーター制約:** + +- `empty_padding` を `"none"` に設定した場合、`clip_g`、`clip_l`、または `t5xxl` のいずれかのテキスト入力が空であっても、空のトークンリストが生成され、パディングは行われません。 +- `clip_l` と `clip_g` のトークン長が異なる場合、ノードは自動的に短い方の入力を空トークンでパディングして、両者のトークン長を揃えます。 +- すべてのテキスト入力は、動的プロンプトおよび複数行テキスト入力に対応しています。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `CONDITIONING` | CONDITIONING | SD3 の生成パイプラインで使用可能な、エンコード済みのテキスト条件データ | \ No newline at end of file diff --git a/ja/built-in-nodes/Canny.mdx b/ja/built-in-nodes/Canny.mdx new file mode 100755 index 000000000..85db479e1 --- /dev/null +++ b/ja/built-in-nodes/Canny.mdx @@ -0,0 +1,49 @@ +--- +title: "Canny - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の Canny ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Canny" +icon: "circle" +mode: wide +translationSourceHash: 6be2ccd0 +translationFrom: built-in-nodes/Canny.mdx, zh-CN/built-in-nodes/Canny.mdx +--- +写真からすべてのエッジ(輪郭)ラインを抽出します。まるでペンを使って写真をトレースするように、物体の輪郭やディテールの境界線を描き出します。 + +## 動作原理 + +あなたが写真をペンで輪郭どりする画家であると想像してください。Canny ノードは、どこに線(エッジ)を引くべきか、またどこには引かないべきかを判断する「知的なアシスタント」のようなものです。 + +この処理は、一種のフィルタリング作業に似ています: + +- **高しきい値**は「必ず線を引く基準」です:非常に明瞭で目立つ輪郭線のみが抽出されます。たとえば、人物の顔の輪郭や建物のフレームなどです。 +- **低しきい値**は「絶対に線を引かない基準」です:あまりにも弱いエッジは無視され、ノイズや意味のない線の描画を防ぎます。 +- **中間領域**:上記2つの基準の間に位置するエッジについては、「必ず線を引く」エッジとつながっている場合のみ抽出され、孤立している場合は無視されます。 + +最終的な出力は白黒画像であり、白色部分が検出されたエッジ(輪郭線)、黒色部分がエッジのない領域です。 + +## 入力 + +| パラメーター名 | データ型 | 入力タイプ | 初期値 | 範囲 | 機能説明 | +|------------------|----------|------------|--------|-----------|----------| +| `image` | IMAGE | 入力 | - | - | エッジ抽出を行う元の画像 | +| `low_threshold` | FLOAT | ウィジェット | 0.4 | 0.01–0.99 | 低しきい値。どの程度弱いエッジを無視するかを決定します。値が小さいほど細部まで保持されますが、ノイズが増える可能性があります。 | +| `high_threshold` | FLOAT | ウィジェット | 0.8 | 0.01–0.99 | 高しきい値。どの程度強いエッジを保持するかを決定します。値が大きいほど、最も明瞭な輪郭線のみが残ります。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|---------|----------|------| +| `image` | IMAGE | 白黒のエッジ画像。白色の線が検出されたエッジ、黒色の領域がエッジのない部分です。 | + +## パラメーター比較 + +![元の画像](/images/built-in-nodes/Canny/input.webp) + +![パラメーター比較](/images/built-in-nodes/Canny/compare.webp) + +**よくある問題:** + +- エッジが途切れている:高しきい値を下げてみてください。 +- ノイズが多く発生する:低しきい値を上げてみてください。 +- 重要なディテールが欠落している:低しきい値を下げてみてください。 +- エッジが粗すぎる:入力画像の品質や解像度をご確認ください。 \ No newline at end of file diff --git a/ja/built-in-nodes/CaseConverter.mdx b/ja/built-in-nodes/CaseConverter.mdx new file mode 100644 index 000000000..2498e3328 --- /dev/null +++ b/ja/built-in-nodes/CaseConverter.mdx @@ -0,0 +1,25 @@ +--- +title: "CaseConverter - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における CaseConverter ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CaseConverter" +icon: "circle" +mode: wide +translationSourceHash: 90b7ce9c +translationFrom: built-in-nodes/CaseConverter.mdx, zh-CN/built-in-nodes/CaseConverter.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CaseConverter/en.md) + +Case Converter ノードは、テキスト文字列をさまざまな文字ケース(大文字・小文字)形式に変換します。このノードは入力文字列を受け取り、選択されたモードに基づいて変換を行い、指定されたケース形式が適用された出力文字列を生成します。テキストの文字の大文字・小文字を変更するために、このノードは4種類のケース変換オプションをサポートしています。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `string` | STRING | 文字列 | - | - | 異なるケース形式に変換する対象のテキスト文字列 | +| `mode` | STRING | ドロップダウン選択 | - | ["UPPERCASE", "lowercase", "Capitalize", "Title Case"] | 適用するケース変換モード:`UPPERCASE` はすべての英字を大文字に変換し、`lowercase` はすべての英字を小文字に変換し、`Capitalize` は先頭の1文字のみを大文字にし、`Title Case` は各単語の先頭文字を大文字にします | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | STRING | 指定されたケース形式に変換された入力文字列 | \ No newline at end of file diff --git a/ja/built-in-nodes/CenterCropImages.mdx b/ja/built-in-nodes/CenterCropImages.mdx new file mode 100644 index 000000000..a1fdea454 --- /dev/null +++ b/ja/built-in-nodes/CenterCropImages.mdx @@ -0,0 +1,26 @@ +--- +title: "CenterCropImages - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の CenterCropImages ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CenterCropImages" +icon: "circle" +mode: wide +translationSourceHash: d7b5e1fa +translationFrom: built-in-nodes/CenterCropImages.mdx, zh-CN/built-in-nodes/CenterCropImages.mdx +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CenterCropImages/en.md) + +Center Crop Images ノードは、画像の中央から指定された幅および高さに切り抜きます。このノードは入力画像の中心領域を計算し、定義された寸法の矩形領域を抽出します。要求された切り抜きサイズが画像よりも大きい場合、切り抜き領域は画像の境界内に制限されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 切り抜く対象の入力画像です。 | +| `width` | INT | いいえ | 1 ~ 8192 | 切り抜き領域の幅(デフォルト値:512)。 | +| `height` | INT | いいえ | 1 ~ 8192 | 切り抜き領域の高さ(デフォルト値:512)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 中央切り抜き処理後の結果画像です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/CheckpointLoader.mdx b/ja/built-in-nodes/CheckpointLoader.mdx new file mode 100644 index 000000000..7a85559e9 --- /dev/null +++ b/ja/built-in-nodes/CheckpointLoader.mdx @@ -0,0 +1,31 @@ +--- +title: "CheckpointLoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CheckpointLoader ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CheckpointLoader" +icon: "circle" +mode: wide +translationSourceHash: 4becfce8 +translationFrom: built-in-nodes/CheckpointLoader.mdx, zh-CN/built-in-nodes/CheckpointLoader.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CheckpointLoader/en.md) + +CheckpointLoader ノードは、事前学習済みのモデルチェックポイントとその設定ファイル(コンフィグレーションファイル)を読み込みます。このノードは設定ファイルとチェックポイントファイルを入力として受け取り、ワークフロー内で使用可能な状態で、メインモデル、CLIP モデル、および VAE モデルといった各モデルコンポーネントを返します。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `config_name` | STRING | COMBO | - | 利用可能な設定ファイル | モデルのアーキテクチャおよび設定を定義する設定ファイル | +| `ckpt_name` | STRING | COMBO | - | 利用可能なチェックポイントファイル | 学習済みのモデル重みおよびパラメーターを含むチェックポイントファイル | + +**注意:** このノードでは、設定ファイルとチェックポイントファイルの両方を選択する必要があります。また、選択した設定ファイルは、読み込むチェックポイントファイルのアーキテクチャと一致している必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `MODEL` | MODEL | 推論に備えて読み込まれたメインモデルコンポーネント | +| `CLIP` | CLIP | テキストエンコーディングに使用される、読み込まれた CLIP モデルコンポーネント | +| `VAE` | VAE | 画像のエンコーディングおよびデコーディングに使用される、読み込まれた VAE モデルコンポーネント | + +**重要なお知らせ:** このノードは非推奨(deprecated)としてマークされており、今後のバージョンで削除される可能性があります。新しいワークフローでは、代替の読み込みノードをご利用ください。 \ No newline at end of file diff --git a/ja/built-in-nodes/CheckpointLoaderSimple.mdx b/ja/built-in-nodes/CheckpointLoaderSimple.mdx new file mode 100755 index 000000000..405799aa5 --- /dev/null +++ b/ja/built-in-nodes/CheckpointLoaderSimple.mdx @@ -0,0 +1,32 @@ +--- +title: "CheckpointLoaderSimple - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CheckpointLoaderSimple ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CheckpointLoaderSimple" +icon: "circle" +mode: wide +translationSourceHash: 21f324a3 +translationFrom: built-in-nodes/CheckpointLoaderSimple.mdx, zh-CN/built-in-nodes/CheckpointLoaderSimple.mdx +translationMismatches: + - "description" +--- +これはモデルを読み込むノードであり、指定された場所からモデルファイルを読み込み、それを3つのコアコンポーネント — 主要なモデル(メインモデル)、テキストエンコーダー、および画像エンコーダー/デコーダー — に分解します。 + +このノードは、`ComfyUI/models/checkpoints` フォルダー内のすべてのモデルファイルを自動的に検出し、さらに `extra_model_paths.yaml` ファイルで設定された追加パスも検出します。 + +1. **モデルの互換性**: 選択したモデルがワークフローと互換性があることを確認してください。SD1.5、SDXL、Flux などの異なるモデルタイプは、対応するサンプラーおよびその他のノードと組み合わせる必要があります。 +2. **ファイル管理**: モデルファイルを `ComfyUI/models/checkpoints` フォルダー内に配置するか、`extra_model_paths.yaml` を用いて他のパスを設定してください。 +3. **インターフェースの更新**: ComfyUI 実行中に新しいモデルファイルを追加した場合、ドロップダウンリストに新しいファイルを反映させるにはブラウザを更新(Ctrl+R)する必要があります。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|----------------|----------|------------|------------|------|------| +| `ckpt_name` | STRING | ウィジェット(ドロップダウン) | null | `checkpoints` フォルダー内のすべてのモデルファイル | 読み込むチェックポイントモデルのファイル名を選択します。これにより、以降の画像生成で使用される AI モデルが決定されます | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `MODEL` | MODEL | 画像のデノイズ生成に使用される主要な拡散モデルであり、AI による画像生成のコアコンポーネントです | +| `CLIP` | CLIP | テキストプロンプトをエンコードするためのモデルで、文字列による説明を AI が理解可能な情報に変換します | +| `VAE` | VAE | 画像のエンコードおよびデコードに使用されるモデルで、ピクセル空間と潜在空間の間の変換を担当します | \ No newline at end of file diff --git a/ja/built-in-nodes/CheckpointSave.mdx b/ja/built-in-nodes/CheckpointSave.mdx new file mode 100755 index 000000000..dcae40dde --- /dev/null +++ b/ja/built-in-nodes/CheckpointSave.mdx @@ -0,0 +1,41 @@ +--- +title: "CheckpointSave - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CheckpointSave ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CheckpointSave" +icon: "circle" +mode: wide +translationSourceHash: a73bf67f +translationFrom: built-in-nodes/CheckpointSave.mdx, zh-CN/built-in-nodes/CheckpointSave.mdx +translationMismatches: + - "description" +--- +`Save Checkpoint`(チェックポイントの保存)ノードは、Stable Diffusion モデル全体(UNet、CLIP、VAE コンポーネントを含む)を **.safetensors** 形式のチェックポイントファイルとして保存することを目的としています。 + +CheckpointSave は主にモデル統合(マージ)ワークフローで使用されます。`ModelMergeSimple` や `ModelMergeBlocks` などのノードを用いて新しい統合済みモデルを作成した後、このノードを使用して、再利用可能なチェックポイントファイルとして結果を保存できます。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-----------|-------------| +| `model` | MODEL | このパラメーターは、その状態を保存する対象となる主要なモデルを表します。将来の復元や解析のために、モデルの現在の状態を正確に記録することが重要です。 | +| `clip` | CLIP | このパラメーターは、主要なモデルに関連付けられた CLIP モデルを指定します。これにより、CLIP の状態をメインモデルと同時に保存できます。 | +| `vae` | VAE | このパラメーターは、変分オートエンコーダ(VAE)モデルを指定します。これにより、VAE の状態をメインモデルおよび CLIP と同時に保存し、将来的な使用や解析に備えることができます。 | +| `filename_prefix` | STRING | このパラメーターは、チェックポイントファイルを保存する際のファイル名の接頭辞(プレフィックス)を指定します。 | + +さらに、このノードにはメタデータ用の2つの非表示入力があります: + +**prompt (PROMPT)**: ワークフローのプロンプト情報 +**extra_pnginfo (EXTRA_PNGINFO)**: 追加の PNG 情報 + +## 出力 + +このノードはチェックポイントファイルを出力します。対応する出力ファイルのパスは `output/checkpoints/` ディレクトリです。 + +## アーキテクチャ互換性 + +- 現在完全対応中:SDXL、SD3、SVD など、主流のアーキテクチャ([ソースコード](https://github.com/comfyanonymous/ComfyUI/blob/master/comfy_extras/nodes_model_merging.py#L176-L189) をご参照ください) +- 基本対応:その他のアーキテクチャでも保存は可能ですが、標準化されたメタデータ情報は付与されません。 + +## 関連リンク + +関連するソースコード:[nodes_model_merging.py#L227](https://github.com/comfyanonymous/ComfyUI/blob/master/comfy_extras/nodes_model_merging.py#L227) \ No newline at end of file diff --git a/ja/built-in-nodes/ChromaRadianceOptions.mdx b/ja/built-in-nodes/ChromaRadianceOptions.mdx new file mode 100644 index 000000000..6b4fe459b --- /dev/null +++ b/ja/built-in-nodes/ChromaRadianceOptions.mdx @@ -0,0 +1,30 @@ +--- +title: "ChromaRadianceOptions - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ChromaRadianceOptions ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ChromaRadianceOptions" +icon: "circle" +mode: wide +translationSourceHash: ccb1ed8d +translationFrom: built-in-nodes/ChromaRadianceOptions.mdx, zh-CN/built-in-nodes/ChromaRadianceOptions.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ChromaRadianceOptions/en.md) + +ChromaRadianceOptions ノードを使用すると、Chroma Radiance モデルの高度な設定を構成できます。このノードは既存のモデルをラップし、シグマ値に基づいてデノイズ処理中に特定のオプションを適用します。これにより、NeRF タイルサイズやその他の放射(radiance)関連パラメーターを細かく制御することが可能です。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `model` | MODEL | 必須 | - | - | Chroma Radiance オプションを適用する対象のモデル | +| `preserve_wrapper` | BOOLEAN | オプション | True | - | 有効にすると、既存のモデル関数ラッパーが存在する場合、そのラッパーへ処理を委譲します。通常は有効のままにしておくことを推奨します。 | +| `start_sigma` | FLOAT | オプション | 1.0 | 0.0 – 1.0 | これらのオプションが有効になる最初のシグマ値 | +| `end_sigma` | FLOAT | オプション | 0.0 | 0.0 – 1.0 | これらのオプションが有効である最後のシグマ値 | +| `nerf_tile_size` | INT | オプション | -1 | -1 以上 | デフォルトの NeRF タイルサイズを上書きできます。-1 の場合、デフォルト値(32)が使用されます。0 の場合、非タイルモード(タイル分割を行わないモード)が使用され、大量の VRAM を必要とする可能性があります。 | + +**注意:** Chroma Radiance オプションは、現在のシグマ値が `end_sigma` と `start_sigma` の間(両端を含む)にある場合にのみ有効になります。`nerf_tile_size` パラメーターは、0 以上の値に設定された場合にのみ適用されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | Chroma Radiance オプションが適用された修正済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ClipLoader.mdx b/ja/built-in-nodes/ClipLoader.mdx new file mode 100755 index 000000000..ab55494f0 --- /dev/null +++ b/ja/built-in-nodes/ClipLoader.mdx @@ -0,0 +1,83 @@ +--- +title: "CLIPLoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CLIPLoader ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CLIPLoader" +icon: "circle" +mode: wide +translationSourceHash: 69bb9fee +translationFrom: built-in-nodes/ClipLoader.mdx, zh-CN/built-in-nodes/ClipLoader.mdx +translationMismatches: + - "description" +--- +このノードは、主に CLIP テキストエンコーダー・モデルを独立して読み込むために使用されます。 +モデルファイルは以下のパスから自動検出されます: + +- `ComfyUI/models/text_encoders/` +- `ComfyUI/models/clip/` + +> ComfyUI を起動した後にモデルを保存した場合、最新のモデルファイルパス一覧を取得するには、ComfyUI のフロントエンドを再読み込みする必要があります。 + +サポートされるモデル形式: + +- `.ckpt` +- `.pt` +- `.pt2` +- `.bin` +- `.pth` +- `.safetensors` +- `.pkl` +- `.sft` + +最新のモデルファイル読み込みに関する詳細については、[folder_paths](https://github.com/comfyanonymous/ComfyUI/blob/master/folder_paths.py) をご参照ください。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|--------------|-----------------|------| +| `clip_name` | COMBO[STRING] | 読み込む CLIP モデルの名前を指定します。この名前は、事前に定義されたディレクトリ構造内においてモデルファイルを特定するために使用されます。 | +| `type` | COMBO[STRING] | 読み込む CLIP モデルの種類を決定します。ComfyUI が対応するモデル数が増えるにつれて、新たな種類が追加されていきます。詳細については、[node.py](https://github.com/comfyanonymous/ComfyUI/blob/master/nodes.py) 内の `CLIPLoader` クラス定義をご確認ください。 | +| `device` | COMBO[STRING] | CLIP モデルを読み込むデバイスを選択します。`default` を選択すると GPU 上で実行され、`CPU` を選択すると CPU 上への強制読み込みが行われます。 | + +### デバイス選択オプションの解説 + +**「default」を選択すべきケース:** + +- 十分な GPU メモリが確保されている場合 +- 最高のパフォーマンスを求める場合 +- メモリ使用量をシステムが自動的に最適化するようにしたい場合 + +**「cpu」を選択すべきケース:** + +- GPU メモリが不足している場合 +- 他のモデル(例:UNet)のために GPU メモリを確保したい場合 +- VRAM が少ない環境で実行する場合 +- デバッグや特殊な用途が必要な場合 + +**パフォーマンスへの影響** + +CPU 上での実行は GPU と比較して大幅に遅くなりますが、他のより重要なモデルコンポーネント(例:UNet)に貴重な GPU メモリを割り当てることができます。メモリが制限された環境では、CLIP モデルを CPU 上で実行することは、一般的な最適化戦略です。 + +### サポートされるモデルとエンコーダーの組み合わせ + +| モデルタイプ | 対応するエンコーダー | +|----------------------|------------------------------| +| stable_diffusion | clip-l | +| stable_cascade | clip-g | +| sd3 | t5 xxl / clip-g / clip-l | +| stable_audio | t5 base | +| mochi | t5 xxl | +| cosmos | old t5 xxl | +| lumina2 | gemma 2 2B | +| wan | umt5 xxl | + +ComfyUI の更新に伴い、これらの組み合わせは今後拡充される可能性があります。詳細については、[node.py](https://github.com/comfyanonymous/ComfyUI/blob/master/nodes.py) 内の `CLIPLoader` クラス定義をご参照ください。 + +## 出力 + +| パラメーター | データ型 | 説明 | +|--------------|----------|------| +| `clip` | CLIP | 読み込まれた CLIP モデル。ダウンストリームタスクやその後の処理にすぐに利用可能です。 | + +## 補足情報 + +CLIP モデルは、ComfyUI においてテキストエンコーダーとしての中核的な役割を果たしており、テキストプロンプトを拡散モデルが理解可能な数値表現へと変換する機能を担います。言い換えれば、CLIP モデルは「翻訳者」とも言え、ユーザーの入力テキストを大規模モデルが理解できる言語へと翻訳する役割を果たします。ただし、異なるアーキテクチャのモデル間ではそれぞれ固有の「方言(=エンコーディング方式)」が存在するため、テキストエンコーディング処理を正しく完了させるには、モデルごとに適切な CLIP エンコーダーが必要となります。 \ No newline at end of file diff --git a/ja/built-in-nodes/ClipMergeSimple.mdx b/ja/built-in-nodes/ClipMergeSimple.mdx new file mode 100755 index 000000000..8bb963d25 --- /dev/null +++ b/ja/built-in-nodes/ClipMergeSimple.mdx @@ -0,0 +1,51 @@ +--- +title: "CLIPMergeSimple - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CLIPMergeSimple ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CLIPMergeSimple" +icon: "circle" +mode: wide +translationSourceHash: 680ac62b +translationFrom: built-in-nodes/ClipMergeSimple.mdx, zh-CN/built-in-nodes/ClipMergeSimple.mdx +translationMismatches: + - "description" +--- +`CLIPMergeSimple` は、2つの CLIP テキストエンコーダーモデルを指定された比率に基づいて統合するための高度なモデル統合ノードです。 + +このノードは、指定された比率に基づいて2つの CLIP モデルを統合することに特化しており、両者の特性を効果的に融合します。具体的には、位置ID(`.position_ids`)やロジットスケール(`.logit_scale`)などの特定のコンポーネントを除外した上で、一方のモデルのキーパッチを他方のモデルに選択的に適用することで、両方の元モデルの特徴を統合したハイブリッドモデルを生成します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `clip1` | CLIP | 統合対象となる最初の CLIP モデルです。統合処理におけるベースモデルとして機能します。 | +| `clip2` | CLIP | 統合対象となる2番目の CLIP モデルです。指定された比率に基づき、位置IDおよびロジットスケールを除くそのキーパッチが、最初のモデルに適用されます。 | +| `ratio` | FLOAT | 範囲 `0.0 - 1.0` の値で、2番目のモデルから1番目のモデルへ統合される特徴の割合を決定します。比率が `1.0` の場合、2番目のモデルの特徴を完全に採用し、`0.0` の場合は1番目のモデルの特徴のみを保持します。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `clip` | CLIP | 指定された比率に従って2つの入力モデルの特徴を統合した、結果として得られる統合済み CLIP モデルです。 | + +## 統合メカニズムの詳細 + +### 統合アルゴリズム + +このノードは、2つのモデルを重み付き平均により統合します: + +1. **ベースモデルのクローン作成**: 最初に `clip1` をベースモデルとしてクローンします +2. **パッチの取得**: `clip2` からすべてのキーパッチを取得します +3. **特殊キーのフィルタリング**: `.position_ids` や `.logit_scale` で終わるキーはスキップします +4. **重み付き統合の適用**: 公式 `(1.0 - ratio) * clip1 + ratio * clip2` を用いて統合を行います + +### `ratio` パラメーターの説明 + +- **`ratio = 0.0`**: `clip1` を完全に使用し、`clip2` は無視されます +- **`ratio = 0.5`**: それぞれのモデルから50%ずつ寄与します +- **`ratio = 1.0`**: `clip2` を完全に使用し、`clip1` は無視されます + +## 主な使用例 + +1. **モデルスタイルの融合**: 異なるデータで学習された CLIP モデルの特性を組み合わせる +2. **パフォーマンス最適化**: 異なるモデルの長所と短所をバランスよく活用する +3. **実験的研究**: 異なる CLIP エンコーダーの組み合わせを探索・検証する \ No newline at end of file diff --git a/ja/built-in-nodes/ClipSave.mdx b/ja/built-in-nodes/ClipSave.mdx new file mode 100755 index 000000000..46a6ce136 --- /dev/null +++ b/ja/built-in-nodes/ClipSave.mdx @@ -0,0 +1,42 @@ +--- +title: "CLIPSave - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CLIPSave ノードに関する完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "CLIPSave" +icon: "circle" +mode: wide +translationSourceHash: 879ba3ad +translationFrom: built-in-nodes/ClipSave.mdx, zh-CN/built-in-nodes/ClipSave.mdx +translationMismatches: + - "description" +--- +`CLIPSave` ノードは、CLIP テキストエンコーダー・モデルを SafeTensors 形式で保存するために設計されています。このノードは高度なモデル統合ワークフローの一部であり、通常は `CLIPMergeSimple` や `CLIPMergeAdd` などのノードと併用されます。保存されるファイルは、セキュリティと互換性を確保するため SafeTensors 形式を採用しています。 + +## 入力 + +| パラメーター | データ型 | 必須 | デフォルト値 | 説明 | +|------------|----------|------|------------|------| +| `clip` | CLIP | はい | - | 保存対象の CLIP モデル | +| `filename_prefix` | STRING | はい | `"clip/ComfyUI"` | 保存ファイルのプレフィックス(パス) | +| `prompt` | PROMPT | 非表示 | - | ワークフローのプロンプト情報(メタデータ用) | +| `extra_pnginfo` | EXTRA_PNGINFO | 非表示 | - | 追加の PNG 情報(メタデータ用) | + +## 出力 + +このノードには定義された出力タイプはありません。処理済みのファイルは `ComfyUI/output/` フォルダーに保存されます。 + +### 複数ファイル保存戦略 + +ノードは、CLIP モデルの種類に応じて異なるコンポーネントを別々に保存します。 + +| プレフィックスの種類 | ファイル名のサフィックス | 説明 | +|----------------------|------------------------|------| +| `clip_l.` | `_clip_l` | CLIP-L テキストエンコーダー | +| `clip_g.` | `_clip_g` | CLIP-G テキストエンコーダー | +| 空のプレフィックス | サフィックスなし | その他の CLIP コンポーネント | + +## 使用上の注意点 + +1. **ファイルの保存場所**: すべてのファイルは `ComfyUI/output/` ディレクトリに保存されます +2. **ファイル形式**: セキュリティを確保するため、モデルは SafeTensors 形式で保存されます +3. **メタデータ**: 利用可能な場合、ワークフロー情報および PNG メタデータが含まれます +4. **命名規則**: 指定されたプレフィックスに、モデルの種類に応じた適切なサフィックスが付加されます \ No newline at end of file diff --git a/ja/built-in-nodes/ClipSetLastLayer.mdx b/ja/built-in-nodes/ClipSetLastLayer.mdx new file mode 100755 index 000000000..277e6b8a2 --- /dev/null +++ b/ja/built-in-nodes/ClipSetLastLayer.mdx @@ -0,0 +1,44 @@ +--- +title: "CLIPSetLastLayer - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CLIPSetLastLayer ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CLIPSetLastLayer" +icon: "circle" +mode: wide +translationSourceHash: e496136b +translationFrom: built-in-nodes/ClipSetLastLayer.mdx, zh-CN/built-in-nodes/ClipSetLastLayer.mdx +translationMismatches: + - "description" +--- +`CLIP Set Last Layer`(CLIP 最終層の設定)は、CLIP モデルの処理深度を制御するための ComfyUI のコアノードです。このノードにより、ユーザーは CLIP テキストエンコーダーがどの層で処理を停止するかを正確に指定でき、その結果としてテキスト理解の深さおよび生成画像のスタイルに影響を与えます。 + +CLIP モデルを24層構造の「知的な脳」とイメージしてみてください: + +- 浅層(1~8層):基本的な文字や単語を認識 +- 中層(9~16層):文法や文の構造を理解 +- 深層(17~24層):抽象的概念や複雑な意味論を把握 + +`CLIP Set Last Layer` は、まさに**「思考の深さを調整するコントローラー」**のような働きをします: + +-1:すべての24層を使用(最も完全な理解) +-2:23層で停止(やや簡略化された理解) +-12:13層で停止(中程度の理解) +-24:第1層のみを使用(最も基本的な理解) + +## 入力 + +| パラメーター | データ型 | デフォルト値 | 範囲 | 説明 | +|--------------|-----------|-------------|------|------| +| `clip` | CLIP | - | - | 変更対象の CLIP モデル | +| `stop_at_clip_layer` | INT | -1 | -24 ~ -1 | 処理を停止する層を指定します。-1 はすべての層を使用、-24 は第1層のみを使用します | + +## 出力 + +| 出力名 | データ型 | 説明 | +|----------|-----------|------| +| clip | CLIP | 指定された層を最終層として変更された CLIP モデル | + +## 最終層を設定する理由 + +- **パフォーマンス最適化**:簡単な文を理解するために博士号が必要ないのと同じく、場合によっては浅い理解で十分であり、処理速度も向上します +- **スタイル制御**:異なる理解レベルでは、異なる芸術的スタイルの画像が生成されます +- **互換性**:特定の層で動作が安定するモデルも存在します \ No newline at end of file diff --git a/ja/built-in-nodes/ClipTextEncode.mdx b/ja/built-in-nodes/ClipTextEncode.mdx new file mode 100755 index 000000000..4d3568006 --- /dev/null +++ b/ja/built-in-nodes/ClipTextEncode.mdx @@ -0,0 +1,75 @@ +--- +title: "CLIPTextEncode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CLIPTextEncode ノードに関する完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "CLIPTextEncode" +icon: "circle" +mode: wide +translationSourceHash: 07ad3fac +translationFrom: built-in-nodes/ClipTextEncode.mdx, zh-CN/built-in-nodes/ClipTextEncode.mdx +translationMismatches: + - "description" +--- +`CLIP Text Encode (CLIPTextEncode)` は、テキストによる説明を AI が理解できる形式に変換する「翻訳者」として機能します。これにより、AI はユーザーの入力を正しく解釈し、所望の画像を生成することができます。 + +これは、異なる言語を話すアーティストと会話するようなものと考えてください。CLIP モデルは膨大な画像・テキストのペアで学習されており、ユーザーの説明を AI モデルが実行可能な「指示」に変換することで、このコミュニケーションのギャップを埋めてくれます。 + +## 入力 + +| パラメーター | データ型 | 入力方法 | 初期値 | 範囲 | 説明 | +|-----------|-----------|--------------|---------|--------|-------------| +| text | STRING | テキスト入力 | 空 | 任意のテキスト | 生成したい画像の説明(プロンプト)を入力します。詳細な説明のために複数行入力が可能です。 | +| clip | CLIP | モデル選択 | なし | 読み込まれた CLIP モデル | テキスト説明を AI モデル向けの「指示」に変換する際に使用する CLIP モデルを選択します。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| CONDITIONING | CONDITIONING | 画像生成時に AI モデルをガイドするための、処理済みの説明「指示」です。 | + +## プロンプトの機能 + +### 埋め込みモデル(Embedding Models) + +埋め込みモデルを使用すると、特定の芸術的効果やスタイルを適用できます。対応フォーマットには `.safetensors`、`.pt`、`.bin` があります。埋め込みモデルを利用するには: + +1. ファイルを `ComfyUI/models/embeddings` フォルダー内に配置します。 +2. テキスト内で `embedding:モデル名` の形式で参照します。 + +例:`ComfyUI/models/embeddings` フォルダー内に `EasyNegative.pt` という名前のモデルがある場合、以下のように使用できます。 + +``` +worst quality, embedding:EasyNegative, bad quality +``` + +**重要**: 埋め込みモデルを使用する際は、ファイル名が正確であることを確認し、使用中のモデルのアーキテクチャと互換性があるかを検証してください。例えば、SD1.5 向けに設計された埋め込みモデルは、SDXL モデルでは正しく動作しません。 + +### プロンプトの重み調整 + +括弧を使って、プロンプト内の特定の単語やフレーズの重要度(重み)を調整できます。例: + +- `(beautiful:1.2)`:「beautiful」の重みを増加させます。 +- `(beautiful:0.8)`:「beautiful」の重みを減少させます。 +- 単純な括弧 `(beautiful)`:デフォルトの重み 1.1 を適用します。 + +キーボードショートカット `Ctrl + 上/下矢印` を使うと、重みを素早く調整できます。重みの変更ステップサイズは、設定から変更可能です。 + +重み調整を意図せず、プロンプト内に文字通りの括弧を含めたい場合は、バックスラッシュでエスケープしてください(例:`\(word\)`)。 + +### ワイルドカード/動的プロンプト + +波括弧 `{}` を使って動的なプロンプトを作成できます。例えば、`{day|night|morning}` と記述すると、プロンプトが処理されるたびに、その中のいずれかのオプションがランダムに選択されます。 + +文字通りの波括弧をプロンプト内に含めたいが、動的挙動を無効化したい場合は、バックスラッシュでエスケープしてください(例:`\{word\}`)。 + +### プロンプト内のコメント + +以下の構文を使って、プロンプトから除外されるコメントを追加できます: + +- `//`:1 行分のコメント(単一行コメント) +- `/* */`:複数行またはブロック単位のコメント + +例: + +``` +// この行はプロンプトに含まれません。 +a beautiful landscape, /* この部分は無視されます */ high quality \ No newline at end of file diff --git a/ja/built-in-nodes/ClipTextEncodeFlux.mdx b/ja/built-in-nodes/ClipTextEncodeFlux.mdx new file mode 100644 index 000000000..ae9f151a2 --- /dev/null +++ b/ja/built-in-nodes/ClipTextEncodeFlux.mdx @@ -0,0 +1,54 @@ +--- +title: "CLIPTextEncodeFlux - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の CLIPTextEncodeFlux ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CLIPTextEncodeFlux" +icon: "circle" +mode: wide +translationSourceHash: a1e251f5 +translationFrom: built-in-nodes/ClipTextEncodeFlux.mdx, zh-CN/built-in-nodes/ClipTextEncodeFlux.mdx +translationMismatches: + - "description" +--- +`CLIPTextEncodeFlux` は、ComfyUI に実装された高度なテキストエンコーディングノードであり、特に Flux アーキテクチャ向けに設計されています。このノードは、CLIP-L と T5XXL の二つのエンコーダーを協調して使用し、構造化されたキーワードと詳細な自然言語による説明の両方を処理します。これにより、Flux モデルに対してより正確かつ包括的なテキスト理解能力を提供し、テキストから画像への生成品質を向上させます。 + +このノードは、以下の二重エンコーダー協調機構に基づいて動作します: + +1. `clip_l` 入力は CLIP-L エンコーダーによって処理され、スタイルやテーマなどのキーワード特徴を抽出します。これは簡潔な記述に最適です。 +2. `t5xxl` 入力は T5XXL エンコーダーによって処理され、複雑で詳細な自然言語によるシーン描写を理解するのに優れています。 +3. 両エンコーダーからの出力が統合され、「ガイドランス(guidance)」パラメーターと組み合わされて、統一された条件付き埋め込みベクトル(`CONDITIONING`)が生成されます。このベクトルは、後続の Flux サンプラー・ノードで使用され、生成されるコンテンツがテキスト記述とどの程度一致するかを制御します。 + +## 入力 + +| パラメーター | データ型 | 入力方法 | 初期値 | 範囲 | 説明 | +|------------|----------|----------|------|------|------| +| `clip` | CLIP | ノード入力 | なし | - | Flux アーキテクチャに対応した CLIP モデル(CLIP-L および T5XXL エンコーダーを含む)を指定する必要があります | +| `clip_l` | STRING | テキストボックス | なし | 最大77トークン | スタイルやテーマなど、簡潔なキーワードによる記述に適しています | +| `t5xxl` | STRING | テキストボックス | なし | ほぼ無制限 | 複雑なシーンや細部を表現するための、詳細な自然言語による記述に適しています | +| `guidance` | FLOAT | スライダー | 3.5 | 0.0 – 100.0 | テキスト条件が生成プロセスに与える影響の強さを制御します。数値が大きいほど、テキスト記述への忠実度が高くなります | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `CONDITIONING` | CONDITIONING | 二つのエンコーダーによる処理結果とガイドランス(guidance)パラメーターを統合した条件付き埋め込みベクトルを含み、条件付き画像生成に使用されます | + +## 使用例 + +### プロンプトの例 + +- **`clip_l` 入力**(キーワード形式): + - 構造的で簡潔なキーワードの組み合わせを使用します。 + - 例:`masterpiece, best quality, portrait, oil painting, dramatic lighting` + - スタイル、画質、主な被写体など、核心となる要素に焦点を当てます。 + +- **`t5xxl` 入力**(自然言語による記述): + - 完全で流暢なシーン描写を使用します。 + - 例:`A highly detailed portrait in oil painting style, featuring dramatic chiaroscuro lighting that creates deep shadows and bright highlights, emphasizing the subject's features with renaissance-inspired composition.` + - シーンの詳細、空間的関係性、ライティング効果などに焦点を当てます。 + +### 注意事項 + +1. Flux アーキテクチャに対応した CLIP モデルを使用してください。 +2. 二重エンコーダーの利点を最大限に活かすため、`clip_l` と `t5xxl` の両方を入力することを推奨します。 +3. `clip_l` には最大77トークンという制限があることに注意してください。 +4. 生成結果に応じて、`guidance` パラメーターを調整してください。 \ No newline at end of file diff --git a/ja/built-in-nodes/ClipTextEncodeHunyuanDit.mdx b/ja/built-in-nodes/ClipTextEncodeHunyuanDit.mdx new file mode 100644 index 000000000..fb4439773 --- /dev/null +++ b/ja/built-in-nodes/ClipTextEncodeHunyuanDit.mdx @@ -0,0 +1,27 @@ +--- +title: "CLIPTextEncodeHunyuanDiT - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における CLIPTextEncodeHunyuanDiT ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CLIPTextEncodeHunyuanDiT" +icon: "circle" +mode: wide +translationSourceHash: 0ecde1de +translationFrom: built-in-nodes/ClipTextEncodeHunyuanDit.mdx, zh-CN/built-in-nodes/ClipTextEncodeHunyuanDit.mdx +translationMismatches: + - "description" +--- +`CLIPTextEncodeHunyuanDiT` ノードの主な機能は、入力テキストをモデルが理解可能な形式に変換することです。これは、HunyuanDiT モデルの二重テキストエンコーダー構造に特化して設計された高度な条件付けノードです。 +その主な役割は「翻訳者」のようなものであり、ユーザーのテキスト記述を AI モデルが理解できる「機械語」へと変換します。`bert` および `mt5xl` の入力は、それぞれ異なるタイプのプロンプト入力を推奨します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `clip` | CLIP | テキストのトークン化およびエンコーディングに使用される CLIP モデルのインスタンスで、条件生成の核となる要素です。 | +| `bert` | STRING | エンコーディング対象のテキスト入力です。フレーズやキーワードを推奨し、複数行および動的プロンプトをサポートします。 | +| `mt5xl` | STRING | もう一方のエンコーディング対象テキスト入力です。複数行および動的プロンプト(多言語対応)をサポートし、完全な文や複雑な記述の使用が可能です。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `CONDITIONING` | CONDITIONING | 生成タスクにおいて後続処理に用いられる、エンコード済みの条件出力です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ClipTextEncodeSdxl.mdx b/ja/built-in-nodes/ClipTextEncodeSdxl.mdx new file mode 100755 index 000000000..48eefce86 --- /dev/null +++ b/ja/built-in-nodes/ClipTextEncodeSdxl.mdx @@ -0,0 +1,30 @@ +--- +title: "CLIPTextEncodeSDXL - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUIにおけるCLIPTextEncodeSDXLノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CLIPTextEncodeSDXL" +icon: "circle" +mode: wide +translationSourceHash: 662bafd3 +translationFrom: built-in-nodes/ClipTextEncodeSdxl.mdx, zh-CN/built-in-nodes/ClipTextEncodeSdxl.mdx +--- +このノードは、SDXLアーキテクチャ専用にカスタマイズされたCLIPモデルを用いてテキスト入力をエンコードするように設計されています。テキスト記述を処理するために、2つのエンコーダー(CLIP-LおよびCLIP-G)から構成されるデュアルエンコーダーシステムを採用しており、より正確な画像生成を実現します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `clip` | CLIP | テキストエンコードに使用されるCLIPモデルのインスタンスです。 | +| `width` | INT | 画像の幅(ピクセル単位)を指定します。デフォルト値は1024です。 | +| `height` | INT | 画像の高さ(ピクセル単位)を指定します。デフォルト値は1024です。 | +| `crop_w` | INT | クロップ領域の幅(ピクセル単位)を指定します。デフォルト値は0です。 | +| `crop_h` | INT | クロップ領域の高さ(ピクセル単位)を指定します。デフォルト値は0です。 | +| `target_width` | INT | 出力画像の目標幅を指定します。デフォルト値は1024です。 | +| `target_height` | INT | 出力画像の目標高さを指定します。デフォルト値は1024です。 | +| `text_g` | STRING | 全体的なシーンを記述するためのグローバルなテキスト記述です。 | +| `text_l` | STRING | 詳細な描写を行うためのローカルなテキスト記述です。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `CONDITIONING` | CONDITIONING | 画像生成に必要な、エンコード済みのテキストおよび条件情報が含まれます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ClipTextEncodeSdxlRefiner.mdx b/ja/built-in-nodes/ClipTextEncodeSdxlRefiner.mdx new file mode 100755 index 000000000..52208946a --- /dev/null +++ b/ja/built-in-nodes/ClipTextEncodeSdxlRefiner.mdx @@ -0,0 +1,49 @@ +--- +title: "CLIPTextEncodeSDXLRefiner - ComfyUI 組み込みノード ドキュメンテーション" +description: "ComfyUI における CLIPTextEncodeSDXLRefiner ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CLIPTextEncodeSDXLRefiner" +icon: "circle" +mode: wide +translationSourceHash: 0ccfe845 +translationFrom: built-in-nodes/ClipTextEncodeSdxlRefiner.mdx, zh-CN/built-in-nodes/ClipTextEncodeSdxlRefiner.mdx +translationMismatches: + - "description" +--- +このノードは、SDXL Refiner モデル専用に設計されており、テキストプロンプトを条件情報へと変換する際に、審美スコアおよび寸法情報を組み込むことで生成タスクの条件を強化し、最終的な精緻化効果を向上させます。まるでプロのアートディレクターのように、ユーザーの創造的意図を伝えるだけでなく、作品に正確な美的基準および仕様要件を注入します。 + +## SDXL Refiner について + +SDXL Refiner は、SDXL ベースモデルを基盤として、画像のディテールおよび品質を向上させる専門的な精緻化モデルです。このプロセスは、アートレタッチャーが作業を行う様子に似ています。 + +1. まず、ベースモデルによって生成された初期画像またはテキスト記述を受け取ります +2. 次に、正確な審美評価スコアおよび寸法パラメーターを通じて精緻化プロセスをガイドします +3. 最後に、画像の高周波数成分(細部)に焦点を当て、全体的な品質を向上させます + +Refiner は以下の2つの方法で利用できます: + +- ベースモデルによって生成された画像の後処理として、独立した精緻化ステップとして使用する +- 専門的な統合システムの一部として、生成プロセスの低ノイズ段階において処理を引き継ぐ + +## 入力 + +| パラメーター名 | データ型 | 入力タイプ | デフォルト値 | 値の範囲 | 説明 | +|----------------|----------|------------|--------------|-----------|------| +| `clip` | CLIP | 必須 | - | - | テキストのトークン化およびエンコーディングに使用される CLIP モデルのインスタンス。テキストをモデルが理解可能な形式へ変換するための中核コンポーネントです | +| `ascore` | FLOAT | オプション | 6.0 | 0.0–1000.0 | 生成画像の視覚的品質および美しさを制御します。これは、芸術作品に対して品質基準を設定することに相当します:
- 高スコア(7.5–8.5):より洗練され、ディテールが豊かな表現を目指します
- 中スコア(6.0–7.0):バランスの取れた品質制御
- 低スコア(2.0–3.0):ネガティブプロンプトに適しています | +| `width` | INT | 必須 | 1024 | 64–16384 | 出力画像の幅(ピクセル単位)を指定します。8 の倍数である必要があります。SDXL は、総ピクセル数が 1024×1024(約100万ピクセル)に近い場合に最も優れた性能を発揮します | +| `height` | INT | 必須 | 1024 | 64–16384 | 出力画像の高さ(ピクセル単位)を指定します。8 の倍数である必要があります。SDXL は、総ピクセル数が 1024×1024(約100万ピクセル)に近い場合に最も優れた性能を発揮します | +| `text` | STRING | 必須 | - | - | テキストプロンプトの記述。複数行入力および動的プロンプト構文をサポートします。Refiner では、テキストプロンプトは、望ましい視覚品質およびディテール特性の記述に重点を置くべきです | + +## 出力 + +| 出力名 | データ型 | 説明 | +|---------|----------|------| +| `CONDITIONING` | CONDITIONING | テキストの意味内容、美的基準、寸法情報が統合されたエンコーディングを含む精緻化済みの条件出力です。SDXL Refiner モデルによる正確な画像精緻化をガイドするために専用に設計されています | + +## 注意事項 + +1. このノードは SDXL Refiner モデル専用に最適化されており、通常の `CLIPTextEncode` ノードとは異なります +2. 審美スコアの基準値として 7.5 を推奨します。これは、SDXL の学習時に採用された標準設定です +3. すべての寸法パラメーターは 8 の倍数である必要があり、総ピクセル数は 1024×1024(約100万ピクセル)に近いことが推奨されます +4. Refiner モデルは画像のディテールおよび品質の向上に特化しているため、テキストプロンプトはシーンの内容よりも、望ましい視覚効果の記述に重点を置くべきです +5. 実際の使用では、Refiner は通常、生成プロセスの後期段階(全ステップの約最後20%)で使用され、ディテールの最適化に焦点を当てます \ No newline at end of file diff --git a/ja/built-in-nodes/ClipVisionEncode.mdx b/ja/built-in-nodes/ClipVisionEncode.mdx new file mode 100755 index 000000000..ee7b1f610 --- /dev/null +++ b/ja/built-in-nodes/ClipVisionEncode.mdx @@ -0,0 +1,37 @@ +--- +title: "CLIPVisionEncode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における CLIPVisionEncode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CLIPVisionEncode" +icon: "circle" +mode: wide +translationSourceHash: 0d3ca9bb +translationFrom: built-in-nodes/ClipVisionEncode.mdx, zh-CN/built-in-nodes/ClipVisionEncode.mdx +--- +`CLIP Vision Encode` ノードは、ComfyUI の画像エンコーディングノードであり、CLIP Vision モデルを用いて入力画像を視覚的特徴ベクトルに変換します。このノードは、画像とテキストの理解を結びつける重要な橋渡し役であり、さまざまな AI 画像生成および処理ワークフローで広く利用されています。 + +**ノードの機能** + +- **画像特徴抽出**: 入力画像を高次元の特徴ベクトルに変換します +- **マルチモーダル連携**: 画像とテキストの統合処理の基盤を提供します +- **条件付き生成**: 画像に基づく条件付き生成のための視覚的条件を提供します + +## 入力 + +| パラメーター名 | データ型 | 説明 | +| -------------- | -------------- | ------------------------------------------------------------ | +| `clip_vision` | CLIP_VISION | CLIP ビジョンモデル。通常は `CLIPVisionLoader` ノードを用いて読み込まれます | +| `image` | IMAGE | エンコード対象の入力画像 | +| `crop` | ドロップダウン | 画像の切り抜き方法。選択肢: `center`(中央切り抜き)、`none`(切り抜きなし) | + +## 出力 + +| 出力名 | データ型 | 説明 | +| ------------------- | ------------------- | ------------------------ | +| CLIP_VISION_OUTPUT | CLIP_VISION_OUTPUT | エンコード済みの視覚的特徴 | + +この出力オブジェクトには以下のプロパティが含まれます: + +- `last_hidden_state`: 最終層の隠れ状態 +- `image_embeds`: 画像埋め込みベクトル +- `penultimate_hidden_states`: 最終層の直前の隠れ状態 +- `mm_projected`: マルチモーダル投影結果(利用可能な場合) \ No newline at end of file diff --git a/ja/built-in-nodes/ClipVisionLoader.mdx b/ja/built-in-nodes/ClipVisionLoader.mdx new file mode 100755 index 000000000..80cdd9025 --- /dev/null +++ b/ja/built-in-nodes/ClipVisionLoader.mdx @@ -0,0 +1,22 @@ +--- +title: "CLIPVisionLoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における CLIPVisionLoader ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CLIPVisionLoader" +icon: "circle" +mode: wide +translationSourceHash: 7a200199 +translationFrom: built-in-nodes/ClipVisionLoader.mdx, zh-CN/built-in-nodes/ClipVisionLoader.mdx +--- +このノードは、`ComfyUI/models/clip_vision` フォルダー内に配置されたモデルを自動的に検出し、さらに `extra_model_paths.yaml` ファイルで設定された追加のモデルパスも読み込みます。ComfyUI の起動後にモデルを追加した場合は、**ComfyUI インターフェースを更新**して、最新のモデルファイルが一覧表示されるようにしてください。 + +## 入力 + +| フィールド | データ型 | 説明 | +|----------------|----------------|------| +| `clip_name` | COMBO[STRING] | `ComfyUI/models/clip_vision` フォルダー内にある、対応している形式のモデルファイルを一覧表示します。 | + +## 出力 + +| フィールド | データ型 | 説明 | +|-------------------|----------------|------| +| `clip_vision` | CLIP_VISION | 読み込まれた CLIP ビジョンモデル。画像のエンコーディングやその他のビジョン関連タスクにすぐに利用可能です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ColorToRGBInt.mdx b/ja/built-in-nodes/ColorToRGBInt.mdx new file mode 100644 index 000000000..68d3154be --- /dev/null +++ b/ja/built-in-nodes/ColorToRGBInt.mdx @@ -0,0 +1,28 @@ +--- +title: "ColorToRGBInt - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の ColorToRGBInt ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ColorToRGBInt" +icon: "circle" +mode: wide +translationSourceHash: 5b05b065 +translationFrom: built-in-nodes/ColorToRGBInt.mdx, zh-CN/built-in-nodes/ColorToRGBInt.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ColorToRGBInt/en.md) + +ColorToRGBInt ノードは、16進数形式で指定された色を単一の整数値に変換します。たとえば `#FF5733` のような色文字列を受け取り、赤(R)、緑(G)、青(B)の各成分を組み合わせることで対応する RGB 整数値を計算します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `color` | STRING | はい | なし | `#RRGGBB` 形式の16進数表記による色値。 | + +**注意:** 入力 `color` 文字列は、先頭に `#` 記号が付き、その後に6桁の16進数が続く、合計7文字である必要があります(例:赤色は `#FF0000`)。フォーマットが正しくない場合、ノードはエラーを発生させます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `rgb_int` | INT | 計算された RGB 整数値。この値は、式 `(Red * 65536) + (Green * 256) + Blue` により導出されます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/CombineHooks.mdx b/ja/built-in-nodes/CombineHooks.mdx new file mode 100644 index 000000000..282b0219d --- /dev/null +++ b/ja/built-in-nodes/CombineHooks.mdx @@ -0,0 +1,27 @@ +--- +title: "CombineHooks - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CombineHooks ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CombineHooks" +icon: "circle" +mode: wide +translationSourceHash: e72da4fd +translationFrom: built-in-nodes/CombineHooks.mdx, zh-CN/built-in-nodes/CombineHooks.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CombineHooks/en.md) + +Combine Hooks [2] ノードは、2 つのフックグループを 1 つの統合フックグループにマージします。このノードは、2 つのオプションのフック入力を受け取り、ComfyUI のフック結合機能を用いてそれらを統合します。これにより、複数のフック設定を統合し、処理を効率化できます。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|------------|----------|------------|--------------|------|------| +| `hooks_A` | HOOKS | オプション | なし | - | 結合する最初のフックグループ | +| `hooks_B` | HOOKS | オプション | なし | - | 結合する 2 番目のフックグループ | + +**注意:** 両方の入力はオプションですが、ノードが機能するためには、少なくとも 1 つのフックグループを指定する必要があります。1 つのフックグループのみが指定された場合、そのグループは変更されずにそのまま出力されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `hooks` | HOOKS | 両方の入力グループに含まれるすべてのフックを含む統合フックグループ | \ No newline at end of file diff --git a/ja/built-in-nodes/CombineHooksEight.mdx b/ja/built-in-nodes/CombineHooksEight.mdx new file mode 100644 index 000000000..edc0f17b0 --- /dev/null +++ b/ja/built-in-nodes/CombineHooksEight.mdx @@ -0,0 +1,33 @@ +--- +title: "CombineHooksEight - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CombineHooksEight ノードに関する完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "CombineHooksEight" +icon: "circle" +mode: wide +translationSourceHash: 67515fb6 +translationFrom: built-in-nodes/CombineHooksEight.mdx, zh-CN/built-in-nodes/CombineHooksEight.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CombineHooksEight/en.md) + +「Combine Hooks [8]」ノードは、最大で 8 種類の異なるフックグループを 1 つの統合フックグループに結合します。このノードは複数のフック入力を受け取り、ComfyUI のフック結合機能を用いてそれらを統合します。これにより、高度なワークフローにおいて、複数のフック設定を統合し、処理を簡素化できます。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `hooks_A` | HOOKS | オプション | None | - | 結合する最初のフックグループ | +| `hooks_B` | HOOKS | オプション | None | - | 結合する2番目のフックグループ | +| `hooks_C` | HOOKS | オプション | None | - | 結合する3番目のフックグループ | +| `hooks_D` | HOOKS | オプション | None | - | 結合する4番目のフックグループ | +| `hooks_E` | HOOKS | オプション | None | - | 結合する5番目のフックグループ | +| `hooks_F` | HOOKS | オプション | None | - | 結合する6番目のフックグループ | +| `hooks_G` | HOOKS | オプション | None | - | 結合する7番目のフックグループ | +| `hooks_H` | HOOKS | オプション | None | - | 結合する8番目のフックグループ | + +**注意:** すべての入力パラメーターはオプションです。このノードは、実際に接続されたフックグループのみを結合し、空のままになっている入力は無視します。結合対象として、1〜8 個のフックグループを任意の数指定できます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `HOOKS` | HOOKS | 提供されたすべてのフック設定を含む単一の統合フックグループ | \ No newline at end of file diff --git a/ja/built-in-nodes/CombineHooksFour.mdx b/ja/built-in-nodes/CombineHooksFour.mdx new file mode 100644 index 000000000..760e89e09 --- /dev/null +++ b/ja/built-in-nodes/CombineHooksFour.mdx @@ -0,0 +1,29 @@ +--- +title: "CombineHooksFour - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における CombineHooksFour ノードの完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "CombineHooksFour" +icon: "circle" +mode: wide +translationSourceHash: 2ad75004 +translationFrom: built-in-nodes/CombineHooksFour.mdx, zh-CN/built-in-nodes/CombineHooksFour.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご協力ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CombineHooksFour/en.md) + +Combine Hooks [4] ノードは、最大で4つの独立したフックグループを1つの統合されたフックグループにマージします。このノードは、利用可能な4つのフック入力の任意の組み合わせを受け取り、ComfyUI のフック結合システムを用いてそれらを結合します。これにより、高度なワークフローにおいて複数のフック設定を統合し、処理を簡素化できます。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | 初期値 | 範囲 | 説明 | +|------------|----------|------------|------|------|------| +| `hooks_A` | HOOKS | オプション | なし | - | 結合する最初のフックグループ | +| `hooks_B` | HOOKS | オプション | なし | - | 結合する2番目のフックグループ | +| `hooks_C` | HOOKS | オプション | なし | - | 結合する3番目のフックグループ | +| `hooks_D` | HOOKS | オプション | なし | - | 結合する4番目のフックグループ | + +**注意:** すべての4つのフック入力はオプションです。このノードは、実際に接続されているフックグループのみを結合し、入力が1つも接続されていない場合には空のフックグループを返します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `HOOKS` | HOOKS | 提供されたすべてのフック設定を含む統合済みフックグループ | \ No newline at end of file diff --git a/ja/built-in-nodes/ComboOptionTestNode.mdx b/ja/built-in-nodes/ComboOptionTestNode.mdx new file mode 100644 index 000000000..1bdcc34c7 --- /dev/null +++ b/ja/built-in-nodes/ComboOptionTestNode.mdx @@ -0,0 +1,26 @@ +--- +title: "ComboOptionTestNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ComboOptionTestNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ComboOptionTestNode" +icon: "circle" +mode: wide +translationSourceHash: 19bbc6ea +translationFrom: built-in-nodes/ComboOptionTestNode.mdx, zh-CN/built-in-nodes/ComboOptionTestNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や、改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ComboOptionTestNode/en.md) + +ComboOptionTestNode は、ドロップダウンボックス(コンボボックス)の選択をテスト・透過(パススルー)するための論理ノードです。このノードは、それぞれが事前に定義されたオプションセットを持つ2つのコンボボックス入力を受け取り、選択された値を一切変更せずにそのまま出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `combo` | COMBO | はい | `"option1"`
`"option2"`
`"option3"` | 3つのテストオプションから構成される集合における、最初の選択肢です。 | +| `combo2` | COMBO | はい | `"option4"`
`"option5"`
`"option6"` | 別の3つのテストオプションから構成される集合における、2番目の選択肢です。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output_1` | COMBO | 最初のコンボボックス (`combo`) から選択された値を出力します。 | +| `output_2` | COMBO | 2番目のコンボボックス (`combo2`) から選択された値を出力します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ComfySoftSwitchNode.mdx b/ja/built-in-nodes/ComfySoftSwitchNode.mdx new file mode 100644 index 000000000..7c7c3db01 --- /dev/null +++ b/ja/built-in-nodes/ComfySoftSwitchNode.mdx @@ -0,0 +1,30 @@ +--- +title: "ComfySoftSwitchNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ComfySoftSwitchNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ComfySoftSwitchNode" +icon: "circle" +mode: wide +translationSourceHash: 825fecbd +translationFrom: built-in-nodes/ComfySoftSwitchNode.mdx, zh-CN/built-in-nodes/ComfySoftSwitchNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご協力ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ComfySoftSwitchNode/en.md) + +Soft Switch ノードは、ブール値の条件に基づいて、2つの可能な入力値のいずれかを選択します。`switch` が `true` の場合、`on_true` 入力の値が出力され、`switch` が `false` の場合、`on_false` 入力の値が出力されます。このノードは「遅延評価(lazy evaluation)」を採用しており、スイッチの状態に応じて必要な入力のみを評価します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `switch` | BOOLEAN | はい | | どちらの入力を通過させるかを決定するブール値条件です。`true` の場合、`on_true` 入力が選択されます。`false` の場合、`on_false` 入力が選択されます。 | +| `on_false` | MATCH_TYPE | いいえ | | `switch` 条件が `false` のときに出力される値です。この入力は任意ですが、`on_false` と `on_true` 1つ以上は必ず接続する必要があります。 | +| `on_true` | MATCH_TYPE | いいえ | | `switch` 条件が `true` のときに出力される値です。この入力は任意ですが、`on_false` と `on_true` 1つ以上は必ず接続する必要があります。 | + +**注意:** `on_false` および `on_true` 入力は、ノードの内部テンプレートで定義された通り、同一のデータ型である必要があります。ノードが正常に動作するためには、これらの2つの入力のうち少なくとも1つを接続する必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | MATCH_TYPE | 選択された値です。接続されている `on_false` または `on_true` 入力のデータ型と一致します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ComfySwitchNode.mdx b/ja/built-in-nodes/ComfySwitchNode.mdx new file mode 100644 index 000000000..2072e4213 --- /dev/null +++ b/ja/built-in-nodes/ComfySwitchNode.mdx @@ -0,0 +1,30 @@ +--- +title: "ComfySwitchNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ComfySwitchNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ComfySwitchNode" +icon: "circle" +mode: wide +translationSourceHash: c56d27c0 +translationFrom: built-in-nodes/ComfySwitchNode.mdx, zh-CN/built-in-nodes/ComfySwitchNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ComfySwitchNode/en.md) + +Switch ノードは、ブール値の条件に基づいて、2 つの可能な入力のいずれかを選択します。`switch` が有効な場合、`on_true` 入力を出力し、無効な場合、`on_false` 入力を出力します。これにより、ワークフロー内で条件分岐ロジックを作成し、異なるデータパスを選択することが可能になります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `switch` | BOOLEAN | はい | | どの入力を通過させるかを決定するブール値の条件です。有効(true)の場合、`on_true` 入力が選択されます。無効(false)の場合、`on_false` 入力が選択されます。 | +| `on_false` | MATCH_TYPE | いいえ | | `switch` が無効(false)のときに出力に渡されるデータです。この入力は、`switch` が false の場合のみ必須です。 | +| `on_true` | MATCH_TYPE | いいえ | | `switch` が有効(true)のときに出力に渡されるデータです。この入力は、`switch` が true の場合のみ必須です。 | + +**入力要件に関する注意点:** `on_false` および `on_true` 入力は「条件付き必須」です。ノードは、`switch` が true の場合にのみ `on_true` 入力を要求し、`switch` が false の場合にのみ `on_false` 入力を要求します。また、両方の入力は同一のデータ型である必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | MATCH_TYPE | 選択されたデータです。`switch` が true の場合は `on_true` 入力の値が出力され、`switch` が false の場合は `on_false` 入力の値が出力されます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ConditioningAverage.mdx b/ja/built-in-nodes/ConditioningAverage.mdx new file mode 100644 index 000000000..73a89e58b --- /dev/null +++ b/ja/built-in-nodes/ConditioningAverage.mdx @@ -0,0 +1,37 @@ +--- +title: "ConditioningAverage - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ConditioningAverage ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ConditioningAverage" +icon: "circle" +mode: wide +translationSourceHash: dab03ebd +translationFrom: built-in-nodes/ConditioningAverage.mdx, zh-CN/built-in-nodes/ConditioningAverage.mdx +translationMismatches: + - "description" +--- +`ConditioningAverage` ノードは、2つの異なる条件(例:テキストプロンプト)を指定された重みで加重平均し、両者の間にある新しい条件ベクトルを生成するために使用されます。重みパラメーターを調整することで、それぞれの条件が最終結果に与える影響を柔軟に制御できます。これは、プロンプト補間(Prompt Interpolation)、スタイル融合などの高度なユースケースに特に適しています。 + +下図に示すように、`conditioning_to` の強度を調整することで、2つの条件の間の結果を出力できます。 + +![example](/images/built-in-nodes/ConditioningAverage/example.webp) + +## 入力 + +| パラメーター | Comfy dtype | 説明 | +|------------------------|---------------|-------------| +| `conditioning_to` | `CONDITIONING`| 目標となる条件ベクトル。加重平均の主要な基盤として機能します。 | +| `conditioning_from` | `CONDITIONING`| 元となる条件ベクトル。一定の重みで目標条件にブレンドされます。 | +| `conditioning_to_strength` | `FLOAT` | 目標条件の強度。範囲は 0.0–1.0、デフォルト値は 1.0、ステップ幅は 0.01 です。 | + +## 出力 + +| パラメーター | Comfy dtype | 説明 | +|------------------|---------------|-------------| +| `conditioning` | `CONDITIONING`| ブレンド後の条件ベクトル(加重平均結果)を返します。 | + +## 主な使用例 + +- **プロンプト補間(Prompt Interpolation)**:2つの異なるテキストプロンプト間を滑らかに遷移させ、中間的なスタイルや意味をもつコンテンツを生成します。 +- **スタイル融合**:異なる芸術的スタイルや意味的条件を組み合わせ、新たな表現効果を創出します。 +- **強度調整**:重みを調整することで、特定の条件が結果に与える影響を精密に制御します。 +- **クリエイティブな探求**:異なるプロンプトを組み合わせることで、多様な生成効果を探求します。 \ No newline at end of file diff --git a/ja/built-in-nodes/ConditioningCombine.mdx b/ja/built-in-nodes/ConditioningCombine.mdx new file mode 100644 index 000000000..70e48f57c --- /dev/null +++ b/ja/built-in-nodes/ConditioningCombine.mdx @@ -0,0 +1,39 @@ +--- +title: "ConditioningCombine - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における ConditioningCombine ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ConditioningCombine" +icon: "circle" +mode: wide +translationSourceHash: d6c84607 +translationFrom: built-in-nodes/ConditioningCombine.mdx, zh-CN/built-in-nodes/ConditioningCombine.mdx +translationMismatches: + - "description" +--- +このノードは、2つの条件(conditioning)入力を1つの出力に結合し、それらの情報を効果的に統合します。2つの条件は、リストの連結(concatenation)によって結合されます。 + +## 入力 + +| パラメーター名 | データ型 | 説明 | +|----------------------|--------------------|------| +| `conditioning_1` | `CONDITIONING` | 結合される最初の条件入力です。結合処理においては、`conditioning_2` と同等の重要度を持ちます。 | +| `conditioning_2` | `CONDITIONING` | 結合される2番目の条件入力です。結合処理においては、`conditioning_1` と同等の重要度を持ちます。 | + +## 出力 + +| パラメーター名 | データ型 | 説明 | +|----------------------|--------------------|------| +| `conditioning` | `CONDITIONING` | `conditioning_1` と `conditioning_2` を結合した結果であり、統合された情報をカプセル化しています。 | + +## 使用シーン + +以下の2つのグループを比較してください。左側は ConditioningCombine ノードを使用したもので、右側は通常の出力です。 + +![Compare](/images/built-in-nodes/ConditioningCombine/compare.jpg) + +この例では、`Conditioning Combine` で使用される2つの条件が同等の重要度を持っています。そのため、画像のスタイルや被写体の特徴など、異なる目的に応じて別々のテキストエンコーディングを適用でき、プロンプトの特徴をより完全に表現することが可能になります。一方、2番目のプロンプトでは結合済みの完全なプロンプトが使用されますが、意味理解の過程で全く異なる条件がエンコードされる可能性もあります。 + +このノードを用いることで、以下のような用途が実現できます: + +- 基本的なテキスト結合:2つの `CLIP Text Encode` ノードの出力を、`Conditioning Combine` の2つの入力ポートにそれぞれ接続します。 +- 複雑なプロンプトの組み合わせ:ポジティブ・ネガティブプロンプトを統合したり、主たる描写とスタイル描写を別々にエンコードした後で結合したりします。 +- 条件の連鎖的結合:複数の `Conditioning Combine` ノードを直列に接続することで、複数の条件を段階的に統合できます。 \ No newline at end of file diff --git a/ja/built-in-nodes/ConditioningConcat.mdx b/ja/built-in-nodes/ConditioningConcat.mdx new file mode 100644 index 000000000..35b0a7939 --- /dev/null +++ b/ja/built-in-nodes/ConditioningConcat.mdx @@ -0,0 +1,23 @@ +--- +title: "ConditioningConcat - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における ConditioningConcat ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ConditioningConcat" +icon: "circle" +mode: wide +translationSourceHash: c1c3e263 +translationFrom: built-in-nodes/ConditioningConcat.mdx, zh-CN/built-in-nodes/ConditioningConcat.mdx +--- +ConditioningConcat ノードは、条件付けベクトル(conditioning vectors)を連結する目的で設計されており、特に `'conditioning_from'` ベクトルを `'conditioning_to'` ベクトルに統合(マージ)します。この操作は、2つの異なるソースから得られた条件付け情報を、単一かつ統一された表現へと結合する必要があるシナリオにおいて、基本的な処理となります。 + +## 入力 + +| パラメーター | Comfy データ型 | 説明 | +|--------------------------|--------------------|------| +| `conditioning_to` | `CONDITIONING` | `'conditioning_from'` ベクトルが連結される、主要な条件付けベクトルの集合です。連結処理の基盤(ベース)として機能します。 | +| `conditioning_from` | `CONDITIONING` | `'conditioning_to'` ベクトルに連結される条件付けベクトルの集合です。既存の条件付け情報に、追加の条件付け情報を統合することを可能にします。 | + +## 出力 + +| パラメーター | Comfy データ型 | 説明 | +|-------------------------|--------------------|------| +| `conditioning` | `CONDITIONING` | 出力は、`'conditioning_from'` ベクトルを `'conditioning_to'` ベクトルに連結した結果として得られる、統一された条件付けベクトルの集合です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ConditioningSetArea.mdx b/ja/built-in-nodes/ConditioningSetArea.mdx new file mode 100644 index 000000000..64124ba01 --- /dev/null +++ b/ja/built-in-nodes/ConditioningSetArea.mdx @@ -0,0 +1,27 @@ +--- +title: "ConditioningSetArea - ComfyUI 組み込みノード ドキュメンテーション" +description: "ComfyUI の ConditioningSetArea ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ConditioningSetArea" +icon: "circle" +mode: wide +translationSourceHash: 49f323be +translationFrom: built-in-nodes/ConditioningSetArea.mdx, zh-CN/built-in-nodes/ConditioningSetArea.mdx +--- +このノードは、条件付けコンテキスト内に特定の領域を設定することで条件付け情報を修正することを目的として設計されています。これにより、指定された寸法および強度に基づいて、条件付け要素を正確な空間位置で操作し、対象を絞った調整や強化を実現できます。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `CONDITIONING` | CONDITIONING | 修正対象となる条件付けデータです。空間的な調整を適用する際の基盤となります。 | +| `width` | `INT` | 条件付けコンテキスト内で設定する領域の幅を指定します。調整の水平方向の範囲に影響を与えます。 | +| `height` | `INT` | 設定する領域の高さを決定します。条件付けの修正における垂直方向の範囲に影響を与えます。 | +| `x` | `INT` | 設定する領域の水平方向の開始位置です。条件付けコンテキスト内での調整位置を定めます。 | +| `y` | `INT` | 領域調整の垂直方向の開始位置です。条件付けコンテキスト内におけるその位置を定めます。 | +| `strength`| `FLOAT` | 指定された領域内における条件付け修正の強度を定義します。調整の影響度を細かく制御できます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `CONDITIONING` | CONDITIONING | 修正後の条件付けデータです。指定された領域設定および調整内容が反映されています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ConditioningSetAreaPercentage.mdx b/ja/built-in-nodes/ConditioningSetAreaPercentage.mdx new file mode 100644 index 000000000..24546b699 --- /dev/null +++ b/ja/built-in-nodes/ConditioningSetAreaPercentage.mdx @@ -0,0 +1,29 @@ +--- +title: "ConditioningSetAreaPercentage - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における ConditioningSetAreaPercentage ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ConditioningSetAreaPercentage" +icon: "circle" +mode: wide +translationSourceHash: 1bf83eab +translationFrom: built-in-nodes/ConditioningSetAreaPercentage.mdx, zh-CN/built-in-nodes/ConditioningSetAreaPercentage.mdx +translationMismatches: + - "description" +--- +ConditioningSetAreaPercentage ノードは、パーセンテージ値に基づいて条件付け要素の影響領域を調整する専用ノードです。このノードでは、影響領域のサイズおよび位置を、元画像全体のサイズに対するパーセンテージとして指定できます。また、条件付け効果の強さを制御する「強度」パラメーターも備えています。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `CONDITIONING` | CONDITIONING | 変更対象となる条件付け要素を表し、領域および強度の調整を適用するための基盤となります。 | +| `width` | `FLOAT` | 影響領域の幅を、元画像の全幅に対するパーセンテージで指定します。これにより、条件付けが水平方向にどの程度の範囲の画像に及ぶかが決まります。 | +| `height` | `FLOAT` | 影響領域の高さを、元画像の全高に対するパーセンテージで指定します。これにより、条件付けの影響が垂直方向にどの程度広がるかが決まります。 | +| `x` | `FLOAT` | 影響領域の水平方向の開始位置を、元画像の全幅に対するパーセンテージで指定します。これにより、条件付け効果の水平位置が決定されます。 | +| `y` | `FLOAT` | 影響領域の垂直方向の開始位置を、元画像の全高に対するパーセンテージで指定します。これにより、条件付け効果の垂直位置が決定されます。 | +| `strength`| `FLOAT` | 指定された領域内における条件付け効果の強さを制御します。これにより、その影響度を微調整することが可能です。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `CONDITIONING` | CONDITIONING | 領域および強度パラメーターが更新された、変更済みの条件付け要素を返します。この出力は、その後の処理または適用にすぐに使用できます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ConditioningSetAreaPercentageVideo.mdx b/ja/built-in-nodes/ConditioningSetAreaPercentageVideo.mdx new file mode 100644 index 000000000..6de91d2ba --- /dev/null +++ b/ja/built-in-nodes/ConditioningSetAreaPercentageVideo.mdx @@ -0,0 +1,33 @@ +--- +title: "ConditioningSetAreaPercentageVideo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ConditioningSetAreaPercentageVideo ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ConditioningSetAreaPercentageVideo" +icon: "circle" +mode: wide +translationSourceHash: 6969e6f4 +translationFrom: built-in-nodes/ConditioningSetAreaPercentageVideo.mdx, zh-CN/built-in-nodes/ConditioningSetAreaPercentageVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ConditioningSetAreaPercentageVideo/en.md) + +ConditioningSetAreaPercentageVideo ノードは、動画生成における特定の空間領域および時間的範囲を定義することにより、条件付けデータ(conditioning data)を変更します。全体の解像度および動画長に対する相対的なパーセンテージ値を用いて、条件付けが適用される領域の位置、サイズ、および持続時間を設定できます。これにより、動画シーケンスの特定の部分に生成処理を集中させることができます。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `conditioning` | CONDITIONING | 必須 | - | - | 変更対象となる条件付けデータ | +| `width` | FLOAT | 必須 | 1.0 | 0.0 - 1.0 | 領域の幅(全体の幅に対するパーセンテージ) | +| `height` | FLOAT | 必須 | 1.0 | 0.0 - 1.0 | 領域の高さ(全体の高さに対するパーセンテージ) | +| `temporal` | FLOAT | 必須 | 1.0 | 0.0 - 1.0 | 領域の時間的持続期間(全体の動画長に対するパーセンテージ) | +| `x` | FLOAT | 必須 | 0.0 | 0.0 - 1.0 | 領域の水平方向開始位置(全体の幅に対するパーセンテージ) | +| `y` | FLOAT | 必須 | 0.0 | 0.0 - 1.0 | 領域の垂直方向開始位置(全体の高さに対するパーセンテージ) | +| `z` | FLOAT | 必須 | 0.0 | 0.0 - 1.0 | 領域の時間軸上での開始位置(動画タイムライン全体に対するパーセンテージ) | +| `strength` | FLOAT | 必須 | 1.0 | 0.0 - 10.0 | 定義された領域内において条件付けデータに適用される強度の乗数 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `conditioning` | CONDITIONING | 指定された領域および強度設定が適用された、変更後の条件付けデータ | \ No newline at end of file diff --git a/ja/built-in-nodes/ConditioningSetAreaStrength.mdx b/ja/built-in-nodes/ConditioningSetAreaStrength.mdx new file mode 100644 index 000000000..c7615312e --- /dev/null +++ b/ja/built-in-nodes/ConditioningSetAreaStrength.mdx @@ -0,0 +1,23 @@ +--- +title: "ConditioningSetAreaStrength - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における ConditioningSetAreaStrength ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ConditioningSetAreaStrength" +icon: "circle" +mode: wide +translationSourceHash: 61ee251f +translationFrom: built-in-nodes/ConditioningSetAreaStrength.mdx, zh-CN/built-in-nodes/ConditioningSetAreaStrength.mdx +--- +このノードは、指定された条件セット(conditioning set)の「強度(strength)」属性を変更するために設計されており、生成プロセスに対する条件の影響度や強さを調整できます。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `CONDITIONING` | CONDITIONING | 変更対象となる条件セットです。生成プロセスに影響を与える現在の条件状態を表します。 | +| `strength` | `FLOAT` | 条件セットに適用する強度値で、その影響の強さを決定します。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `CONDITIONING` | CONDITIONING | 各要素の強度値が更新された、変更後の条件セットです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ConditioningSetDefaultAndCombine.mdx b/ja/built-in-nodes/ConditioningSetDefaultAndCombine.mdx new file mode 100644 index 000000000..99595450f --- /dev/null +++ b/ja/built-in-nodes/ConditioningSetDefaultAndCombine.mdx @@ -0,0 +1,26 @@ +--- +title: "ConditioningSetDefaultAndCombine - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ConditioningSetDefaultAndCombine ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ConditioningSetDefaultAndCombine" +icon: "circle" +mode: wide +translationSourceHash: dca4bad5 +translationFrom: built-in-nodes/ConditioningSetDefaultAndCombine.mdx, zh-CN/built-in-nodes/ConditioningSetDefaultAndCombine.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ConditioningSetDefaultAndCombine/en.md) + +このノードは、フックベースのシステムを用いて条件データとデフォルトの条件データを結合します。主条件入力とデフォルト条件入力をそれぞれ受け取り、指定されたフック設定に従ってこれらをマージします。その結果として得られるのは、両方のソースを統合した単一の条件データ出力です。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `cond` | CONDITIONING | 必須 | - | - | 処理対象となる主条件入力 | +| `cond_DEFAULT` | CONDITIONING | 必須 | - | - | 主条件データと結合されるデフォルトの条件データ | +| `hooks` | HOOKS | オプション | - | - | 条件データの処理および結合方法を制御するオプションのフック設定 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `CONDITIONING` | CONDITIONING | 主条件入力とデフォルト条件入力を結合して得られた統合条件データ | \ No newline at end of file diff --git a/ja/built-in-nodes/ConditioningSetMask.mdx b/ja/built-in-nodes/ConditioningSetMask.mdx new file mode 100644 index 000000000..34ce6381d --- /dev/null +++ b/ja/built-in-nodes/ConditioningSetMask.mdx @@ -0,0 +1,27 @@ +--- +title: "ConditioningSetMask - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ConditioningSetMask ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ConditioningSetMask" +icon: "circle" +mode: wide +translationSourceHash: c2a67fdc +translationFrom: built-in-nodes/ConditioningSetMask.mdx, zh-CN/built-in-nodes/ConditioningSetMask.mdx +--- +このノードは、指定された強度を持つマスクを特定の領域に適用することで、生成モデルのコンディショニングを変更することを目的としています。これにより、コンディショニング内でのターゲットを絞った調整が可能となり、生成プロセスに対するより精密な制御を実現します。 + +## 入力 + +### 必須 + +| パラメーター | データ型 | 説明 | +|------------------|----------|------| +| `CONDITIONING` | CONDITIONING | 変更対象となるコンディショニングデータです。マスクおよび強度調整を適用する際の基盤となります。 | +| `mask` | `MASK` | コンディショニング内で変更される領域を指定するマスクテンソルです。 | +| `strength` | `FLOAT` | マスクがコンディショニングに与える影響の強さで、適用される変更を微調整できます。 | +| `set_cond_area` | COMBO[STRING] | マスクの効果をデフォルトの領域に適用するか、マスク自体によって限定された領域に適用するかを決定します。これにより、特定の領域を的確にターゲットにする柔軟性が得られます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------------|----------|------| +| `CONDITIONING` | CONDITIONING | マスクおよび強度調整が適用された、変更後のコンディショニングデータです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ConditioningSetProperties.mdx b/ja/built-in-nodes/ConditioningSetProperties.mdx new file mode 100644 index 000000000..8e931bd87 --- /dev/null +++ b/ja/built-in-nodes/ConditioningSetProperties.mdx @@ -0,0 +1,33 @@ +--- +title: "ConditioningSetProperties - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ConditioningSetProperties ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ConditioningSetProperties" +icon: "circle" +mode: wide +translationSourceHash: 87e2f007 +translationFrom: built-in-nodes/ConditioningSetProperties.mdx, zh-CN/built-in-nodes/ConditioningSetProperties.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ConditioningSetProperties/en.md) + +ConditioningSetProperties ノードは、強度や領域設定の調整、およびオプションのマスクやタイムステップ範囲の適用を通じて、コンディショニングデータのプロパティを変更します。これにより、画像生成プロセスにおけるコンディショニングデータの適用方法を、特定のパラメーターを設定することで制御可能となり、生成プロセスへのコンディショニングの影響を調整できます。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `cond_NEW` | CONDITIONING | 必須 | - | - | 変更対象のコンディショニングデータ | +| `strength` | FLOAT | 必須 | 1.0 | 0.0–10.0 | コンディショニング効果の強さを制御します | +| `set_cond_area` | STRING | 必須 | default | ["default", "mask bounds"] | コンディショニング領域の適用方法を決定します | +| `mask` | MASK | オプション | - | - | コンディショニングの適用範囲を制限するためのオプションのマスク | +| `hooks` | HOOKS | オプション | - | - | カスタム処理用のオプションのフック関数 | +| `timesteps` | TIMESTEPS_RANGE | オプション | - | - | コンディショニングが有効となるタイミングを制限するためのオプションのタイムステップ範囲 | + +**注意:** `mask` を指定した場合、`set_cond_area` パラメーターを `"mask bounds"` に設定することで、コンディショニングの適用をマスク領域内に限定できます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `CONDITIONING` | CONDITIONING | 更新されたプロパティを含む、変更後のコンディショニングデータ | \ No newline at end of file diff --git a/ja/built-in-nodes/ConditioningSetPropertiesAndCombine.mdx b/ja/built-in-nodes/ConditioningSetPropertiesAndCombine.mdx new file mode 100644 index 000000000..57077f4a1 --- /dev/null +++ b/ja/built-in-nodes/ConditioningSetPropertiesAndCombine.mdx @@ -0,0 +1,34 @@ +--- +title: "ConditioningSetPropertiesAndCombine - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ConditioningSetPropertiesAndCombine ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ConditioningSetPropertiesAndCombine" +icon: "circle" +mode: wide +translationSourceHash: 80122c41 +translationFrom: built-in-nodes/ConditioningSetPropertiesAndCombine.mdx, zh-CN/built-in-nodes/ConditioningSetPropertiesAndCombine.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合や、改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ConditioningSetPropertiesAndCombine/en.md) + +ConditioningSetPropertiesAndCombine ノードは、新しい条件付け入力から得られるプロパティを既存の条件付け入力に適用することで、条件付けデータを変更します。このノードは、2つの条件付けセットを統合するとともに、新しい条件付けの強度を制御し、条件付けが適用される領域の指定も行います。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `cond` | CONDITIONING | 必須 | - | - | 変更対象となる元の条件付けデータ | +| `cond_NEW` | CONDITIONING | 必須 | - | - | 適用するプロパティを提供する新しい条件付けデータ | +| `strength` | FLOAT | 必須 | 1.0 | 0.0 – 10.0 | 新しい条件付けプロパティの強さ(強度)を制御します | +| `set_cond_area` | STRING | 必須 | default | ["default", "mask bounds"] | 条件付けが適用される領域の決定方法を指定します | +| `mask` | MASK | オプション | - | - | 条件付けを適用する特定の領域を定義するオプションのマスク | +| `hooks` | HOOKS | オプション | - | - | カスタム処理を行うためのオプションのフック関数 | +| `timesteps` | TIMESTEPS_RANGE | オプション | - | - | 条件付けを適用するタイミングを制御するためのオプションのタイムステップ範囲 | + +**注意:** `mask` が指定されている場合、`set_cond_area` パラメーターに `"mask bounds"` を指定することで、条件付けの適用をマスクされた領域内に制限できます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `CONDITIONING` | CONDITIONING | プロパティが変更された統合済みの条件付けデータ | \ No newline at end of file diff --git a/ja/built-in-nodes/ConditioningSetTimestepRange.mdx b/ja/built-in-nodes/ConditioningSetTimestepRange.mdx new file mode 100644 index 000000000..4a34018a0 --- /dev/null +++ b/ja/built-in-nodes/ConditioningSetTimestepRange.mdx @@ -0,0 +1,24 @@ +--- +title: "ConditioningSetTimestepRange - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における ConditioningSetTimestepRange ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ConditioningSetTimestepRange" +icon: "circle" +mode: wide +translationSourceHash: b710e52e +translationFrom: built-in-nodes/ConditioningSetTimestepRange.mdx, zh-CN/built-in-nodes/ConditioningSetTimestepRange.mdx +--- +このノードは、特定のタイムステップ範囲を設定することにより、条件付け(conditioning)の時系列的側面を調整するために設計されています。生成プロセスにおける条件付け処理の開始点および終了点を精密に制御可能であり、より目的指向的かつ効率的な画像生成を実現します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +| --- | --- | --- | +| `CONDITIONING` | CONDITIONING | 条件付け入力は、現在の生成プロセスの状態を表しており、本ノードはこれに対して特定のタイムステップ範囲を適用して修正します。 | +| `start` | `FLOAT` | `start` パラメーターは、タイムステップ範囲の開始位置を、全生成プロセスに対する割合(%)で指定します。これにより、条件付け効果が開始されるタイミングを微調整できます。 | +| `end` | `FLOAT` | `end` パラメーターは、タイムステップ範囲の終了位置を割合(%)で定義します。これにより、条件付け効果の持続時間および終了タイミングを精密に制御できます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +| --- | --- | --- | +| `CONDITIONING` | CONDITIONING | 出力は、指定されたタイムステップ範囲が適用された修正済みの条件付けデータであり、その後の処理または画像生成にそのまま使用できます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ConditioningStableAudio.mdx b/ja/built-in-nodes/ConditioningStableAudio.mdx new file mode 100644 index 000000000..4c3b9590d --- /dev/null +++ b/ja/built-in-nodes/ConditioningStableAudio.mdx @@ -0,0 +1,30 @@ +--- +title: "ConditioningStableAudio - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における ConditioningStableAudio ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ConditioningStableAudio" +icon: "circle" +mode: wide +translationSourceHash: 6e22c26a +translationFrom: built-in-nodes/ConditioningStableAudio.mdx, zh-CN/built-in-nodes/ConditioningStableAudio.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ConditioningStableAudio/en.md) + +ConditioningStableAudio ノードは、音声生成用の正の条件付け入力および負の条件付け入力に時序情報を追加します。このノードでは、音声コンテンツの生成開始時刻および生成継続時間を制御するための「開始時刻」と「全長」のパラメーターを設定します。既存の条件付けデータに対して、音声特有の時序メタデータを付加することで、そのデータを変更します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | 音声時序情報を付加して修正される正の条件付け入力 | +| `negative` | CONDITIONING | はい | - | 音声時序情報を付加して修正される負の条件付け入力 | +| `seconds_start` | FLOAT | はい | 0.0 ~ 1000.0 | 音声生成の開始時刻(単位:秒、デフォルト値:0.0) | +| `seconds_total` | FLOAT | はい | 0.0 ~ 1000.0 | 音声生成の全長(単位:秒、デフォルト値:47.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 音声時序情報が適用された修正済みの正の条件付け | +| `negative` | CONDITIONING | 音声時序情報が適用された修正済みの負の条件付け | \ No newline at end of file diff --git a/ja/built-in-nodes/ConditioningTimestepsRange.mdx b/ja/built-in-nodes/ConditioningTimestepsRange.mdx new file mode 100644 index 000000000..ae1ec120d --- /dev/null +++ b/ja/built-in-nodes/ConditioningTimestepsRange.mdx @@ -0,0 +1,29 @@ +--- +title: "ConditioningTimestepsRange - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ConditioningTimestepsRange ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ConditioningTimestepsRange" +icon: "circle" +mode: wide +translationSourceHash: f050082d +translationFrom: built-in-nodes/ConditioningTimestepsRange.mdx, zh-CN/built-in-nodes/ConditioningTimestepsRange.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ConditioningTimestepsRange/en.md) + +ConditioningTimestepsRange ノードは、画像生成プロセスにおいて条件付け効果を適用するタイミングを制御するために、3 つの異なるタイムステップ範囲を作成します。このノードは開始および終了の百分率値を受け取り、全体のタイムステップ範囲(0.0 ~ 1.0)を以下の 3 つのセグメントに分割します:指定された百分率間の「メイン範囲」、開始百分率より前の範囲、および終了百分率より後の範囲。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `start_percent` | FLOAT | はい | 0.0 ~ 1.0 | タイムステップ範囲の開始百分率(デフォルト:0.0) | +| `end_percent` | FLOAT | はい | 0.0 ~ 1.0 | タイムステップ範囲の終了百分率(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `TIMESTEPS_RANGE` | TIMESTEPS_RANGE | `start_percent` と `end_percent` で定義されるメインのタイムステップ範囲 | +| `BEFORE_RANGE` | TIMESTEPS_RANGE | 0.0 から `start_percent` までのタイムステップ範囲 | +| `AFTER_RANGE` | TIMESTEPS_RANGE | `end_percent` から 1.0 までのタイムステップ範囲 | \ No newline at end of file diff --git a/ja/built-in-nodes/ConditioningZeroOut.mdx b/ja/built-in-nodes/ConditioningZeroOut.mdx new file mode 100644 index 000000000..887ffadde --- /dev/null +++ b/ja/built-in-nodes/ConditioningZeroOut.mdx @@ -0,0 +1,22 @@ +--- +title: "ConditioningZeroOut - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ConditioningZeroOut ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ConditioningZeroOut" +icon: "circle" +mode: wide +translationSourceHash: 01a13b9b +translationFrom: built-in-nodes/ConditioningZeroOut.mdx, zh-CN/built-in-nodes/ConditioningZeroOut.mdx +--- +このノードは、条件付け(conditioning)データ構造内の特定の要素をゼロに設定し、それらが後続の処理ステップにおいて影響を及ぼさないようにするものです。これは、条件付けデータの内部表現を直接操作する必要がある高度な条件付け操作向けに設計されています。 + +## 入力 + +| パラメーター | Comfy dtype | 説明 | +|-----------|----------------------------|-------------| +| `CONDITIONING` | CONDITIONING | 変更対象の条件付けデータ構造です。このノードは、各条件付けエントリ内に存在する場合、`pooled_output` 要素をゼロに設定します。 | + +## 出力 + +| パラメーター | Comfy dtype | 説明 | +|-----------|----------------------------|-------------| +| `CONDITIONING` | CONDITIONING | 変更後の条件付けデータ構造で、該当する `pooled_output` 要素がゼロに設定されています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ContextWindowsManual.mdx b/ja/built-in-nodes/ContextWindowsManual.mdx new file mode 100644 index 000000000..045a16204 --- /dev/null +++ b/ja/built-in-nodes/ContextWindowsManual.mdx @@ -0,0 +1,37 @@ +--- +title: "ContextWindowsManual - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ContextWindowsManual ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ContextWindowsManual" +icon: "circle" +mode: wide +translationSourceHash: 457729ff +translationFrom: built-in-nodes/ContextWindowsManual.mdx, zh-CN/built-in-nodes/ContextWindowsManual.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひ貢献してください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ContextWindowsManual/en.md) + +「Context Windows (Manual)」ノードは、サンプリング中にモデルに対して手動でコンテキストウィンドウを設定することを可能にします。このノードは、指定された長さ、オーバーラップ量、およびスケジューリングパターンを持つ重複するコンテキストセグメントを作成し、データを管理可能なチャンク単位で処理するとともに、セグメント間の連続性を維持します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | サンプリング中にコンテキストウィンドウを適用するモデルです。 | +| `context_length` | INT | いいえ | 1以上 | コンテキストウィンドウの長さ(デフォルト値:16)。 | +| `context_overlap` | INT | いいえ | 0以上 | コンテキストウィンドウのオーバーラップ量(デフォルト値:4)。 | +| `context_schedule` | COMBO | いいえ | `STATIC_STANDARD`
`UNIFORM_STANDARD`
`UNIFORM_LOOPED`
`BATCHED` | コンテキストウィンドウのストライド(進行パターン)です。 | +| `context_stride` | INT | いいえ | 1以上 | コンテキストウィンドウのストライド(ステップ幅);均一スケジュール(uniform schedules)でのみ有効です(デフォルト値:1)。 | +| `closed_loop` | BOOLEAN | いいえ | - | コンテキストウィンドウのループを閉じるかどうか;ループ付きスケジュール(looped schedules)でのみ有効です(デフォルト値:False)。 | +| `fuse_method` | COMBO | いいえ | `PYRAMID`
`LIST_STATIC` | コンテキストウィンドウを融合する際に使用する手法(デフォルト値:`PYRAMID`)。 | +| `dim` | INT | いいえ | 0〜5 | コンテキストウィンドウを適用する次元(デフォルト値:0)。 | + +**パラメーター制約条件:** + +- `context_stride` は、均一スケジュールが選択された場合のみ使用されます。 +- `closed_loop` は、ループ付きスケジュールでのみ適用可能です。 +- `dim` は 0 から 5 の範囲内(両端含む)でなければなりません。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | サンプリング中にコンテキストウィンドウが適用されたモデルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ControlNetApply.mdx b/ja/built-in-nodes/ControlNetApply.mdx new file mode 100644 index 000000000..648dfc631 --- /dev/null +++ b/ja/built-in-nodes/ControlNetApply.mdx @@ -0,0 +1,32 @@ +--- +title: "ControlNetApply - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ControlNetApply ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ControlNetApply" +icon: "circle" +mode: wide +translationSourceHash: 5207ab6e +translationFrom: built-in-nodes/ControlNetApply.mdx, zh-CN/built-in-nodes/ControlNetApply.mdx +translationMismatches: + - "description" +--- +ControlNet を使用するには、入力画像の前処理が必要です。ComfyUI の初期ノードにはプリプロセッサや ControlNet モデルが含まれていないため、まず ControlNet プリプロセッサをインストールしてください([プリプロセッサのダウンロードはこちら](https://github.com/Fannovel16/comfy_controlnet_preprocessors))。また、対応する ControlNet モデルも併せてインストールしてください。 + +## 入力 + +| パラメーター | データ型 | 機能 | +| --- | --- | --- | +| `positive` | `CONDITIONING` | 正の条件付けデータ。CLIP テキストエンコーダーまたはその他の条件付け入力から取得します | +| `negative` | `CONDITIONING` | 負の条件付けデータ。CLIP テキストエンコーダーまたはその他の条件付け入力から取得します | +| `control_net` | `CONTROL_NET` | 適用する ControlNet モデル。通常は ControlNet Loader から入力されます | +| `image` | `IMAGE` | ControlNet に適用する画像。事前にプリプロセッサで処理する必要があります | +| `vae` | `VAE` | VAE モデルの入力 | +| `strength` | `FLOAT` | ネットワークによる調整の強さを制御します。値の範囲は 0~10 です。推奨される値は 0.5~1.5 の間で、この範囲が適切とされています。値が小さいほどモデルの自由度が高まり、大きいほど制約が厳しくなります。あまりにも大きな値を設定すると、不自然な画像が出力される可能性があります。この値は実験的に調整し、ControlNet の影響度を微調整するために使用できます。 | +| `start_percent` | `FLOAT` | 値の範囲は 0.000~1.000 で、ControlNet の適用を開始するタイミング(拡散プロセスにおける割合)を指定します。たとえば 0.2 を指定した場合、拡散プロセスの 20% が完了した時点で ControlNet のガイドが画像生成に影響を及ぼし始めます | +| `end_percent` | `FLOAT` | 値の範囲は 0.000~1.000 で、ControlNet の適用を終了するタイミング(拡散プロセスにおける割合)を指定します。たとえば 0.8 を指定した場合、拡散プロセスの 80% が完了した時点で ControlNet のガイドが画像生成への影響を停止します | + +### 出力 + +| パラメーター | データ型 | 機能 | +| --- | --- | --- | +| `positive` | `CONDITIONING` | ControlNet によって処理された正の条件付けデータ。次の ControlNet ノードや K Sampler ノードなどに出力できます | +| `negative` | `CONDITIONING` | ControlNet によって処理された負の条件付けデータ。次の ControlNet ノードや K Sampler ノードなどに出力できます | \ No newline at end of file diff --git a/ja/built-in-nodes/ControlNetApplyAdvanced.mdx b/ja/built-in-nodes/ControlNetApplyAdvanced.mdx new file mode 100644 index 000000000..3e68b27be --- /dev/null +++ b/ja/built-in-nodes/ControlNetApplyAdvanced.mdx @@ -0,0 +1,31 @@ +--- +title: "ControlNetApplyAdvanced - ComfyUI 組み込みノード ドキュメンテーション" +description: "ComfyUI の ControlNetApplyAdvanced ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ControlNetApplyAdvanced" +icon: "circle" +mode: wide +translationSourceHash: d5b51631 +translationFrom: built-in-nodes/ControlNetApplyAdvanced.mdx, zh-CN/built-in-nodes/ControlNetApplyAdvanced.mdx +translationMismatches: + - "description" +--- +このノードは、画像および ControlNet モデルに基づいて、条件付けデータ(conditioning data)に高度な ControlNet 変換を適用します。生成されるコンテンツに対する ControlNet の影響を微調整可能であり、条件付けデータに対してより正確かつ多様な変更を実現します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `positive` | `CONDITIONING` | ControlNet 変換を適用する正の条件付けデータです。生成されるコンテンツにおいて強化または維持したい属性や特徴を表します。 | +| `negative` | `CONDITIONING` | ControlNet 変換を適用する負の条件付けデータです。生成されるコンテンツから低減または除去したい属性や特徴を表します。これにより、コンテンツの特性をバランスよく調整できます。 | +| `control_net` | `CONTROL_NET` | 条件付けデータに対する具体的な調整および強化を定義する上で極めて重要な ControlNet モデルです。参照画像および「強度」パラメーターを解釈して変換を適用し、正・負の条件付けデータ双方の属性を変更することで、最終出力に大きな影響を与えます。 | +| `image` | `IMAGE` | ControlNet 変換の基準となる画像です。条件付けデータに対する ControlNet の調整に影響を与え、特定の特徴の強化または抑制をガイドします。 | +| `strength` | `FLOAT` | ControlNet が条件付けデータに与える影響の強さを決定するスカラー値です。値が大きいほど、調整効果が顕著になります。 | +| `start_percent` | `FLOAT` | ControlNet 効果の開始割合です。指定された範囲内で変換を段階的に適用することを可能にします。 | +| `end_percent` | `FLOAT` | ControlNet 効果の終了割合です。変換が適用される範囲を定義します。これにより、調整プロセスをより繊細に制御できます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `positive` | `CONDITIONING` | ControlNet 変換を適用した後の修正済み正の条件付けデータです。入力パラメーターに基づく強化内容を反映しています。 | +| `negative` | `CONDITIONING` | ControlNet 変換を適用した後の修正済み負の条件付けデータです。入力パラメーターに基づく特定の特徴の抑制または除去を反映しています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ControlNetApplySD3.mdx b/ja/built-in-nodes/ControlNetApplySD3.mdx new file mode 100644 index 000000000..505caf0bd --- /dev/null +++ b/ja/built-in-nodes/ControlNetApplySD3.mdx @@ -0,0 +1,36 @@ +--- +title: "ControlNetApplySD3 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ControlNetApplySD3 ノードの完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "ControlNetApplySD3" +icon: "circle" +mode: wide +translationSourceHash: 4154ed5e +translationFrom: built-in-nodes/ControlNetApplySD3.mdx, zh-CN/built-in-nodes/ControlNetApplySD3.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や、改善に関するご提案がある場合は、ぜひご協力ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ControlNetApplySD3/en.md) + +このノードは、Stable Diffusion 3 の条件付け(conditioning)に ControlNet のガイドを適用します。正の条件付けと負の条件付けの入力に加え、ControlNet モデルおよび画像を受け取り、調整可能な強度およびタイミングパラメーターを用いて制御ガイドを適用し、画像生成プロセスに影響を与えます。 + +**注意:** このノードは非推奨(deprecated)としてマークされており、今後のバージョンで削除される可能性があります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | ControlNet ガイドを適用する正の条件付け | +| `negative` | CONDITIONING | はい | - | ControlNet ガイドを適用する負の条件付け | +| `control_net` | CONTROL_NET | はい | - | ガイドに使用する ControlNet モデル | +| `vae` | VAE | はい | - | 処理で使用される VAE モデル | +| `image` | IMAGE | はい | - | ControlNet がガイドとして使用する入力画像 | +| `strength` | FLOAT | はい | 0.0 – 10.0 | ControlNet 効果の強さ(デフォルト値:1.0) | +| `start_percent` | FLOAT | はい | 0.0 – 1.0 | ControlNet の適用を開始する生成プロセス上の開始時点(デフォルト値:0.0) | +| `end_percent` | FLOAT | はい | 0.0 – 1.0 | ControlNet の適用を終了する生成プロセス上の終了時点(デフォルト値:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | ControlNet ガイドが適用された修正済みの正の条件付け | +| `negative` | CONDITIONING | ControlNet ガイドが適用された修正済みの負の条件付け | \ No newline at end of file diff --git a/ja/built-in-nodes/ControlNetInpaintingAliMamaApply.mdx b/ja/built-in-nodes/ControlNetInpaintingAliMamaApply.mdx new file mode 100644 index 000000000..f40b9edf2 --- /dev/null +++ b/ja/built-in-nodes/ControlNetInpaintingAliMamaApply.mdx @@ -0,0 +1,37 @@ +--- +title: "ControlNetInpaintingAliMamaApply - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ControlNetInpaintingAliMamaApply ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ControlNetInpaintingAliMamaApply" +icon: "circle" +mode: wide +translationSourceHash: c45c46d1 +translationFrom: built-in-nodes/ControlNetInpaintingAliMamaApply.mdx, zh-CN/built-in-nodes/ControlNetInpaintingAliMamaApply.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ControlNetInpaintingAliMamaApply/en.md) + +ControlNetInpaintingAliMamaApply ノードは、正の条件付けと負の条件付けに加えて制御画像およびマスクを組み合わせることにより、修復(インペインティング)タスク向けの ControlNet 条件付けを適用します。このノードは入力画像とマスクを処理し、生成プロセスをガイドするための修正済み条件付けを作成することで、画像内のどの領域を修復するかを精密に制御可能にします。また、このノードは強度調整およびタイミング制御をサポートしており、生成プロセスの各段階において ControlNet の影響度を微調整できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|--------------|----------|------|------|------| +| `positive` | CONDITIONING | はい | - | 望ましいコンテンツへと生成を誘導する正の条件付け | +| `negative` | CONDITIONING | はい | - | 不要なコンテンツから生成を逸らす負の条件付け | +| `control_net` | CONTROL_NET | はい | - | 生成プロセスに対して追加の制御を提供する ControlNet モデル | +| `vae` | VAE | はい | - | 画像の符号化および復号化に使用される変分自己符号化器(VAE) | +| `image` | IMAGE | はい | - | ControlNet の制御ガイドとして用いる入力画像 | +| `mask` | MASK | はい | - | 画像のうちどの領域を修復するかを定義するマスク | +| `strength` | FLOAT | はい | 0.0 ~ 10.0 | ControlNet 効果の強さ(デフォルト:1.0) | +| `start_percent` | FLOAT | はい | 0.0 ~ 1.0 | 生成プロセスにおいて ControlNet の影響が開始される時点(割合)(デフォルト:0.0) | +| `end_percent` | FLOAT | はい | 0.0 ~ 1.0 | 生成プロセスにおいて ControlNet の影響が終了する時点(割合)(デフォルト:1.0) | + +**注意:** ControlNet で `concat_mask` が有効になっている場合、マスクは処理前に反転され、入力画像に適用されます。また、このマスクは ControlNet へ送信される追加の連結データに含まれます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|---------|----------|------| +| `positive` | CONDITIONING | 修復処理に ControlNet を適用した修正済み正の条件付け | +| `negative` | CONDITIONING | 修復処理に ControlNet を適用した修正済み負の条件付け | \ No newline at end of file diff --git a/ja/built-in-nodes/ControlNetLoader.mdx b/ja/built-in-nodes/ControlNetLoader.mdx new file mode 100644 index 000000000..15c3590a3 --- /dev/null +++ b/ja/built-in-nodes/ControlNetLoader.mdx @@ -0,0 +1,24 @@ +--- +title: "ControlNetLoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ControlNetLoader ノードの完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "ControlNetLoader" +icon: "circle" +mode: wide +translationSourceHash: c857dc77 +translationFrom: built-in-nodes/ControlNetLoader.mdx, zh-CN/built-in-nodes/ControlNetLoader.mdx +--- +このノードは、`ComfyUI/models/controlnet` フォルダー内にあるモデルを検出し、さらに `extra_model_paths.yaml` ファイルで設定された追加パスからもモデルを読み込みます。場合によっては、対応するフォルダー内のモデルファイルを読み込むために、**ComfyUI インターフェースを更新する**必要があります。 + +`ControlNetLoader` ノードは、指定されたパスから ControlNet モデルを読み込むことを目的として設計されています。これは、生成コンテンツに対する制御機構を適用したり、制御信号に基づいて既存のコンテンツを変更したりするために不可欠な ControlNet モデルを初期化する上で、極めて重要な役割を果たします。 + +## 入力 + +| フィールド | Comfy dtype | 説明 | +|-----------------------|-------------------|----------------------------------------------------------------------------| +| `control_net_name` | `COMBO[STRING]` | 読み込む ControlNet モデルの名称を指定します。事前に定義されたディレクトリ構造内でモデルファイルを特定するために使用されます。 | + +## 出力 + +| フィールド | Comfy dtype | 説明 | +|-------------------|---------------|-----------------------------------------------------------------| +| `control_net` | `CONTROL_NET` | 読み込まれた ControlNet モデルを返します。コンテンツ生成プロセスの制御または変更にすぐに利用できます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ConvertStringToComboNode.mdx b/ja/built-in-nodes/ConvertStringToComboNode.mdx new file mode 100644 index 000000000..8eac87f6c --- /dev/null +++ b/ja/built-in-nodes/ConvertStringToComboNode.mdx @@ -0,0 +1,26 @@ +--- +title: "ConvertStringToComboNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ConvertStringToComboNode ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ConvertStringToComboNode" +icon: "circle" +mode: wide +translationSourceHash: d892326c +translationFrom: built-in-nodes/ConvertStringToComboNode.mdx, zh-CN/built-in-nodes/ConvertStringToComboNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ConvertStringToComboNode/en.md) + +「Convert String to Combo」ノードは、テキスト文字列を入力として受け取り、それを COMBO データ型に変換します。これにより、他の COMBO 入力を必要とするノードに対して、テキスト値を選択肢として利用できるようになります。このノードは文字列の値をそのまま通過させますが、そのデータ型のみを変更します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `string` | STRING | はい | N/A | COMBO 型に変換されるテキスト文字列。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | COMBO | 入力された文字列で、COMBO データ型としてフォーマットされたもの。 | \ No newline at end of file diff --git a/ja/built-in-nodes/CosmosImageToVideoLatent.mdx b/ja/built-in-nodes/CosmosImageToVideoLatent.mdx new file mode 100644 index 000000000..46f26051d --- /dev/null +++ b/ja/built-in-nodes/CosmosImageToVideoLatent.mdx @@ -0,0 +1,34 @@ +--- +title: "CosmosImageToVideoLatent - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における CosmosImageToVideoLatent ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CosmosImageToVideoLatent" +icon: "circle" +mode: wide +translationSourceHash: 3775ad96 +translationFrom: built-in-nodes/CosmosImageToVideoLatent.mdx, zh-CN/built-in-nodes/CosmosImageToVideoLatent.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CosmosImageToVideoLatent/en.md) + +CosmosImageToVideoLatent ノードは、入力画像から動画の潜在表現(latent)を生成します。このノードは、空白の動画潜在表現を生成し、必要に応じて開始画像および/または終了画像を動画シーケンスの先頭および/または末尾のフレームにエンコードします。画像が指定された場合、生成時に潜在表現のどの部分を保持すべきかを示す対応するノイズマスクも作成されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `vae` | VAE | はい | - | 画像を潜在空間へエンコードする際に使用される VAE モデル | +| `width` | INT | いいえ | 16 ~ MAX_RESOLUTION | 出力動画の幅(ピクセル単位)(デフォルト:1280) | +| `height` | INT | いいえ | 16 ~ MAX_RESOLUTION | 出力動画の高さ(ピクセル単位)(デフォルト:704) | +| `length` | INT | いいえ | 1 ~ MAX_RESOLUTION | 動画シーケンスのフレーム数(デフォルト:121) | +| `batch_size` | INT | いいえ | 1 ~ 4096 | 生成する潜在表現のバッチ数(デフォルト:1) | +| `start_image` | IMAGE | いいえ | - | 動画シーケンスの先頭でエンコードするオプションの画像 | +| `end_image` | IMAGE | いいえ | - | 動画シーケンスの末尾でエンコードするオプションの画像 | + +**注意:** `start_image` も `end_image` も指定されない場合、ノードはノイズマスクを含まない空白の潜在表現を返します。いずれかの画像が指定された場合、潜在表現の対応する領域がエンコードされ、それに応じたマスクが作成されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `latent` | LATENT | 生成された動画の潜在表現。オプションでエンコードされた画像および対応するノイズマスクを含みます | \ No newline at end of file diff --git a/ja/built-in-nodes/CosmosPredict2ImageToVideoLatent.mdx b/ja/built-in-nodes/CosmosPredict2ImageToVideoLatent.mdx new file mode 100644 index 000000000..189c6add9 --- /dev/null +++ b/ja/built-in-nodes/CosmosPredict2ImageToVideoLatent.mdx @@ -0,0 +1,35 @@ +--- +title: "CosmosPredict2ImageToVideoLatent - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における CosmosPredict2ImageToVideoLatent ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CosmosPredict2ImageToVideoLatent" +icon: "circle" +mode: wide +translationSourceHash: 7ec2a8ea +translationFrom: built-in-nodes/CosmosPredict2ImageToVideoLatent.mdx, zh-CN/built-in-nodes/CosmosPredict2ImageToVideoLatent.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CosmosPredict2ImageToVideoLatent/en.md) + +CosmosPredict2ImageToVideoLatent ノードは、動画生成のために画像から動画の潜在表現(latent representation)を作成します。このノードでは、空白の動画潜在表現を生成するほか、開始画像および終了画像を組み合わせて、指定された解像度および再生時間を持つ動画シーケンスを生成することも可能です。また、このノードは画像を動画処理に適した潜在空間フォーマットへエンコードする処理を担当します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `vae` | VAE | はい | - | 画像を潜在空間へエンコードするために使用される VAE モデル | +| `width` | INT | いいえ | 16 ~ MAX_RESOLUTION | 出力動画の幅(ピクセル単位、デフォルト値:848、16 の倍数である必要があります) | +| `height` | INT | いいえ | 16 ~ MAX_RESOLUTION | 出力動画の高さ(ピクセル単位、デフォルト値:480、16 の倍数である必要があります) | +| `length` | INT | いいえ | 1 ~ MAX_RESOLUTION | 動画シーケンスのフレーム数(デフォルト値:93、ステップ:4) | +| `batch_size` | INT | いいえ | 1 ~ 4096 | 生成する動画シーケンスの数(デフォルト値:1) | +| `start_image` | IMAGE | いいえ | - | 動画シーケンスの開始時に使用するオプションの画像 | +| `end_image` | IMAGE | いいえ | - | 動画シーケンスの終了時に使用するオプションの画像 | + +**注意:** `start_image` および `end_image` のいずれも指定されない場合、ノードは空白の動画潜在表現を生成します。画像が指定された場合、それらはエンコードされ、動画シーケンスの先頭および/または末尾に配置され、適切なマスクが適用されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `samples` | LATENT | 生成された動画潜在表現。エンコード済みの動画シーケンスを含みます | +| `noise_mask` | LATENT | 生成処理中に潜在表現のどの部分を保持すべきかを示すマスク | \ No newline at end of file diff --git a/ja/built-in-nodes/CreateHookKeyframe.mdx b/ja/built-in-nodes/CreateHookKeyframe.mdx new file mode 100644 index 000000000..5c61ab00b --- /dev/null +++ b/ja/built-in-nodes/CreateHookKeyframe.mdx @@ -0,0 +1,26 @@ +--- +title: "CreateHookKeyframe - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CreateHookKeyframe ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CreateHookKeyframe" +icon: "circle" +mode: wide +translationSourceHash: e7bf9b8b +translationFrom: built-in-nodes/CreateHookKeyframe.mdx, zh-CN/built-in-nodes/CreateHookKeyframe.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CreateHookKeyframe/en.md) + +Create Hook Keyframe ノードは、生成プロセスにおいてフックの動作が変化する特定のタイミング(ポイント)を定義できるようにします。このノードは、生成進行率の特定のパーセンテージ位置でフックの強度を調整するキーフレームを作成し、複数のキーフレームを連鎖させることで、複雑なスケジューリングパターンを構築できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `strength_mult` | FLOAT | はい | -20.0 ~ 20.0 | このキーフレームにおけるフック強度の乗数(デフォルト:1.0) | +| `start_percent` | FLOAT | はい | 0.0 ~ 1.0 | 生成プロセスにおいて、このキーフレームが有効になる進行率のパーセンテージ値(デフォルト:0.0) | +| `prev_hook_kf` | HOOK_KEYFRAMES | いいえ | - | このキーフレームを追加するための、オプションの先行フックキーフレームグループ | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `HOOK_KF` | HOOK_KEYFRAMES | 新しく作成されたキーフレームを含むフックキーフレームのグループ | \ No newline at end of file diff --git a/ja/built-in-nodes/CreateHookKeyframesFromFloats.mdx b/ja/built-in-nodes/CreateHookKeyframesFromFloats.mdx new file mode 100644 index 000000000..7cc187e9e --- /dev/null +++ b/ja/built-in-nodes/CreateHookKeyframesFromFloats.mdx @@ -0,0 +1,32 @@ +--- +title: "CreateHookKeyframesFromFloats - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CreateHookKeyframesFromFloats ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CreateHookKeyframesFromFloats" +icon: "circle" +mode: wide +translationSourceHash: ee66cfbf +translationFrom: built-in-nodes/CreateHookKeyframesFromFloats.mdx, zh-CN/built-in-nodes/CreateHookKeyframesFromFloats.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CreateHookKeyframesFromFloats/en.md) + +このノードは、浮動小数点数の強度値のリストからフックキーフレームを作成し、それらを指定された開始パーセンテージと終了パーセンテージの間で均等に分布させます。アニメーションタイムライン上の特定のパーセンテージ位置に各強度値を割り当てたキーフレームのシーケンスを生成します。このノードは、新しいキーフレームグループを作成するか、既存のグループに追加するかを選択でき、デバッグ目的で生成されたキーフレームをコンソールに出力するオプションも備えています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `floats_strength` | FLOATS | はい | -1 ~ ∞ | キーフレームの強度値を表す単一の浮動小数点数または浮動小数点数のリスト(デフォルト:-1) | +| `start_percent` | FLOAT | はい | 0.0 ~ 1.0 | タイムライン上における最初のキーフレームの開始パーセンテージ位置(デフォルト:0.0) | +| `end_percent` | FLOAT | はい | 0.0 ~ 1.0 | タイムライン上における最後のキーフレームの終了パーセンテージ位置(デフォルト:1.0) | +| `print_keyframes` | BOOLEAN | はい | True/False | 有効にすると、生成されたキーフレーム情報をコンソールに出力します(デフォルト:False) | +| `prev_hook_kf` | HOOK_KEYFRAMES | いいえ | - | 新しいキーフレームを追加する既存のフックキーフレームグループ。未指定の場合は新規グループが作成されます | + +**注意:** `floats_strength` パラメーターには、単一の浮動小数点数または反復可能な浮動小数点数のリストを指定できます。キーフレームは、提供された強度値の数に基づき、`start_percent` と `end_percent` の間で線形に分布します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `HOOK_KF` | HOOK_KEYFRAMES | 新しく作成されたキーフレームを含むフックキーフレームグループ。新規グループとして作成されるか、入力キーフレームグループに追加されます | \ No newline at end of file diff --git a/ja/built-in-nodes/CreateHookKeyframesInterpolated.mdx b/ja/built-in-nodes/CreateHookKeyframesInterpolated.mdx new file mode 100644 index 000000000..64cfd09b1 --- /dev/null +++ b/ja/built-in-nodes/CreateHookKeyframesInterpolated.mdx @@ -0,0 +1,33 @@ +--- +title: "CreateHookKeyframesInterpolated - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CreateHookKeyframesInterpolated ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CreateHookKeyframesInterpolated" +icon: "circle" +mode: wide +translationSourceHash: 45e315b0 +translationFrom: built-in-nodes/CreateHookKeyframesInterpolated.mdx, zh-CN/built-in-nodes/CreateHookKeyframesInterpolated.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CreateHookKeyframesInterpolated/en.md) + +開始点と終了点の間で強度値を補間した「フック・キーフレーム」のシーケンスを作成します。このノードは、生成プロセスにおける指定されたパーセンテージ範囲内で強度パラメーターを滑らかに遷移させる複数のキーフレームを生成し、遷移カーブを制御するためにさまざまな補間手法を用います。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `strength_start` | FLOAT | はい | 0.0 - 10.0 | 補間シーケンスの開始強度値(デフォルト:1.0) | +| `strength_end` | FLOAT | はい | 0.0 - 10.0 | 補間シーケンスの終了強度値(デフォルト:1.0) | +| `interpolation` | COMBO | はい | 複数のオプションが利用可能 | 強度値間の遷移に使用される補間手法 | +| `start_percent` | FLOAT | はい | 0.0 - 1.0 | 生成プロセスにおける開始位置のパーセンテージ(デフォルト:0.0) | +| `end_percent` | FLOAT | はい | 0.0 - 1.0 | 生成プロセスにおける終了位置のパーセンテージ(デフォルト:1.0) | +| `keyframes_count` | INT | はい | 2 - 100 | 補間シーケンスで生成するキーフレームの数(デフォルト:5) | +| `print_keyframes` | BOOLEAN | はい | True/False | 生成されたキーフレーム情報をログに出力するかどうか(デフォルト:False) | +| `prev_hook_kf` | HOOK_KEYFRAMES | いいえ | - | 追加対象となる、任意の既存フック・キーフレームグループ | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `HOOK_KF` | HOOK_KEYFRAMES | 補間シーケンスを含む生成済みフック・キーフレームグループ | \ No newline at end of file diff --git a/ja/built-in-nodes/CreateHookLora.mdx b/ja/built-in-nodes/CreateHookLora.mdx new file mode 100644 index 000000000..7e93b5278 --- /dev/null +++ b/ja/built-in-nodes/CreateHookLora.mdx @@ -0,0 +1,34 @@ +--- +title: "CreateHookLora - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CreateHookLora ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CreateHookLora" +icon: "circle" +mode: wide +translationSourceHash: 01446487 +translationFrom: built-in-nodes/CreateHookLora.mdx, zh-CN/built-in-nodes/CreateHookLora.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CreateHookLora/en.md) + +Create Hook LoRA ノードは、モデルに LoRA(低ランク適応:Low-Rank Adaptation)による変更を適用するためのフックオブジェクトを生成します。このノードは指定された LoRA ファイルを読み込み、モデルおよび CLIP の強度を調整可能なフックを作成し、さらにそれらのフックを入力として渡された既存のフックと組み合わせます。また、LoRA の読み込みを効率的に管理するために、以前に読み込んだ LoRA ファイルをキャッシュすることで、重複した読み込み処理を回避します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `lora_name` | STRING | はい | 複数の選択肢あり | `loras` ディレクトリから読み込む LoRA ファイル名 | +| `strength_model` | FLOAT | はい | -20.0 ~ 20.0 | モデル調整に対する強度の乗数(デフォルト値:1.0) | +| `strength_clip` | FLOAT | はい | -20.0 ~ 20.0 | CLIP 調整に対する強度の乗数(デフォルト値:1.0) | +| `prev_hooks` | HOOKS | いいえ | 該当なし | 新しい LoRA フックと組み合わせるための、任意の既存フックグループ | + +**パラメーター制約:** + +- `strength_model` および `strength_clip` の両方が 0 に設定された場合、ノードは新しい LoRA フックの作成をスキップし、既存のフックをそのまま返します。 +- 同じ LoRA を繰り返し使用する際のパフォーマンス向上のため、ノードは最後に読み込んだ LoRA ファイルをキャッシュします。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `HOOKS` | HOOKS | 結合された LoRA フックおよび既存のフックを含むフックグループ | \ No newline at end of file diff --git a/ja/built-in-nodes/CreateHookLoraModelOnly.mdx b/ja/built-in-nodes/CreateHookLoraModelOnly.mdx new file mode 100644 index 000000000..45ebebe26 --- /dev/null +++ b/ja/built-in-nodes/CreateHookLoraModelOnly.mdx @@ -0,0 +1,28 @@ +--- +title: "CreateHookLoraModelOnly - ComfyUI 組み込みノード ドキュメンテーション" +description: "ComfyUI における CreateHookLoraModelOnly ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CreateHookLoraModelOnly" +icon: "circle" +mode: wide +translationSourceHash: 943bc869 +translationFrom: built-in-nodes/CreateHookLoraModelOnly.mdx, zh-CN/built-in-nodes/CreateHookLoraModelOnly.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションはAIによって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHubで編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CreateHookLoraModelOnly/en.md) + +このノードは、モデルコンポーネントにのみ適用されるLoRA(Low-Rank Adaptation:低ランク適応)フックを作成します。これにより、CLIPコンポーネントに影響を与えることなくモデルの動作を変更できます。ノードはLoRAファイルを読み込み、指定された強度でモデルに適用しますが、CLIPコンポーネントは変更されません。また、このノードは既存のフックと連鎖させることで、複雑な修正パイプラインを構築できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `lora_name` | STRING | はい | 複数の選択肢あり | `loras`フォルダーから読み込むLoRAファイルの名前 | +| `strength_model` | FLOAT | はい | -20.0 ~ 20.0 | モデルコンポーネントへのLoRA適用時の強度倍率(デフォルト値:1.0) | +| `prev_hooks` | HOOKS | いいえ | - | このフックと連鎖させるための、オプションの先行フック | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `hooks` | HOOKS | モデル処理に適用可能な、作成されたLoRAフック | \ No newline at end of file diff --git a/ja/built-in-nodes/CreateHookModelAsLora.mdx b/ja/built-in-nodes/CreateHookModelAsLora.mdx new file mode 100644 index 000000000..59777ce14 --- /dev/null +++ b/ja/built-in-nodes/CreateHookModelAsLora.mdx @@ -0,0 +1,36 @@ +--- +title: "CreateHookModelAsLora - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CreateHookModelAsLora ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CreateHookModelAsLora" +icon: "circle" +mode: wide +translationSourceHash: 26fa986b +translationFrom: built-in-nodes/CreateHookModelAsLora.mdx, zh-CN/built-in-nodes/CreateHookModelAsLora.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CreateHookModelAsLora/en.md) + +このノードは、チェックポイントの重みを読み込み、モデルおよび CLIP コンポーネントに強度調整を適用することで、LoRA(Low-Rank Adaptation:低ランク適応)としてのフックモデルを作成します。これにより、既存のモデルに対してフックベースのアプローチで LoRA 風の変更を適用し、モデルを永続的に変更することなく微調整や適応が可能になります。また、このノードは既存のフックと組み合わせることができ、効率向上のため読み込まれた重みをキャッシュします。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `ckpt_name` | COMBO | はい | 複数の選択肢あり | 重みを読み込むチェックポイントファイル(利用可能なチェックポイントから選択) | +| `strength_model` | FLOAT | はい | -20.0 ~ 20.0 | モデルの重みに適用される強度乗数(デフォルト:1.0) | +| `strength_clip` | FLOAT | はい | -20.0 ~ 20.0 | CLIP の重みに適用される強度乗数(デフォルト:1.0) | +| `prev_hooks` | HOOKS | いいえ | - | 新しく作成された LoRA フックと組み合わせるための、オプションの既存フック | + +**パラメーター制約:** + +- `ckpt_name` パラメーターは、利用可能なチェックポイントフォルダーからチェックポイントを読み込みます +- 両方の強度パラメーターは、-20.0 ~ 20.0 の範囲の値を受け付け、ステップ幅は 0.01 です +- `prev_hooks` が指定されない場合、ノードは新しいフックグループを作成します +- 同じチェックポイントを複数回読み込むのを避けるため、ノードは読み込まれた重みをキャッシュします + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `HOOKS` | HOOKS | 作成された LoRA フック(`prev_hooks` が指定されている場合は、それらと統合されたもの) | \ No newline at end of file diff --git a/ja/built-in-nodes/CreateHookModelAsLoraModelOnly.mdx b/ja/built-in-nodes/CreateHookModelAsLoraModelOnly.mdx new file mode 100644 index 000000000..4b1564364 --- /dev/null +++ b/ja/built-in-nodes/CreateHookModelAsLoraModelOnly.mdx @@ -0,0 +1,28 @@ +--- +title: "CreateHookModelAsLoraModelOnly - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CreateHookModelAsLoraModelOnly ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CreateHookModelAsLoraModelOnly" +icon: "circle" +mode: wide +translationSourceHash: fd698ce5 +translationFrom: built-in-nodes/CreateHookModelAsLoraModelOnly.mdx, zh-CN/built-in-nodes/CreateHookModelAsLoraModelOnly.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CreateHookModelAsLoraModelOnly/en.md) + +このノードは、LoRA(Low-Rank Adaptation:低ランク適応)モデルを適用して、ニューラルネットワークの「モデル」コンポーネントのみを変更するフックを作成します。チェックポイントファイルを読み込み、指定した強度でモデルに適用しますが、CLIP コンポーネントは変更しません。これは実験的なノードであり、基本クラス `CreateHookModelAsLora` の機能を拡張したものです。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `ckpt_name` | STRING | はい | 複数の選択肢から選択可能 | LoRA モデルとして読み込むチェックポイントファイル。利用可能なオプションは、`checkpoints` フォルダー内の内容に依存します。 | +| `strength_model` | FLOAT | はい | -20.0 ~ 20.0 | モデルコンポーネントに LoRA を適用する際の強度倍率(デフォルト:1.0) | +| `prev_hooks` | HOOKS | いいえ | - | このフックと連鎖させるための、任意の先行フック | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `hooks` | HOOKS | LoRA モデルによる変更を含む、作成されたフックグループ | \ No newline at end of file diff --git a/ja/built-in-nodes/CreateList.mdx b/ja/built-in-nodes/CreateList.mdx new file mode 100644 index 000000000..b72db6c2c --- /dev/null +++ b/ja/built-in-nodes/CreateList.mdx @@ -0,0 +1,26 @@ +--- +title: "CreateList - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CreateList ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CreateList" +icon: "circle" +mode: wide +translationSourceHash: 201a612c +translationFrom: built-in-nodes/CreateList.mdx, zh-CN/built-in-nodes/CreateList.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CreateList/en.md) + +Create List ノードは、複数の入力を単一の順序付きリストに結合します。このノードは、任意の数の同一データ型の入力を受け取り、それらを接続された順序で連結します。このノードは、画像やテキストなどのバッチ形式のデータをワークフロー内で他のノードが処理できるよう準備する際に有効です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `input_*` | 不明(可変) | はい | 任意 | 可変数の入力スロットです。プラス(+)アイコンをクリックすることで、さらに多くの入力を追加できます。すべての入力は同一のデータ型である必要があります(例:すべて IMAGE またはすべて STRING)。 | + +**注意:** アイテムを接続すると、ノードが自動的に新しい入力スロットを作成します。ノードが正しく機能するためには、接続済みのすべての入力が同一のデータ型である必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `list` | 不明(可変) | 接続された入力から得られたすべての項目を含む単一のリストです。項目は提供された順序で連結されます。出力のデータ型は入力のデータ型と一致します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/CreateVideo.mdx b/ja/built-in-nodes/CreateVideo.mdx new file mode 100644 index 000000000..0f044c2dc --- /dev/null +++ b/ja/built-in-nodes/CreateVideo.mdx @@ -0,0 +1,26 @@ +--- +title: "CreateVideo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CreateVideo ノードに関する完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "CreateVideo" +icon: "circle" +mode: wide +translationSourceHash: c35c37bc +translationFrom: built-in-nodes/CreateVideo.mdx, zh-CN/built-in-nodes/CreateVideo.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CreateVideo/en.md) + +Create Video ノードは、一連の画像から動画ファイルを生成します。フレームレート(1 秒あたりのフレーム数)を指定することで再生速度を設定でき、オプションで動画に音声を追加することもできます。このノードは、入力された画像を指定されたフレームレートで動画形式に統合し、再生可能な動画ファイルを出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `images` | IMAGE | はい | - | 動画生成に使用する画像群です。 | +| `fps` | FLOAT | はい | 1.0 – 120.0 | 動画の再生速度を指定するフレームレート(デフォルト値:30.0)。 | +| `audio` | AUDIO | いいえ | - | 動画に追加する音声です。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 入力画像と(オプションで)音声を含む、生成された動画ファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/CropMask.mdx b/ja/built-in-nodes/CropMask.mdx new file mode 100644 index 000000000..c55698820 --- /dev/null +++ b/ja/built-in-nodes/CropMask.mdx @@ -0,0 +1,26 @@ +--- +title: "CropMask - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における CropMask ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CropMask" +icon: "circle" +mode: wide +translationSourceHash: ed2c0891 +translationFrom: built-in-nodes/CropMask.mdx, zh-CN/built-in-nodes/CropMask.mdx +--- +CropMask ノードは、指定されたマスクから特定の領域を切り取る(クロップする)ことを目的として設計されています。ユーザーは座標と寸法を指定することで関心領域(ROI)を定義し、マスクの一部を効果的に抽出して、その後の処理や解析に利用できます。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `mask` | MASK | マスク入力は、切り取られる対象となるマスク画像を表します。指定された座標および寸法に基づいて抽出領域を定義するために不可欠です。 | +| `x` | INT | x 座標は、水平方向(X軸)上の切り取り開始位置を指定します。 | +| `y` | INT | y 座標は、垂直方向(Y軸)上の切り取り開始位置を指定します。 | +| `width` | INT | 幅(width)は、開始位置から水平方向に延びる切り取り領域のサイズを定義します。 | +| `height` | INT | 高さ(height)は、開始位置から垂直方向に延びる切り取り領域のサイズを指定します。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `mask` | MASK | 出力は切り取られたマスクであり、指定された座標および寸法によって定義された元のマスクの一部です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/CustomCombo.mdx b/ja/built-in-nodes/CustomCombo.mdx new file mode 100644 index 000000000..6f894f330 --- /dev/null +++ b/ja/built-in-nodes/CustomCombo.mdx @@ -0,0 +1,28 @@ +--- +title: "CustomCombo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の CustomCombo ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "CustomCombo" +icon: "circle" +mode: wide +translationSourceHash: d3a27cc4 +translationFrom: built-in-nodes/CustomCombo.mdx, zh-CN/built-in-nodes/CustomCombo.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/CustomCombo/en.md) + +Custom Combo ノードを使用すると、独自のテキスト選択肢リストを含むカスタムドロップダウンメニューを作成できます。これはフロントエンドに重点を置いたノードであり、ワークフロー内での互換性を確保するためにバックエンド側での表現も提供します。ドロップダウンからオプションを選択すると、そのテキストが文字列として出力されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `choice` | COMBO | はい | ユーザー定義 | カスタムドロップダウンメニューから選択されたテキストオプション。利用可能なオプションのリストは、ユーザーがノードのフロントエンドインターフェースで定義します。 | + +**注:** このノードの入力検証は意図的に無効化されています。これにより、ユーザーはフロントエンドで任意のカスタムテキストオプションを定義でき、バックエンド側で選択内容が事前に定義されたリストに含まれているかをチェックする必要がなくなります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | STRING | カスタムコンボボックスから選択されたオプションのテキスト文字列です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/DCTestNode.mdx b/ja/built-in-nodes/DCTestNode.mdx new file mode 100644 index 000000000..f8b719ab6 --- /dev/null +++ b/ja/built-in-nodes/DCTestNode.mdx @@ -0,0 +1,38 @@ +--- +title: "DCTestNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の DCTestNode ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "DCTestNode" +icon: "circle" +mode: wide +translationSourceHash: 10f956a9 +translationFrom: built-in-nodes/DCTestNode.mdx, zh-CN/built-in-nodes/DCTestNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/DCTestNode/en.md) + +DCTestNode は、ユーザーが動的コンボボックスから選択した内容に応じて異なる種類のデータを返すロジックノードです。このノードは条件付きルーターとして機能し、選択されたオプションによってどの入力フィールドが有効になるか、およびノードが出力する値の型が決定されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `combo` | COMBO | はい | `"option1"`
`"option2"`
`"option3"`
`"option4"` | 主要な選択項目であり、どの入力フィールドが有効になるか、およびノードが出力する内容を決定します。 | +| `string` | STRING | いいえ | - | テキスト入力フィールドです。`combo` が `"option1"` に設定されている場合にのみ有効となり、必須となります。 | +| `integer` | INT | いいえ | - | 整数入力フィールドです。`combo` が `"option2"` に設定されている場合にのみ有効となり、必須となります。 | +| `image` | IMAGE | いいえ | - | 画像入力フィールドです。`combo` が `"option3"` に設定されている場合にのみ有効となり、必須となります。 | +| `subcombo` | COMBO | いいえ | `"opt1"`
`"opt2"` | `combo` が `"option4"` に設定された場合に表示される二次的な選択項目です。これにより、どのネストされた入力フィールドが有効になるかが決定されます。 | +| `float_x` | FLOAT | いいえ | - | 小数点を含む数値入力フィールドです。`combo` が `"option4"` かつ `subcombo` が `"opt1"` に設定されている場合にのみ有効となり、必須となります。 | +| `float_y` | FLOAT | いいえ | - | 小数点を含む数値入力フィールドです。`combo` が `"option4"` かつ `subcombo` が `"opt1"` に設定されている場合にのみ有効となり、必須となります。 | +| `mask1` | MASK | いいえ | - | マスク入力フィールドです。`combo` が `"option4"` かつ `subcombo` が `"opt2"` に設定されている場合にのみ有効になります。任意(オプション)です。 | + +**パラメーター制約:** + +* `combo` パラメーターは、他のすべての入力フィールドの可視性および必須性を制御します。選択された `combo` オプションに関連付けられた入力フィールドのみが表示され、必須となります(`mask1` を除く。これは任意です)。 +* `combo` が `"option4"` に設定された場合、`subcombo` パラメーターが必須となり、第二段階のネストされた入力(`float_x`/`float_y` または `mask1`)を制御します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | ANYTYPE | 出力内容は選択された `combo` オプションに依存します。STRING(`"option1"`)、INT(`"option2"`)、IMAGE(`"option3"`)、または `subcombo` 辞書の文字列表現(`"option4"`)のいずれかになります。 | \ No newline at end of file diff --git a/ja/built-in-nodes/DeprecatedCheckpointLoader.mdx b/ja/built-in-nodes/DeprecatedCheckpointLoader.mdx new file mode 100644 index 000000000..1c2afef5b --- /dev/null +++ b/ja/built-in-nodes/DeprecatedCheckpointLoader.mdx @@ -0,0 +1,25 @@ +--- +title: "DeprecatedCheckpointLoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における DeprecatedCheckpointLoader ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "DeprecatedCheckpointLoader" +icon: "circle" +mode: wide +translationSourceHash: fc61ecb9 +translationFrom: built-in-nodes/DeprecatedCheckpointLoader.mdx, zh-CN/built-in-nodes/DeprecatedCheckpointLoader.mdx +--- +CheckpointLoader ノードは、モデルのチェックポイントおよびその設定ファイルを読み込むための高度な読み込み操作を目的として設計されています。これにより、生成モデルの初期化および実行に必要なモデル構成要素(指定されたディレクトリから取得される設定およびチェックポイントを含む)を容易に取得できます。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|----------------|----------------|------| +| `config_name` | COMBO[STRING] | 使用する設定ファイルの名前を指定します。これはモデルのパラメーターおよび設定を決定するために不可欠であり、モデルの動作およびパフォーマンスに影響を与えます。 | +| `ckpt_name` | COMBO[STRING] | 読み込むチェックポイントファイルの名前を示します。これは初期化されるモデルの状態に直接影響し、その初期重みおよびバイアスに影響を与えます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `model` | MODEL | チェックポイントから読み込まれた主モデルを表し、その後の処理または推論にすぐに使用可能です。 | +| `clip` | CLIP | 利用可能かつ要求されている場合、チェックポイントから読み込まれた CLIP モデルコンポーネントを提供します。 | +| `vae` | VAE | 利用可能かつ要求されている場合、チェックポイントから読み込まれた VAE モデルコンポーネントを提供します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/DeprecatedDiffusersLoader.mdx b/ja/built-in-nodes/DeprecatedDiffusersLoader.mdx new file mode 100644 index 000000000..121346858 --- /dev/null +++ b/ja/built-in-nodes/DeprecatedDiffusersLoader.mdx @@ -0,0 +1,24 @@ +--- +title: "DeprecatedDiffusersLoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における DeprecatedDiffusersLoader ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "DeprecatedDiffusersLoader" +icon: "circle" +mode: wide +translationSourceHash: fc8f70c0 +translationFrom: built-in-nodes/DeprecatedDiffusersLoader.mdx, zh-CN/built-in-nodes/DeprecatedDiffusersLoader.mdx +--- +DiffusersLoader ノードは、diffusers ライブラリからモデルを読み込むことを目的としており、指定されたモデルパスに基づいて UNet、CLIP、および VAE モデルの読み込みを特に処理します。これにより、これらのモデルを ComfyUI フレームワークに統合することが可能となり、テキストから画像を生成する機能や画像編集などの高度な機能を実現できます。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|----------------|-----------------|----------------------------------------------------------------------| +| `model_path` | COMBO[STRING] | 読み込むモデルのパスを指定します。このパスは極めて重要であり、後続の処理でどのモデルが使用されるかを決定し、ノードの出力および機能に影響を与えます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------------------------------------------------------------------------------------------| +| `model` | MODEL | 読み込まれた UNet モデルで、出力タプルの一部です。このモデルは、ComfyUI フレームワーク内での画像合成および画像操作タスクに不可欠です。 | +| `clip` | CLIP | 読み込まれた CLIP モデルで、要求された場合にのみ出力タプルに含まれます。このモデルにより、高度なテキスト・画像理解および操作機能が実現されます。 | +| `vae` | VAE | 読み込まれた VAE モデルで、要求された場合にのみ出力タプルに含まれます。このモデルは、潜在空間(latent space)の操作および画像生成を伴うタスクにおいて極めて重要です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/DiffControlNetLoader.mdx b/ja/built-in-nodes/DiffControlNetLoader.mdx new file mode 100644 index 000000000..8bcfdbffa --- /dev/null +++ b/ja/built-in-nodes/DiffControlNetLoader.mdx @@ -0,0 +1,27 @@ +--- +title: "DiffControlNetLoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における DiffControlNetLoader ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "DiffControlNetLoader" +icon: "circle" +mode: wide +translationSourceHash: d525b16e +translationFrom: built-in-nodes/DiffControlNetLoader.mdx, zh-CN/built-in-nodes/DiffControlNetLoader.mdx +translationMismatches: + - "description" +--- +このノードは、`ComfyUI/models/controlnet` フォルダー内にあるモデルを検出し、さらに `extra_model_paths.yaml` ファイルで設定された追加パス上のモデルも読み込みます。場合によっては、対応するフォルダー内のモデルファイルを読み込むために、**ComfyUI インターフェースを更新する**必要があります。 + +DiffControlNetLoader ノードは、差分制御ネットワーク(Differential Control Network)を読み込むことを目的として設計されています。これは、制御ネットワーク仕様に基づいて他のモデルの動作を変更できる専用モデルです。本ノードにより、差分制御ネットワークを適用することでモデルの動作を動的に調整でき、カスタマイズされたモデル出力の生成を容易にします。 + +## 入力 + +| フィールド | Comfy データ型 | 説明 | +|------------------------|--------------------|----------------------------------------------------------------------------------------------| +| `model` | `MODEL` | 差分制御ネットワークを適用するベースモデルです。これにより、モデルの動作をカスタマイズできます。 | +| `control_net_name` | `COMBO[STRING]` | ベースモデルに適用してその動作を変更する、特定の差分制御ネットワークを識別します。 | + +## 出力 + +| フィールド | Comfy データ型 | 説明 | +|--------------------|------------------|----------------------------------------------------------------------------------------| +| `control_net` | `CONTROL_NET` | 読み込まれた差分制御ネットワークで、ベースモデルに適用して動作を変更する準備が整っています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/DifferentialDiffusion.mdx b/ja/built-in-nodes/DifferentialDiffusion.mdx new file mode 100644 index 000000000..14da4c3d0 --- /dev/null +++ b/ja/built-in-nodes/DifferentialDiffusion.mdx @@ -0,0 +1,25 @@ +--- +title: "DifferentialDiffusion - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における DifferentialDiffusion ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "DifferentialDiffusion" +icon: "circle" +mode: wide +translationSourceHash: 47bd40e9 +translationFrom: built-in-nodes/DifferentialDiffusion.mdx, zh-CN/built-in-nodes/DifferentialDiffusion.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や、改善に関するご提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/DifferentialDiffusion/en.md) + +Differential Diffusion ノードは、タイムステップのしきい値に基づくバイナリマスクを適用することで、デノイズ処理を変更します。このノードは、元のデノイズマスクとしきい値に基づくバイナリマスクとの間でブレンドされるマスクを作成し、拡散プロセスの強度を制御可能な形で調整できるようにします。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | 変更対象の拡散モデル | +| `strength` | FLOAT | いいえ | 0.0 – 1.0 | 元のデノイズマスクとバイナリしきい値マスクとの間のブレンド強度を制御します(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 更新されたデノイズマスク関数を備えた、変更済みの拡散モデル | \ No newline at end of file diff --git a/ja/built-in-nodes/DiffusersLoader.mdx b/ja/built-in-nodes/DiffusersLoader.mdx new file mode 100644 index 000000000..ba2e2cbbf --- /dev/null +++ b/ja/built-in-nodes/DiffusersLoader.mdx @@ -0,0 +1,28 @@ +--- +title: "DiffusersLoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の DiffusersLoader ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "DiffusersLoader" +icon: "circle" +mode: wide +translationSourceHash: 53a1c9c6 +translationFrom: built-in-nodes/DiffusersLoader.mdx, zh-CN/built-in-nodes/DiffusersLoader.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/DiffusersLoader/en.md) + +DiffusersLoader ノードは、diffusers 形式の事前学習済みモデルを読み込みます。このノードは、`model_index.json` ファイルを含む有効な diffusers モデルディレクトリを検索し、パイプライン内で使用するために MODEL、CLIP、VAE の各コンポーネントとして読み込みます。本ノードは「非推奨のローダー」カテゴリに属しており、Hugging Face の diffusers モデルとの互換性を提供します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model_path` | STRING | はい | 複数の選択肢が利用可能
(diffusers フォルダーから自動的に取得) | 読み込む diffusers モデルディレクトリへのパス。ノードは、設定された diffusers フォルダー内にある有効な diffusers モデルを自動的にスキャンし、利用可能なオプションを一覧表示します。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `MODEL` | MODEL | diffusers 形式から読み込まれたモデルコンポーネント | +| `CLIP` | CLIP | diffusers 形式から読み込まれた CLIP モデルコンポーネント | +| `VAE` | VAE | diffusers 形式から読み込まれた VAE(変分自己符号化器)コンポーネント | \ No newline at end of file diff --git a/ja/built-in-nodes/DisableNoise.mdx b/ja/built-in-nodes/DisableNoise.mdx new file mode 100644 index 000000000..ee6508de7 --- /dev/null +++ b/ja/built-in-nodes/DisableNoise.mdx @@ -0,0 +1,24 @@ +--- +title: "DisableNoise - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における DisableNoise ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "DisableNoise" +icon: "circle" +mode: wide +translationSourceHash: 012e802b +translationFrom: built-in-nodes/DisableNoise.mdx, zh-CN/built-in-nodes/DisableNoise.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/DisableNoise/en.md) + +DisableNoise ノードは、サンプリング処理におけるノイズ生成を無効化するために使用できる空のノイズ設定を提供します。このノードは、ノイズデータを一切含まない特殊なノイズオブジェクトを返すため、他のノードがこの出力に接続された際に、ノイズ関連の処理をスキップすることができます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| *入力パラメーターなし* | - | - | - | このノードには入力パラメーターが不要です。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `NOISE` | NOISE | サンプリング処理においてノイズ生成を無効化するために使用可能な、空のノイズ設定を返します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/DualCFGGuider.mdx b/ja/built-in-nodes/DualCFGGuider.mdx new file mode 100644 index 000000000..fd35bb3dd --- /dev/null +++ b/ja/built-in-nodes/DualCFGGuider.mdx @@ -0,0 +1,32 @@ +--- +title: "DualCFGGuider - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の DualCFGGuider ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "DualCFGGuider" +icon: "circle" +mode: wide +translationSourceHash: 524e9894 +translationFrom: built-in-nodes/DualCFGGuider.mdx, zh-CN/built-in-nodes/DualCFGGuider.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/DualCFGGuider/en.md) + +DualCFGGuider ノードは、二重分類器フリー・ガイダンス(Dual Classifier-Free Guidance)によるサンプリング向けのガイダンスシステムを作成します。このノードでは、2つの正の条件付け入力と1つの負の条件付け入力を組み合わせ、それぞれの条件付けペアに対して異なるガイダンススケールを適用することで、各プロンプトが生成結果に与える影響を制御します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | ガイダンスに使用するモデル | +| `cond1` | CONDITIONING | はい | - | 最初の正の条件付け入力 | +| `cond2` | CONDITIONING | はい | - | 2番目の正の条件付け入力 | +| `negative` | CONDITIONING | はい | - | 負の条件付け入力 | +| `cfg_conds` | FLOAT | はい | 0.0 - 100.0 | 最初の正の条件付けに対するガイダンススケール(デフォルト:8.0) | +| `cfg_cond2_negative` | FLOAT | はい | 0.0 - 100.0 | 2番目の正の条件付けおよび負の条件付けに対するガイダンススケール(デフォルト:8.0) | +| `style` | COMBO | はい | "regular"
"nested" | 適用するガイダンススタイル(デフォルト:"regular") | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `GUIDER` | GUIDER | サンプリングで使用可能な、設定済みのガイダンスシステム | \ No newline at end of file diff --git a/ja/built-in-nodes/DualCLIPLoader.mdx b/ja/built-in-nodes/DualCLIPLoader.mdx new file mode 100644 index 000000000..c2b1cfa90 --- /dev/null +++ b/ja/built-in-nodes/DualCLIPLoader.mdx @@ -0,0 +1,28 @@ +--- +title: "DualCLIPLoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における DualCLIPLoader ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "DualCLIPLoader" +icon: "circle" +mode: wide +translationSourceHash: f6cd70ab +translationFrom: built-in-nodes/DualCLIPLoader.mdx, zh-CN/built-in-nodes/DualCLIPLoader.mdx +--- +DualCLIPLoader ノードは、2つの CLIP モデルを同時に読み込むことを目的として設計されており、これらのモデルから抽出された特徴量の統合または比較を必要とする処理を容易にします。 + +このノードは、`ComfyUI/models/text_encoders` フォルダー内に配置されたモデルを自動的に検出します。 + +## 入力 + +| パラメーター | Comfy データ型 | 説明 | +| ------------ | ----------------- | -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | +| `clip_name1` | COMBO[STRING] | 読み込む最初の CLIP モデルの名称を指定します。このパラメーターは、あらかじめ定義された利用可能な CLIP モデル一覧から正しいモデルを識別・取得するために不可欠です。 | +| `clip_name2` | COMBO[STRING] | 読み込む2番目の CLIP モデルの名称を指定します。このパラメーターにより、最初のモデルと並行して比較分析や統合分析を行うための、別の独立した CLIP モデルを読み込むことが可能になります。 | +| `type` | `option` | 「sdxl」、「sd3」、「flux」のいずれかを選択し、対応するモデル仕様に合わせて動作を調整します。 | + +* 読み込み順序は出力結果に影響しません。 + +## 出力 + +| パラメーター | データ型 | 説明 | +| ---------- | -------- | -------------------------------------------------------------------------------------------------- | +| `clip` | CLIP | 出力は、指定された2つの CLIP モデルの特徴量または機能を統合した複合 CLIP モデルとなります。 | \ No newline at end of file diff --git a/ja/built-in-nodes/EasyCache.mdx b/ja/built-in-nodes/EasyCache.mdx new file mode 100644 index 000000000..cdfe27055 --- /dev/null +++ b/ja/built-in-nodes/EasyCache.mdx @@ -0,0 +1,30 @@ +--- +title: "EasyCache - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の EasyCache ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "EasyCache" +icon: "circle" +mode: wide +translationSourceHash: 160c3b9f +translationFrom: built-in-nodes/EasyCache.mdx, zh-CN/built-in-nodes/EasyCache.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/EasyCache/en.md) + +EasyCache ノードは、サンプリング処理中に以前に計算済みのステップを再利用することでパフォーマンスを向上させるための、モデル向けネイティブキャッシュシステムを実装します。このノードにより、モデルに EasyCache 機能を追加でき、サンプリングのタイムラインにおいてキャッシュの使用を開始・終了するタイミングを設定可能なしきい値を構成できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | EasyCache を追加する対象のモデルです。 | +| `reuse_threshold` | FLOAT | いいえ | 0.0 - 3.0 | キャッシュ済みステップを再利用する際のしきい値(デフォルト: 0.2)。 | +| `start_percent` | FLOAT | いいえ | 0.0 - 1.0 | EasyCache の使用を開始する相対的なサンプリングステップ(デフォルト: 0.15)。 | +| `end_percent` | FLOAT | いいえ | 0.0 - 1.0 | EasyCache の使用を終了する相対的なサンプリングステップ(デフォルト: 0.95)。 | +| `verbose` | BOOLEAN | いいえ | - | 詳細なログ情報を出力するかどうか(デフォルト: False)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | EasyCache 機能が追加されたモデルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ElevenLabsAudioIsolation.mdx b/ja/built-in-nodes/ElevenLabsAudioIsolation.mdx new file mode 100644 index 000000000..a5c3cb877 --- /dev/null +++ b/ja/built-in-nodes/ElevenLabsAudioIsolation.mdx @@ -0,0 +1,24 @@ +--- +title: "ElevenLabsAudioIsolation - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ElevenLabsAudioIsolation ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ElevenLabsAudioIsolation" +icon: "circle" +mode: wide +translationSourceHash: 2dafeb1a +translationFrom: built-in-nodes/ElevenLabsAudioIsolation.mdx, zh-CN/built-in-nodes/ElevenLabsAudioIsolation.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ElevenLabsAudioIsolation/en.md) + +ElevenLabs 音声分離(Voice Isolation)ノードは、音声ファイルから背景雑音を除去し、ボーカルや話し声を分離します。このノードは音声を ElevenLabs API に送信して処理を行い、ノイズが除去された音声を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `audio` | AUDIO | はい | | 背景雑音除去処理を行う対象の音声データ。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `audio` | AUDIO | 背景雑音が除去された処理済み音声。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ElevenLabsInstantVoiceClone.mdx b/ja/built-in-nodes/ElevenLabsInstantVoiceClone.mdx new file mode 100644 index 000000000..802798120 --- /dev/null +++ b/ja/built-in-nodes/ElevenLabsInstantVoiceClone.mdx @@ -0,0 +1,29 @@ +--- +title: "ElevenLabsInstantVoiceClone - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ElevenLabsInstantVoiceClone ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ElevenLabsInstantVoiceClone" +icon: "circle" +mode: wide +translationSourceHash: 4778e1f6 +translationFrom: built-in-nodes/ElevenLabsInstantVoiceClone.mdx, zh-CN/built-in-nodes/ElevenLabsInstantVoiceClone.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ElevenLabsInstantVoiceClone/en.md) + +ElevenLabs Instant Voice Clone ノードは、1~8件の人物の音声録音を分析することで、新しい独自の音声モデルを作成します。このノードはこれらの音声サンプルを ElevenLabs API に送信し、API が処理してテキスト読み上げ(TTS)合成に利用可能な音声クローンを生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `audio_*` | AUDIO | はい | 1~8ファイル | 音声クローン用の音声録音。1~8個の音声ファイルを必ず指定してください。 | +| `remove_background_noise` | BOOLEAN | いいえ | True / False | 音声分離技術を用いて音声サンプルから背景雑音を除去します。(デフォルト:False) | + +**注意:** 少なくとも1つの音声ファイルを指定する必要があります。最大で8つまで指定可能です。ノードは、追加した音声ファイルの数に応じて自動的に入力スロットを作成します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `voice` | ELEVENLABS_VOICE | 新しく作成されたクローン音声モデルの固有識別子です。この出力は、他の ElevenLabs のテキスト読み上げ(TTS)ノードに接続できます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ElevenLabsSpeechToSpeech.mdx b/ja/built-in-nodes/ElevenLabsSpeechToSpeech.mdx new file mode 100644 index 000000000..f1260713f --- /dev/null +++ b/ja/built-in-nodes/ElevenLabsSpeechToSpeech.mdx @@ -0,0 +1,32 @@ +--- +title: "ElevenLabsSpeechToSpeech - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ElevenLabsSpeechToSpeech ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ElevenLabsSpeechToSpeech" +icon: "circle" +mode: wide +translationSourceHash: 2e95d0df +translationFrom: built-in-nodes/ElevenLabsSpeechToSpeech.mdx, zh-CN/built-in-nodes/ElevenLabsSpeechToSpeech.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ElevenLabsSpeechToSpeech/en.md) + +ElevenLabs の音声変換(Speech-to-Speech)ノードは、入力音声ファイルをある声から別の声へと変換します。このノードでは ElevenLabs API を利用し、音声の元の内容および感情的なトーンを維持したまま変換を行います。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `voice` | CUSTOM | はい | - | 変換先の対象となる声です。Voice Selector や Instant Voice Clone から接続してください。 | +| `audio` | AUDIO | はい | - | 変換対象となる入力音声です。 | +| `stability` | FLOAT | いいえ | 0.0 – 1.0 | 声の安定性を制御します。値が小さいほど感情表現の幅が広がりますが、大きいほど一貫性のある(ただし単調になりがちな)音声が出力されます(デフォルト値:0.5)。 | +| `model` | DYNAMICCOMBO | いいえ | `eleven_multilingual_sts_v2`
`eleven_english_sts_v2` | 音声変換(Speech-to-Speech)に使用するモデルです。各オプションは、特定の音声設定(`similarity_boost`、`style`、`use_speaker_boost`、`speed`)を提供します。 | +| `output_format` | COMBO | いいえ | `"mp3_44100_192"`
`"opus_48000_192"` | 出力音声のフォーマット(デフォルト値:`"mp3_44100_192"`)。 | +| `seed` | INT | いいえ | 0 – 4294967295 | 再現性を確保するためのシード値(デフォルト値:0)。 | +| `remove_background_noise` | BOOLEAN | いいえ | - | 音声分離技術を用いて入力音声から背景雑音を除去します(デフォルト値:False)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `audio` | AUDIO | 指定された出力フォーマットで変換された音声ファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ElevenLabsSpeechToText.mdx b/ja/built-in-nodes/ElevenLabsSpeechToText.mdx new file mode 100644 index 000000000..cd999ee54 --- /dev/null +++ b/ja/built-in-nodes/ElevenLabsSpeechToText.mdx @@ -0,0 +1,39 @@ +--- +title: "ElevenLabsSpeechToText - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ElevenLabsSpeechToText ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ElevenLabsSpeechToText" +icon: "circle" +mode: wide +translationSourceHash: a56242b0 +translationFrom: built-in-nodes/ElevenLabsSpeechToText.mdx, zh-CN/built-in-nodes/ElevenLabsSpeechToText.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ElevenLabsSpeechToText/en.md) + +ElevenLabs の音声からテキストへの変換(Speech-to-Text)ノードは、音声ファイルをテキストに書き起こします。このノードでは ElevenLabs の API を使用して、話された言葉を文字による書き起こし(トランスクリプト)に変換します。自動言語検出、複数の話者識別、音楽や笑い声などの非音声イベントのタグ付けといった機能をサポートしています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `audio` | AUDIO | はい | - | 書き起こす対象の音声データ。 | +| `model` | COMBO | はい | `"scribe_v2"` | 書き起こしに使用するモデル。このモデルを選択すると、追加のパラメーターが表示されます。 | +| `tag_audio_events` | BOOLEAN | いいえ | - | 書き起こしテキスト内に(笑い声)、(音楽)などの音声イベントを注釈として付与します。このパラメーターは `"scribe_v2"` モデルを選択した場合に表示されます。(デフォルト:False) | +| `diarize` | BOOLEAN | いいえ | - | どの話者が話しているかを注釈として付与します。このパラメーターは `"scribe_v2"` モデルを選択した場合に表示されます。(デフォルト:False) | +| `diarization_threshold` | FLOAT | いいえ | 0.1 ~ 0.4 | 話者分離の感度。値が小さいほど話者切り替えに対して敏感になります。このパラメーターは `"scribe_v2"` モデルを選択し、かつ `diarize` が有効化されている場合に表示されます。(デフォルト:0.22) | +| `temperature` | FLOAT | いいえ | 0.0 ~ 2.0 | 出力のランダム性を制御するパラメーター。0.0 はモデルのデフォルト値を使用します。値が大きいほどランダム性が高まります。このパラメーターは `"scribe_v2"` モデルを選択した場合に表示されます。(デフォルト:0.0) | +| `timestamps_granularity` | COMBO | いいえ | `"word"`
`"character"`
`"none"` | 書き起こしテキスト内の単語のタイムスタンプ精度。このパラメーターは `"scribe_v2"` モデルを選択した場合に表示されます。(デフォルト:"word") | +| `language_code` | STRING | いいえ | - | ISO-639-1 または ISO-639-3 の言語コード(例:'en'、'es'、'fra')。空欄のままにすると自動検出が行われます。(デフォルト:"") | +| `num_speakers` | INT | いいえ | 0 ~ 32 | 予測する最大話者数。0 を指定すると自動検出が行われます。(デフォルト:0) | +| `seed` | INT | いいえ | 0 ~ 2147483647 | 再現性を確保するためのシード値(決定論的結果は保証されません)。(デフォルト:1) | + +**注意:** `diarize` オプションが有効な場合、`num_speakers` パラメーターは 0 より大きい値に設定できません。`diarize` を無効にするか、`num_speakers` を 0 に設定してください。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `text` | STRING | 音声から書き起こされたテキスト。 | +| `language_code` | STRING | 音声から検出された言語コード。 | +| `words_json` | STRING | 単語レベルの詳細情報を含む JSON 形式の文字列。有効化されている場合、タイムスタンプおよび話者ラベルも含まれます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ElevenLabsTextToDialogue.mdx b/ja/built-in-nodes/ElevenLabsTextToDialogue.mdx new file mode 100644 index 000000000..165175e3e --- /dev/null +++ b/ja/built-in-nodes/ElevenLabsTextToDialogue.mdx @@ -0,0 +1,34 @@ +--- +title: "ElevenLabsTextToDialogue - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ElevenLabsTextToDialogue ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ElevenLabsTextToDialogue" +icon: "circle" +mode: wide +translationSourceHash: 74e699bf +translationFrom: built-in-nodes/ElevenLabsTextToDialogue.mdx, zh-CN/built-in-nodes/ElevenLabsTextToDialogue.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください![GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ElevenLabsTextToDialogue/en.md) + +ElevenLabs「テキストから対話」ノードは、テキストから複数の話者による音声対話を生成します。各参加者に対して異なるテキスト行と固有の音声(ボイス)を指定することで、対話を作成できます。このノードは対話リクエストを ElevenLabs API に送信し、生成された音声を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `stability` | FLOAT | いいえ | 0.0 - 1.0 | 音声の安定性。値が小さいほど感情表現の幅が広がり、値が大きいほど発話が一貫性を持ちますが、単調になる可能性があります。(デフォルト:0.5) | +| `apply_text_normalization` | COMBO | いいえ | `"auto"`
`"on"`
`"off"` | テキスト正規化モード。「auto」ではシステムが自動的に判断、「on」では常に正規化を適用、「off」では正規化をスキップします。 | +| `model` | COMBO | いいえ | `"eleven_v3"` | 対話生成に使用するモデル。 | +| `inputs` | DYNAMICCOMBO | はい | `"1"`
`"2"`
`"3"`
`"4"`
`"5"`
`"6"`
`"7"`
`"8"`
`"9"`
`"10"` | 対話エントリーの数。数字を選択すると、その数だけテキストおよび音声の入力フィールドが生成されます。 | +| `language_code` | STRING | いいえ | - | ISO-639-1 または ISO-639-3 の言語コード(例:`'en'`、`'es'`、`'fra'`)。空欄の場合は自動検出されます。(デフォルト:空欄) | +| `seed` | INT | いいえ | 0 - 4294967295 | 再現性のためのシード値。(デフォルト:1) | +| `output_format` | COMBO | いいえ | `"mp3_44100_192"`
`"opus_48000_192"` | 音声出力フォーマット。 | + +**注意:** `inputs` パラメーターは動的です。数字(例:`"3"`)を選択すると、対応する `text` および `voice` 入力フィールドが3つ表示されます(例:`text1`、`voice1`、`text2`、`voice2`、`text3`、`voice3`)。各 `text` フィールドには、少なくとも1文字以上の入力が必要です。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `audio` | AUDIO | 選択した出力フォーマットで生成された、複数話者による対話音声。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ElevenLabsTextToSoundEffects.mdx b/ja/built-in-nodes/ElevenLabsTextToSoundEffects.mdx new file mode 100644 index 000000000..e4b143e91 --- /dev/null +++ b/ja/built-in-nodes/ElevenLabsTextToSoundEffects.mdx @@ -0,0 +1,32 @@ +--- +title: "ElevenLabsTextToSoundEffects - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ElevenLabsTextToSoundEffects ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ElevenLabsTextToSoundEffects" +icon: "circle" +mode: wide +translationSourceHash: 9eae33bd +translationFrom: built-in-nodes/ElevenLabsTextToSoundEffects.mdx, zh-CN/built-in-nodes/ElevenLabsTextToSoundEffects.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ElevenLabsTextToSoundEffects/en.md) + +ElevenLabs テキストから音効へ変換するノードは、テキストによる説明に基づいて音声の音効を生成します。このノードでは ElevenLabs API を利用し、入力したプロンプトに応じて音効を作成します。また、生成される音効の再生時間、ループ動作、およびテキストへの忠実度を制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `text` | STRING | はい | 該当なし | 生成する音効のテキストによる説明です。必須項目です。 | +| `model` | COMBO | はい | `"eleven_sfx_v2"` | 音効生成に使用するモデルです。このモデルを選択すると、追加のパラメーターが表示されます:`duration`(デフォルト値:5.0、範囲:0.5~30.0秒)、`loop`(デフォルト値:False)、および `prompt_influence`(デフォルト値:0.3、範囲:0.0~1.0)。 | +| `output_format` | COMBO | はい | `"mp3_44100_192"`
`"opus_48000_192"` | 音声出力フォーマットです。 | + +**パラメーターの詳細:** + +* **`model["duration"]`**: 生成される音効の再生時間(秒単位)です。デフォルト値は5.0で、最小値は0.5、最大値は30.0です。 +* **`model["loop"]`**: 有効にすると、スムーズにループ再生される音効が作成されます。デフォルト値はFalseです。 +* **`model["prompt_influence"]`**: 生成結果がテキストプロンプトにどれだけ忠実であるかを制御します。数値が高いほど、音効がテキストの内容により正確に従います。デフォルト値は0.3で、範囲は0.0~1.0です。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `audio` | AUDIO | 生成された音効の音声ファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ElevenLabsTextToSpeech.mdx b/ja/built-in-nodes/ElevenLabsTextToSpeech.mdx new file mode 100644 index 000000000..e292444be --- /dev/null +++ b/ja/built-in-nodes/ElevenLabsTextToSpeech.mdx @@ -0,0 +1,46 @@ +--- +title: "ElevenLabsTextToSpeech - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ElevenLabsTextToSpeech ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ElevenLabsTextToSpeech" +icon: "circle" +mode: wide +translationSourceHash: 1258ddf1 +translationFrom: built-in-nodes/ElevenLabsTextToSpeech.mdx, zh-CN/built-in-nodes/ElevenLabsTextToSpeech.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ElevenLabsTextToSpeech/en.md) + +ElevenLabs テキスト読み上げノードは、ElevenLabs API を使用して、テキストを音声オーディオに変換します。特定の音声を選択し、安定性、速度、スタイルなどのさまざまな音声特性を微調整することで、カスタマイズされた音声出力を生成できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `voice` | CUSTOM | はい | N/A | 音声合成に使用する音声。Voice Selector や Instant Voice Clone から接続します。 | +| `text` | STRING | はい | N/A | 音声に変換するテキスト。 | +| `stability` | FLOAT | いいえ | 0.0 – 1.0 | 音声の安定性。値が小さいほど感情表現の幅が広がり、大きいほど一貫性のある(ただし単調になりやすい)音声になります(デフォルト:0.5)。 | +| `apply_text_normalization` | COMBO | いいえ | `"auto"`
`"on"`
`"off"` | テキスト正規化モード。「auto」ではシステムが自動判断、「on」では常に正規化を適用、「off」では正規化をスキップします。 | +| `model` | DYNAMICCOMBO | いいえ | `"eleven_multilingual_v2"`
`"eleven_v3"` | テキスト読み上げに使用するモデル。モデルを選択すると、そのモデル固有のパラメーターが表示されます。 | +| `language_code` | STRING | いいえ | N/A | ISO-639-1 または ISO-639-3 の言語コード(例:`'en'`、`'es'`、`'fra'`)。空欄のままにすると自動検出されます(デフォルト:`""`)。 | +| `seed` | INT | いいえ | 0 – 2147483647 | 再現性のためのシード値(決定論的保証はされません)(デフォルト:1)。 | +| `output_format` | COMBO | いいえ | `"mp3_44100_192"`
`"opus_48000_192"` | 音声出力フォーマット。 | + +**モデル固有のパラメーター:** +`model` パラメーターを `"eleven_multilingual_v2"` に設定した場合、以下の追加パラメーターが利用可能になります: + +* `speed`: 話す速さ。1.0 が標準で、1.0 より小さいと遅くなり、大きいと速くなります(デフォルト:1.0、範囲:0.7 – 1.3)。 +* `similarity_boost`: 類似度強調。値が高いほど、元の音声に近い音声になります(デフォルト:0.75、範囲:0.0 – 1.0)。 +* `use_speaker_boost`: 元の話者の音声との類似度を高めます(デフォルト:False)。 +* `style`: スタイルの誇張度。値が高いほど表現が強調されますが、安定性が低下する可能性があります(デフォルト:0.0、範囲:0.0 – 0.2)。 + +`model` パラメーターを `"eleven_v3"` に設定した場合、以下の追加パラメーターが利用可能になります: + +* `speed`: 話す速さ。1.0 が標準で、1.0 より小さいと遅くなり、大きいと速くなります(デフォルト:1.0、範囲:0.7 – 1.3)。 +* `similarity_boost`: 類似度強調。値が高いほど、元の音声に近い音声になります(デフォルト:0.75、範囲:0.0 – 1.0)。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `audio` | AUDIO | テキスト読み上げ変換によって生成された音声データ。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ElevenLabsVoiceSelector.mdx b/ja/built-in-nodes/ElevenLabsVoiceSelector.mdx new file mode 100644 index 000000000..5a8446b8e --- /dev/null +++ b/ja/built-in-nodes/ElevenLabsVoiceSelector.mdx @@ -0,0 +1,24 @@ +--- +title: "ElevenLabsVoiceSelector - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ElevenLabsVoiceSelector ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ElevenLabsVoiceSelector" +icon: "circle" +mode: wide +translationSourceHash: 50ecab9d +translationFrom: built-in-nodes/ElevenLabsVoiceSelector.mdx, zh-CN/built-in-nodes/ElevenLabsVoiceSelector.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ElevenLabsVoiceSelector/en.md) + +ElevenLabs 语音選択ノード(ElevenLabs Voice Selector)を使用すると、事前に定義された ElevenLabs のテキスト・トゥ・スピーチ(音声合成)用ボイス一覧から特定のボイスを選択できます。このノードはボイス名を入力として受け取り、音声生成に必要な対応するボイス識別子(voice identifier)を出力します。これにより、他の ElevenLabs 音声関連ノードと互換性のあるボイスを選択するプロセスが簡略化されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `voice` | STRING | はい | `"Adam"`
`"Antoni"`
`"Arnold"`
`"Bella"`
`"Domi"`
`"Elli"`
`"Josh"`
`"Rachel"`
`"Sam"` | 事前に定義された ElevenLabs ボイスからボイスを選択します。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `voice` | STRING | 選択した ElevenLabs ボイスの固有識別子。テキスト・トゥ・スピーチ生成のために他のノードへ渡すことができます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/EmptyAceStep1.5LatentAudio.mdx b/ja/built-in-nodes/EmptyAceStep1.5LatentAudio.mdx new file mode 100644 index 000000000..a27e4bde7 --- /dev/null +++ b/ja/built-in-nodes/EmptyAceStep1.5LatentAudio.mdx @@ -0,0 +1,27 @@ +--- +title: "EmptyAceStep1.5LatentAudio - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における EmptyAceStep1.5LatentAudio ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "EmptyAceStep1.5LatentAudio" +icon: "circle" +mode: wide +translationSourceHash: 701ef0f6 +translationFrom: built-in-nodes/EmptyAceStep1.5LatentAudio.mdx, zh-CN/built-in-nodes/EmptyAceStep1.5LatentAudio.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/EmptyAceStep1.5LatentAudio/en.md) + +Empty Ace Step 1.5 Latent Audio ノードは、音声処理向けに設計された空の潜在テンソルを作成します。このノードは、指定された再生時間およびバッチサイズを持つ無音音声の潜在表現を生成し、ComfyUI 内の音声生成ワークフローの出発点として利用できます。ノードは入力された秒数と固定のサンプルレートに基づいて潜在長を計算します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `seconds` | FLOAT | いいえ | 1.0 - 1000.0 | 生成する音声の再生時間(単位:秒)。デフォルト値は 120.0 です。 | +| `batch_size` | INT | いいえ | 1 - 4096 | バッチ内の潜在画像の数。デフォルト値は 1 です。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `LATENT` | LATENT | 「audio」タイプ識別子を持つ、無音音声を表す空の潜在テンソルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/EmptyAceStepLatentAudio.mdx b/ja/built-in-nodes/EmptyAceStepLatentAudio.mdx new file mode 100644 index 000000000..2ee90177c --- /dev/null +++ b/ja/built-in-nodes/EmptyAceStepLatentAudio.mdx @@ -0,0 +1,25 @@ +--- +title: "EmptyAceStepLatentAudio - ComfyUI 組み込みノード ドキュメンテーション" +description: "ComfyUI における EmptyAceStepLatentAudio ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "EmptyAceStepLatentAudio" +icon: "circle" +mode: wide +translationSourceHash: 6f6a1925 +translationFrom: built-in-nodes/EmptyAceStepLatentAudio.mdx, zh-CN/built-in-nodes/EmptyAceStepLatentAudio.mdx +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/EmptyAceStepLatentAudio/en.md) + +EmptyAceStepLatentAudio ノードは、指定された長さの空の潜在空間(ラテント)音声サンプルを作成します。このノードは、ゼロ値で構成される無音の潜在空間音声のバッチを生成し、その長さは入力された秒数および音声処理パラメーターに基づいて計算されます。本ノードは、潜在空間表現を必要とする音声処理ワークフローの初期化に有用です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `seconds` | FLOAT | いいえ | 1.0 - 1000.0 | 音声の長さ(単位:秒)。デフォルト値:120.0 | +| `batch_size` | INT | いいえ | 1 - 4096 | バッチ内の潜在空間画像の数。デフォルト値:1 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | LATENT | ゼロ値で構成される空の潜在空間音声サンプルを返します | \ No newline at end of file diff --git a/ja/built-in-nodes/EmptyAudio.mdx b/ja/built-in-nodes/EmptyAudio.mdx new file mode 100644 index 000000000..f7566eebe --- /dev/null +++ b/ja/built-in-nodes/EmptyAudio.mdx @@ -0,0 +1,26 @@ +--- +title: "EmptyAudio - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の EmptyAudio ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "EmptyAudio" +icon: "circle" +mode: wide +translationSourceHash: 355f460d +translationFrom: built-in-nodes/EmptyAudio.mdx, zh-CN/built-in-nodes/EmptyAudio.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/EmptyAudio/en.md) + +EmptyAudio ノードは、指定された再生時間、サンプルレート、およびチャンネル構成を持つ無音(サイレント)音声クリップを生成します。このノードは、すべての値がゼロである波形を作成し、指定された再生時間にわたって完全な無音を出力します。このノードは、プレースホルダー用音声の作成や、音声ワークフロー内での無音セグメントの生成に有用です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `duration` | FLOAT | はい | 0.0 ~ 1.8446744073709552e+19 | 無音音声クリップの再生時間(単位:秒)(デフォルト:60.0) | +| `sample_rate` | INT | はい | - | 無音音声クリップのサンプルレート(デフォルト:44100) | +| `channels` | INT | はい | 1 ~ 2 | 音声チャンネル数(1:モノラル、2:ステレオ)(デフォルト:2) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `AUDIO` | AUDIO | 生成された無音音声クリップ。波形データおよびサンプルレート情報を含みます | \ No newline at end of file diff --git a/ja/built-in-nodes/EmptyChromaRadianceLatentImage.mdx b/ja/built-in-nodes/EmptyChromaRadianceLatentImage.mdx new file mode 100644 index 000000000..8012ade71 --- /dev/null +++ b/ja/built-in-nodes/EmptyChromaRadianceLatentImage.mdx @@ -0,0 +1,26 @@ +--- +title: "EmptyChromaRadianceLatentImage - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における EmptyChromaRadianceLatentImage ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "EmptyChromaRadianceLatentImage" +icon: "circle" +mode: wide +translationSourceHash: ea601c4a +translationFrom: built-in-nodes/EmptyChromaRadianceLatentImage.mdx, zh-CN/built-in-nodes/EmptyChromaRadianceLatentImage.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/EmptyChromaRadianceLatentImage/en.md) + +EmptyChromaRadianceLatentImage ノードは、色度放射(chroma radiance)ワークフローで使用するための、指定したサイズを持つ空白の潜在空間画像(latent image)を作成します。このノードはゼロ値で埋められたテンソルを生成し、潜在空間における各種処理の出発点として機能します。また、このノードでは空白の潜在空間画像の幅、高さ、およびバッチサイズを指定できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `width` | INT | はい | 16 ~ MAX_RESOLUTION | 潜在空間画像の幅(ピクセル単位)。デフォルト値は 1024 であり、16 の倍数である必要があります。 | +| `height` | INT | はい | 16 ~ MAX_RESOLUTION | 潜在空間画像の高さ(ピクセル単位)。デフォルト値は 1024 であり、16 の倍数である必要があります。 | +| `batch_size` | INT | いいえ | 1 ~ 4096 | 一度に生成する潜在空間画像の枚数(バッチサイズ)。デフォルト値は 1 です。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `samples` | LATENT | 指定したサイズを持つ空白の潜在空間画像テンソル | \ No newline at end of file diff --git a/ja/built-in-nodes/EmptyCosmosLatentVideo.mdx b/ja/built-in-nodes/EmptyCosmosLatentVideo.mdx new file mode 100644 index 000000000..4e327a2e1 --- /dev/null +++ b/ja/built-in-nodes/EmptyCosmosLatentVideo.mdx @@ -0,0 +1,29 @@ +--- +title: "EmptyCosmosLatentVideo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における EmptyCosmosLatentVideo ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "EmptyCosmosLatentVideo" +icon: "circle" +mode: wide +translationSourceHash: 5df3a0fe +translationFrom: built-in-nodes/EmptyCosmosLatentVideo.mdx, zh-CN/built-in-nodes/EmptyCosmosLatentVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/EmptyCosmosLatentVideo/en.md) + +EmptyCosmosLatentVideo ノードは、指定された次元を持つ空の潜在動画(latent video)テンソルを作成します。このノードはゼロ値で埋められた潜在表現を生成し、動画生成ワークフローの出発点として利用できます。幅(width)、高さ(height)、フレーム数(length)、バッチサイズ(batch_size)の各パラメーターを自由に設定可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `width` | INT | はい | 16 ~ MAX_RESOLUTION | 潜在動画の幅(ピクセル単位)。デフォルト値:1280(16 の倍数である必要があります) | +| `height` | INT | はい | 16 ~ MAX_RESOLUTION | 潜在動画の高さ(ピクセル単位)。デフォルト値:704(16 の倍数である必要があります) | +| `length` | INT | はい | 1 ~ MAX_RESOLUTION | 潜在動画のフレーム数。デフォルト値:121 | +| `batch_size` | INT | いいえ | 1 ~ 4096 | 一度に生成する潜在動画の数(バッチサイズ)。デフォルト値:1 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `samples` | LATENT | ゼロ値で構成される空の潜在動画テンソル | \ No newline at end of file diff --git a/ja/built-in-nodes/EmptyFlux2LatentImage.mdx b/ja/built-in-nodes/EmptyFlux2LatentImage.mdx new file mode 100644 index 000000000..c269e327c --- /dev/null +++ b/ja/built-in-nodes/EmptyFlux2LatentImage.mdx @@ -0,0 +1,30 @@ +--- +title: "EmptyFlux2LatentImage - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における EmptyFlux2LatentImage ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "EmptyFlux2LatentImage" +icon: "circle" +mode: wide +translationSourceHash: 2d1649fd +translationFrom: built-in-nodes/EmptyFlux2LatentImage.mdx, zh-CN/built-in-nodes/EmptyFlux2LatentImage.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/EmptyFlux2LatentImage/en.md) + +EmptyFlux2LatentImage ノードは、空白の潜在表現(latent representation)を作成します。このノードはゼロ値で埋められたテンソルを生成し、Flux モデルのデノイズ処理の出発点として機能します。潜在表現の次元は、入力された幅(width)および高さ(height)に基づいて決定され、16 の係数でスケーリングされます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `width` | INT | はい | 16 ~ 8192 | 生成する最終画像の幅です。潜在表現の幅は、この値を 16 で割ったものになります。デフォルト値は 1024 です。 | +| `height` | INT | はい | 16 ~ 8192 | 生成する最終画像の高さです。潜在表現の高さは、この値を 16 で割ったものになります。デフォルト値は 1024 です。 | +| `batch_size` | INT | いいえ | 1 ~ 4096 | 単一のバッチ内で生成する潜在サンプルの数です。デフォルト値は 1 です。 | + +**注意:** `width` および `height` の入力値は、16 で割り切れる必要があります。ノード内部では、これらの値を 16 で割って潜在表現の次元を算出しています。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `samples` | LATENT | ゼロ値で埋められた潜在テンソルです。形状は `[batch_size, 128, height // 16, width // 16]` です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/EmptyHunyuanImageLatent.mdx b/ja/built-in-nodes/EmptyHunyuanImageLatent.mdx new file mode 100644 index 000000000..919ff6425 --- /dev/null +++ b/ja/built-in-nodes/EmptyHunyuanImageLatent.mdx @@ -0,0 +1,28 @@ +--- +title: "EmptyHunyuanImageLatent - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における EmptyHunyuanImageLatent ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "EmptyHunyuanImageLatent" +icon: "circle" +mode: wide +translationSourceHash: 36445747 +translationFrom: built-in-nodes/EmptyHunyuanImageLatent.mdx, zh-CN/built-in-nodes/EmptyHunyuanImageLatent.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/EmptyHunyuanImageLatent/en.md) + +EmptyHunyuanImageLatent ノードは、混元(Hunyuan)画像生成モデルで使用するための、特定の次元を持つ空の潜在テンソルを作成します。このノードは、ワークフロー内で後続のノードによって処理可能な、空白の初期状態を生成します。また、潜在空間の幅、高さ、およびバッチサイズを指定できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `width` | INT | はい | 64 ~ MAX_RESOLUTION | 生成される潜在画像の幅(ピクセル単位)(デフォルト:2048、ステップ:32) | +| `height` | INT | はい | 64 ~ MAX_RESOLUTION | 生成される潜在画像の高さ(ピクセル単位)(デフォルト:2048、ステップ:32) | +| `batch_size` | INT | はい | 1 ~ 4096 | バッチ内で生成する潜在サンプルの数(デフォルト:1) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `LATENT` | LATENT | 混元画像処理用に指定された次元を持つ空の潜在テンソル | \ No newline at end of file diff --git a/ja/built-in-nodes/EmptyHunyuanLatentVideo.mdx b/ja/built-in-nodes/EmptyHunyuanLatentVideo.mdx new file mode 100644 index 000000000..287b0fcda --- /dev/null +++ b/ja/built-in-nodes/EmptyHunyuanLatentVideo.mdx @@ -0,0 +1,25 @@ +--- +title: "EmptyHunyuanLatentVideo - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における EmptyHunyuanLatentVideo ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "EmptyHunyuanLatentVideo" +icon: "circle" +mode: wide +translationSourceHash: 3066f49f +translationFrom: built-in-nodes/EmptyHunyuanLatentVideo.mdx, zh-CN/built-in-nodes/EmptyHunyuanLatentVideo.mdx +--- +`EmptyHunyuanLatentVideo` ノードは、`EmptyLatentImage` ノードと同様の機能を持ちます。これは動画生成のための「空白のキャンバス」と考えることができ、そのキャンバスの性質(幅、高さ、長さ)を定義し、バッチサイズによって生成するキャンバスの数を指定します。このノードは、後続の動画生成タスクにすぐに利用可能な、空のキャンバスを生成します。 + +## 入力 + +| パラメーター | Comfy 型 | 説明 | +| ------------- | -------- | ---------------------------------------------------------------------------------------- | +| `width` | `INT` | 動画の幅。デフォルトは 848、最小値は 16、最大値は `nodes.MAX_RESOLUTION`、ステップサイズは 16。 | +| `height` | `INT` | 動画の高さ。デフォルトは 480、最小値は 16、最大値は `nodes.MAX_RESOLUTION`、ステップサイズは 16。 | +| `length` | `INT` | 動画の長さ(フレーム数)。デフォルトは 25、最小値は 1、最大値は `nodes.MAX_RESOLUTION`、ステップサイズは 4。 | +| `batch_size` | `INT` | バッチサイズ。デフォルトは 1、最小値は 1、最大値は 4096。 | + +## 出力 + +| パラメーター | Comfy 型 | 説明 | +| ----------- | -------- | -------------------------------------------------------------------------------------- | +| `samples` | `LATENT` | 生成された潜在動画サンプル(全ゼロのテンソルを含む)。処理および生成タスクにすぐに利用可能です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/EmptyHunyuanVideo15Latent.mdx b/ja/built-in-nodes/EmptyHunyuanVideo15Latent.mdx new file mode 100644 index 000000000..5a4f68265 --- /dev/null +++ b/ja/built-in-nodes/EmptyHunyuanVideo15Latent.mdx @@ -0,0 +1,29 @@ +--- +title: "EmptyHunyuanVideo15Latent - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における EmptyHunyuanVideo15Latent ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "EmptyHunyuanVideo15Latent" +icon: "circle" +mode: wide +translationSourceHash: 29ab0121 +translationFrom: built-in-nodes/EmptyHunyuanVideo15Latent.mdx, zh-CN/built-in-nodes/EmptyHunyuanVideo15Latent.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/EmptyHunyuanVideo15Latent/en.md) + +このノードは、HunyuanVideo 1.5 モデル専用にフォーマットされた空の潜在テンソルを作成します。モデルの潜在空間に適したチャンネル数および空間次元を持つゼロ値テンソルを割り当てることで、動画生成のための空白の開始点を提供します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `width` | INT | はい | - | 動画フレームの幅(ピクセル単位)。 | +| `height` | INT | はい | - | 動画フレームの高さ(ピクセル単位)。 | +| `length` | INT | はい | - | 動画シーケンスのフレーム数。 | +| `batch_size` | INT | いいえ | - | バッチ内で生成する動画サンプルの数(デフォルト:1)。 | + +**注意:** 生成される潜在テンソルの空間次元(幅および高さ)は、入力 `width` および `height` を 16 で除算することにより計算されます。時間次元(フレーム数)は、`((length - 1) // 4) + 1` の式で計算されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `samples` | LATENT | HunyuanVideo 1.5 モデルに適合する次元を持つ空の潜在テンソルです。テンソルの形状は `[batch_size, 32, frames, height//16, width//16]` です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/EmptyImage.mdx b/ja/built-in-nodes/EmptyImage.mdx new file mode 100644 index 000000000..b3b32a396 --- /dev/null +++ b/ja/built-in-nodes/EmptyImage.mdx @@ -0,0 +1,58 @@ +--- +title: "EmptyImage - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の EmptyImage ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "EmptyImage" +icon: "circle" +mode: wide +translationSourceHash: 765b9179 +translationFrom: built-in-nodes/EmptyImage.mdx, zh-CN/built-in-nodes/EmptyImage.mdx +--- +## 機能説明 + +`EmptyImage`(空画像)ノードは、指定したサイズと色で空白の画像を作成するために使用されます。純色の背景画像を生成でき、画像処理ワークフローにおける出発点や背景画像としてよく利用されます。 + +## 動作原理 + +画家が創作を始める前に白紙のキャンバスを用意するのと同様に、`EmptyImage` ノードはユーザーに「デジタルキャンバス」を提供します。キャンバスのサイズ(幅および高さ)、キャンバスのベースカラーを指定でき、さらに同じ仕様のキャンバスを一度に複数枚準備することも可能です。このノードは、サイズと色の要件に完全に合致した標準化されたキャンバスを自動生成する、知能型のアート用品店のような存在です。 + +## 入力 + +| パラメーター名 | データ型 | 説明 | +|----------------|----------|------| +| `width` | INT | 生成される画像の幅(ピクセル単位)を設定します。これはキャンバスの水平方向のサイズを決定します | +| `height` | INT | 生成される画像の高さ(ピクセル単位)を設定します。これはキャンバスの垂直方向のサイズを決定します | +| `batch_size` | INT | 一度に生成する画像の枚数です。同一仕様の画像を一括して作成する場合に使用します | +| `color` | INT | 画像の背景色です。16進数形式の色設定を入力できます。入力された値は自動的に10進数に変換されます | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `image` | IMAGE | 生成された空白画像のテンソルです。フォーマットは `[batch_size, height, width, 3]` で、RGB の3つの色チャンネルを含みます | + +## よく使う色の参考値 + +現在、このノードの色入力はユーザーフレンドリーではなく、すべての色値が10進数に変換されるため、以下にすぐに使える一般的な色の値を示します。 + +| 色の名称 | 16進数値 | +|----------|----------| +| 黒色 | 0x000000 | +| 白色 | 0xFFFFFF | +| 赤色 | 0xFF0000 | +| 緑色 | 0x00FF00 | +| 青色 | 0x0000FF | +| 黄色 | 0xFFFF00 | +| シアン | 0x00FFFF | +| マゼンタ | 0xFF00FF | +| オレンジ | 0xFF8000 | +| 紫色 | 0x8000FF | +| ピンク | 0xFF80C0 | +| 茶色 | 0x8B4513 | +| 深灰色 | 0x404040 | +| 淡灰色 | 0xC0C0C0 | +| ネイビー | 0x000080 | +| 深緑色 | 0x008000 | +| 深赤色 | 0x800000 | +| ゴールド | 0xFFD700 | +| シルバー | 0xC0C0C0 | +| ベージュ | 0xF5F5DC | \ No newline at end of file diff --git a/ja/built-in-nodes/EmptyLTXVLatentVideo.mdx b/ja/built-in-nodes/EmptyLTXVLatentVideo.mdx new file mode 100644 index 000000000..f80ba46fe --- /dev/null +++ b/ja/built-in-nodes/EmptyLTXVLatentVideo.mdx @@ -0,0 +1,27 @@ +--- +title: "EmptyLTXVLatentVideo - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における EmptyLTXVLatentVideo ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "EmptyLTXVLatentVideo" +icon: "circle" +mode: wide +translationSourceHash: 7af88d1b +translationFrom: built-in-nodes/EmptyLTXVLatentVideo.mdx, zh-CN/built-in-nodes/EmptyLTXVLatentVideo.mdx +--- +> このドキュメンテーションはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/EmptyLTXVLatentVideo/en.md) + +EmptyLTXVLatentVideo ノードは、動画処理用の空の潜在テンソル(latent tensor)を作成します。このノードは、指定されたサイズを持つ空白の初期状態を生成し、動画生成ワークフローへの入力として利用できます。ノードは、設定された幅、高さ、フレーム数(長さ)、およびバッチサイズに基づいた、ゼロ値で埋められた潜在表現を生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `width` | INT | はい | 64 ~ MAX_RESOLUTION | 潜在動画テンソルの幅(デフォルト:768、ステップ:32) | +| `height` | INT | はい | 64 ~ MAX_RESOLUTION | 潜在動画テンソルの高さ(デフォルト:512、ステップ:32) | +| `length` | INT | はい | 1 ~ MAX_RESOLUTION | 潜在動画のフレーム数(デフォルト:97、ステップ:8) | +| `batch_size` | INT | いいえ | 1 ~ 4096 | バッチ内で生成する潜在動画の数(デフォルト:1) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `samples` | LATENT | 指定された次元においてすべてゼロ値を持つ、生成された空の潜在テンソル | \ No newline at end of file diff --git a/ja/built-in-nodes/EmptyLatentAudio.mdx b/ja/built-in-nodes/EmptyLatentAudio.mdx new file mode 100644 index 000000000..c7658c737 --- /dev/null +++ b/ja/built-in-nodes/EmptyLatentAudio.mdx @@ -0,0 +1,25 @@ +--- +title: "EmptyLatentAudio - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の EmptyLatentAudio ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "EmptyLatentAudio" +icon: "circle" +mode: wide +translationSourceHash: 31f81f81 +translationFrom: built-in-nodes/EmptyLatentAudio.mdx, zh-CN/built-in-nodes/EmptyLatentAudio.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください![GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/EmptyLatentAudio/en.md) + +EmptyLatentAudio ノードは、音声処理用の空の潜在テンソル(latent tensor)を作成します。このノードは、指定された再生時間(秒)およびバッチサイズを持つ空白の音声潜在表現を生成し、音声生成や音声処理のワークフローへの入力として利用できます。ノードは、音声の再生時間とサンプルレートに基づいて、適切な潜在次元を自動的に計算します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `seconds` | FLOAT | はい | 1.0 - 1000.0 | 音声の再生時間(単位:秒)。デフォルト値:47.6 | +| `batch_size` | INT | はい | 1 - 4096 | バッチ内の潜在画像の数。デフォルト値:1 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `LATENT` | LATENT | 指定された再生時間およびバッチサイズを持つ、音声処理用の空の潜在テンソルを返します | \ No newline at end of file diff --git a/ja/built-in-nodes/EmptyLatentHunyuan3Dv2.mdx b/ja/built-in-nodes/EmptyLatentHunyuan3Dv2.mdx new file mode 100644 index 000000000..d19c25bef --- /dev/null +++ b/ja/built-in-nodes/EmptyLatentHunyuan3Dv2.mdx @@ -0,0 +1,27 @@ +--- +title: "EmptyLatentHunyuan3Dv2 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における EmptyLatentHunyuan3Dv2 ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "EmptyLatentHunyuan3Dv2" +icon: "circle" +mode: wide +translationSourceHash: 82f4d8c8 +translationFrom: built-in-nodes/EmptyLatentHunyuan3Dv2.mdx, zh-CN/built-in-nodes/EmptyLatentHunyuan3Dv2.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/EmptyLatentHunyuan3Dv2/en.md) + +EmptyLatentHunyuan3Dv2 ノードは、Hunyuan3Dv2 の 3D 生成モデル専用にフォーマットされた空白の潜在テンソル(latent tensor)を作成します。このノードは、Hunyuan3Dv2 アーキテクチャが要求する正確な次元と構造を持つ空の潜在空間を生成し、3D 生成ワークフローをゼロから開始できるようにします。また、このノードはゼロ値で埋められた潜在テンソルを生成し、その後の 3D 生成プロセスの基盤として機能します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `resolution` | INT | はい | 1 - 8192 | 潜在空間の解像度次元(デフォルト:3072) | +| `batch_size` | INT | はい | 1 - 4096 | バッチ内の潜在画像の数(デフォルト:1) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `LATENT` | LATENT | Hunyuan3Dv2 の 3D 生成向けにフォーマットされた空のサンプルを含む潜在テンソルを返します | \ No newline at end of file diff --git a/ja/built-in-nodes/EmptyLatentImage.mdx b/ja/built-in-nodes/EmptyLatentImage.mdx new file mode 100644 index 000000000..fbe94ffb0 --- /dev/null +++ b/ja/built-in-nodes/EmptyLatentImage.mdx @@ -0,0 +1,26 @@ +--- +title: "EmptyLatentImage - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUIにおけるEmptyLatentImageノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "EmptyLatentImage" +icon: "circle" +mode: wide +translationSourceHash: bb532017 +translationFrom: built-in-nodes/EmptyLatentImage.mdx, zh-CN/built-in-nodes/EmptyLatentImage.mdx +translationMismatches: + - "description" +--- +`EmptyLatentImage`ノードは、指定されたサイズ(幅・高さ)およびバッチ数を持つ空の潜在空間表現を生成するように設計されています。このノードは、潜在空間内での画像生成または操作のための基盤的なステップであり、その後の画像合成や変換処理の出発点として機能します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `width` | `INT` | 生成する潜在画像の幅を指定します。このパラメーターは、得られる潜在表現の空間的次元に直接影響を与えます。 | +| `height` | `INT` | 生成する潜在画像の高さを決定します。このパラメーターは、潜在空間表現の空間的次元を定義する上で極めて重要です。 | +| `batch_size` | `INT` | 1回のバッチ処理で生成する潜在画像の数を制御します。これにより、複数の潜在表現を同時に生成でき、バッチ処理を容易に実現できます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `latent` | `LATENT` | 出力は、一連の空の潜在画像を表すテンソルであり、潜在空間内でのさらなる画像生成または操作の基盤となります。 | \ No newline at end of file diff --git a/ja/built-in-nodes/EmptyMochiLatentVideo.mdx b/ja/built-in-nodes/EmptyMochiLatentVideo.mdx new file mode 100644 index 000000000..b86450a30 --- /dev/null +++ b/ja/built-in-nodes/EmptyMochiLatentVideo.mdx @@ -0,0 +1,31 @@ +--- +title: "EmptyMochiLatentVideo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における EmptyMochiLatentVideo ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "EmptyMochiLatentVideo" +icon: "circle" +mode: wide +translationSourceHash: 03e421cd +translationFrom: built-in-nodes/EmptyMochiLatentVideo.mdx, zh-CN/built-in-nodes/EmptyMochiLatentVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/EmptyMochiLatentVideo/en.md) + +EmptyMochiLatentVideo ノードは、指定された次元を持つ空の潜在動画テンソル(latent video tensor)を作成します。このノードはゼロで埋められた潜在表現を生成し、動画生成ワークフローの出発点として利用できます。ノードでは、潜在動画テンソルの幅(width)、高さ(height)、フレーム数(length)、およびバッチサイズ(batch size)を定義できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `width` | INT | はい | 16 ~ MAX_RESOLUTION | 潜在動画の幅(ピクセル単位)。デフォルト値は 848(16 の倍数である必要があります) | +| `height` | INT | はい | 16 ~ MAX_RESOLUTION | 潜在動画の高さ(ピクセル単位)。デフォルト値は 480(16 の倍数である必要があります) | +| `length` | INT | はい | 7 ~ MAX_RESOLUTION | 潜在動画のフレーム数。デフォルト値は 25 | +| `batch_size` | INT | いいえ | 1 ~ 4096 | バッチ内で生成する潜在動画の数。デフォルト値は 1 | + +**注意:** 実際の潜在空間の次元は `width/8` および `height/8` で計算され、時間方向の次元(temporal dimension)は `((length - 1) // 6) + 1` で計算されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `samples` | LATENT | 指定された次元を持つ空の潜在動画テンソル(全要素がゼロ) | \ No newline at end of file diff --git a/ja/built-in-nodes/EmptyQwenImageLayeredLatentImage.mdx b/ja/built-in-nodes/EmptyQwenImageLayeredLatentImage.mdx new file mode 100644 index 000000000..6a442e1a9 --- /dev/null +++ b/ja/built-in-nodes/EmptyQwenImageLayeredLatentImage.mdx @@ -0,0 +1,31 @@ +--- +title: "EmptyQwenImageLayeredLatentImage - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における EmptyQwenImageLayeredLatentImage ノードの完全なドキュメントです。入力、出力、パラメータ、および使用方法について学びましょう。" +sidebarTitle: "EmptyQwenImageLayeredLatentImage" +icon: "circle" +mode: wide +translationSourceHash: f63e5e83 +translationFrom: built-in-nodes/EmptyQwenImageLayeredLatentImage.mdx, zh-CN/built-in-nodes/EmptyQwenImageLayeredLatentImage.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/EmptyQwenImageLayeredLatentImage/en.md) + +Empty Qwen Image Layered Latent ノードは、Qwen 画像モデルで使用するための空白の多層潜在表現を作成します。このノードは、指定された層数、バッチサイズ、空間次元を持つゼロ値で埋められたテンソルを生成します。この空の潜在表現は、後続の画像生成や画像処理ワークフローの出発点として利用されます。 + +## 入力 + +| パラメータ | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `width` | INT | はい | 16 ~ MAX_RESOLUTION | 作成する潜在画像の幅です。この値は 16 で割り切れる必要があります。(デフォルト:640) | +| `height` | INT | はい | 16 ~ MAX_RESOLUTION | 作成する潜在画像の高さです。この値は 16 で割り切れる必要があります。(デフォルト:640) | +| `layers` | INT | はい | 0 ~ MAX_RESOLUTION | 潜在構造に追加する追加層数です。これは潜在表現の深さを定義します。(デフォルト:3) | +| `batch_size` | INT | いいえ | 1 ~ 4096 | バッチ内で生成する潜在サンプルの数です。(デフォルト:1) | + +**注意:** `width` および `height` パラメータは、内部で 8 で除算され、出力潜在テンソルの空間次元が決定されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `samples` | LATENT | ゼロ値で埋められた潜在テンソルです。その形状は `[batch_size, 16, layers + 1, height // 8, width // 8]` です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/EmptySD3LatentImage.mdx b/ja/built-in-nodes/EmptySD3LatentImage.mdx new file mode 100644 index 000000000..4c56d7ff8 --- /dev/null +++ b/ja/built-in-nodes/EmptySD3LatentImage.mdx @@ -0,0 +1,26 @@ +--- +title: "EmptySD3LatentImage - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における EmptySD3LatentImage ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "EmptySD3LatentImage" +icon: "circle" +mode: wide +translationSourceHash: 9da2ffee +translationFrom: built-in-nodes/EmptySD3LatentImage.mdx, zh-CN/built-in-nodes/EmptySD3LatentImage.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/EmptySD3LatentImage/en.md) + +EmptySD3LatentImage ノードは、Stable Diffusion 3(SD3)モデル専用にフォーマットされた空白の潜在空間画像テンソルを作成します。このノードは、SD3パイプラインが期待する正しい次元と構造を持つ、ゼロで埋められたテンソルを生成します。これは、画像生成ワークフローの出発点として一般的に使用されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `width` | INT | はい | 16 ~ MAX_RESOLUTION(ステップ:16) | 出力潜在空間画像の幅(ピクセル単位、デフォルト:1024) | +| `height` | INT | はい | 16 ~ MAX_RESOLUTION(ステップ:16) | 出力潜在空間画像の高さ(ピクセル単位、デフォルト:1024) | +| `batch_size` | INT | はい | 1 ~ 4096 | 一括処理で生成する潜在空間画像の数(デフォルト:1) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `LATENT` | LATENT | SD3互換の次元を持つ空白サンプルを含む潜在空間テンソル | \ No newline at end of file diff --git a/ja/built-in-nodes/Epsilon Scaling.mdx b/ja/built-in-nodes/Epsilon Scaling.mdx new file mode 100644 index 000000000..51059bcf0 --- /dev/null +++ b/ja/built-in-nodes/Epsilon Scaling.mdx @@ -0,0 +1,25 @@ +--- +title: "Epsilon Scaling - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の Epsilon Scaling ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Epsilon Scaling" +icon: "circle" +mode: wide +translationSourceHash: ee0a3107 +translationFrom: built-in-nodes/Epsilon Scaling.mdx, zh-CN/built-in-nodes/Epsilon Scaling.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Epsilon%20Scaling/en.md) + +このノードは、研究論文『拡散モデルにおける露出バイアスの解明(Elucidating the Exposure Bias in Diffusion Models)』で提案された Epsilon Scaling 手法を実装しています。これは、サンプリング過程において予測されたノイズをスケーリングすることで露出バイアスを低減し、生成画像の品質向上を図る手法です。本実装では、論文で推奨されている「均一スケジュール(uniform schedule)」を採用しています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | Epsilon Scaling のパッチを適用する対象のモデルです。 | +| `scaling_factor` | FLOAT | いいえ | 0.5 – 1.5 | 予測ノイズをスケーリングするための係数です。1.0 より大きい値ではノイズが減少し、1.0 より小さい値ではノイズが増加します(デフォルト:1.005)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 入力モデルに Epsilon Scaling 機能をサンプリング過程に適用した、パッチ済みのモデルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/EpsilonScaling.mdx b/ja/built-in-nodes/EpsilonScaling.mdx new file mode 100644 index 000000000..ca388fa07 --- /dev/null +++ b/ja/built-in-nodes/EpsilonScaling.mdx @@ -0,0 +1,25 @@ +--- +title: "EpsilonScaling - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の EpsilonScaling ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "EpsilonScaling" +icon: "circle" +mode: wide +translationSourceHash: eca48118 +translationFrom: built-in-nodes/EpsilonScaling.mdx, zh-CN/built-in-nodes/EpsilonScaling.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/EpsilonScaling/en.md) + +研究論文『拡散モデルにおける露出バイアスの解明(Elucidating the Exposure Bias in Diffusion Models)』に記載されている Epsilon Scaling 法を実装します。この手法は、サンプリング過程において予測されるノイズをスケーリングすることで、生成サンプルの品質を向上させます。また、拡散モデルにおける露出バイアスを軽減するために、一様なスケジュール(uniform schedule)を用います。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | Epsilon Scaling を適用するモデル | +| `scaling_factor` | FLOAT | いいえ | 0.5 – 1.5 | 予測ノイズをスケーリングする際に用いる係数(デフォルト値:1.005) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | Epsilon Scaling が適用されたモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ExponentialScheduler.mdx b/ja/built-in-nodes/ExponentialScheduler.mdx new file mode 100644 index 000000000..83d1b60ce --- /dev/null +++ b/ja/built-in-nodes/ExponentialScheduler.mdx @@ -0,0 +1,24 @@ +--- +title: "ExponentialScheduler - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の ExponentialScheduler ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ExponentialScheduler" +icon: "circle" +mode: wide +translationSourceHash: c09b6804 +translationFrom: built-in-nodes/ExponentialScheduler.mdx, zh-CN/built-in-nodes/ExponentialScheduler.mdx +--- +`ExponentialScheduler` ノードは、拡散サンプリングプロセスにおいて指数関数的なスケジュールに従ったシグマ値の系列を生成するために設計されています。これにより、拡散プロセスの各ステップで適用されるノイズレベルをカスタマイズ可能となり、サンプリング動作の微調整が可能になります。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|----------------|------------|----------------------------------------------------------------------------------------| +| `steps` | INT | 拡散プロセスにおけるステップ数を指定します。生成されるシグマ系列の長さに影響し、ノイズ適用の細かさ(粒度)を決定します。 | +| `sigma_max` | FLOAT | 最大シグマ値を定義し、拡散プロセスにおけるノイズ強度の上限を設定します。適用されるノイズレベルの範囲を決定する上で重要な役割を果たします。 | +| `sigma_min` | FLOAT | 最小シグマ値を設定し、ノイズ強度の下限境界を定めます。このパラメーターにより、ノイズ適用の開始点を微調整できます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|--------------|------------|----------------------------------------------------------------------------------------| +| `sigmas` | SIGMAS | 指数関数的なスケジュールに従って生成されたシグマ値の系列です。これらの値は、拡散プロセスの各ステップにおけるノイズレベルを制御するために使用されます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ExtendIntermediateSigmas.mdx b/ja/built-in-nodes/ExtendIntermediateSigmas.mdx new file mode 100644 index 000000000..962af649c --- /dev/null +++ b/ja/built-in-nodes/ExtendIntermediateSigmas.mdx @@ -0,0 +1,30 @@ +--- +title: "ExtendIntermediateSigmas - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ExtendIntermediateSigmas ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ExtendIntermediateSigmas" +icon: "circle" +mode: wide +translationSourceHash: ddf8ea56 +translationFrom: built-in-nodes/ExtendIntermediateSigmas.mdx, zh-CN/built-in-nodes/ExtendIntermediateSigmas.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ExtendIntermediateSigmas/en.md) + +ExtendIntermediateSigmas ノードは、既存の sigma 値のシーケンスを入力として受け取り、その各要素間に追加の中間 sigma 値を挿入します。このノードでは、挿入する中間ステップ数、補間時の間隔配置方法(spacing)、および拡張を適用する範囲を制御するためのオプションの開始・終了 sigma 境界値を指定できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `sigmas` | SIGMAS | はい | - | 中間値を挿入する対象となる入力 sigma シーケンス | +| `steps` | INT | はい | 1–100 | 既存の sigma 値の間に挿入する中間ステップ数(デフォルト:2) | +| `start_at_sigma` | FLOAT | はい | −1.0 ~ 20000.0 | 拡張の上限 sigma 境界 — この値より小さい sigma のみを拡張対象とします(デフォルト:−1.0、これは無限大を意味します) | +| `end_at_sigma` | FLOAT | はい | 0.0 ~ 20000.0 | 拡張の下限 sigma 境界 — この値より大きい sigma のみを拡張対象とします(デフォルト:12.0) | +| `spacing` | COMBO | はい | "linear"
"cosine"
"sine" | 中間 sigma 値の間隔を決定する補間手法 | + +**注意:** このノードは、現在の sigma 値が `start_at_sigma` 以下かつ `end_at_sigma` 以上であるような既存の sigma 対の間でのみ、中間 sigma 値を挿入します。`start_at_sigma` を −1.0 に設定した場合、これは無限大として扱われ、実質的に `end_at_sigma` の下限境界のみが有効になります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `sigmas` | SIGMAS | 追加の中間値が挿入された拡張済みの sigma シーケンス | \ No newline at end of file diff --git a/ja/built-in-nodes/FeatherMask.mdx b/ja/built-in-nodes/FeatherMask.mdx new file mode 100644 index 000000000..37eddab9d --- /dev/null +++ b/ja/built-in-nodes/FeatherMask.mdx @@ -0,0 +1,26 @@ +--- +title: "FeatherMask - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における FeatherMask ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "FeatherMask" +icon: "circle" +mode: wide +translationSourceHash: 72c86e24 +translationFrom: built-in-nodes/FeatherMask.mdx, zh-CN/built-in-nodes/FeatherMask.mdx +--- +`FeatherMask` ノードは、指定されたマスクのエッジに「羽化(フェザリング)」効果を適用し、各エッジからの指定距離内における不透明度を調整することで、マスクのエッジを滑らかに遷移させます。これにより、より柔らかく、自然に周囲とブレンドされたエッジ効果が得られます。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|--------------|-------------| +| `mask` | MASK | 羽化効果を適用するマスクです。画像のうち、羽化効果の影響を受ける領域を決定します。 | +| `left` | INT | 左端から何ピクセルの範囲まで羽化効果を適用するかを指定します。 | +| `top` | INT | 上端から何ピクセルの範囲まで羽化効果を適用するかを指定します。 | +| `right` | INT | 右端から何ピクセルの範囲まで羽化効果を適用するかを指定します。 | +| `bottom` | INT | 下端から何ピクセルの範囲まで羽化効果を適用するかを指定します。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|--------------|-------------| +| `mask` | MASK | 出力は、入力マスクをエッジに羽化効果を適用して変更したものです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/FlipSigmas.mdx b/ja/built-in-nodes/FlipSigmas.mdx new file mode 100644 index 000000000..5da606b35 --- /dev/null +++ b/ja/built-in-nodes/FlipSigmas.mdx @@ -0,0 +1,24 @@ +--- +title: "FlipSigmas - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の FlipSigmas ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "FlipSigmas" +icon: "circle" +mode: wide +translationSourceHash: 0e9282b9 +translationFrom: built-in-nodes/FlipSigmas.mdx, zh-CN/built-in-nodes/FlipSigmas.mdx +translationMismatches: + - "description" +--- +`FlipSigmas` ノードは、拡散モデルで使用されるシグマ(sigma)値の並び順を反転させ、かつ元の先頭値がゼロであった場合にそれを非ゼロに調整する操作を実行するために設計されています。この処理は、ノイズレベルを逆順に調整する際に不可欠であり、データ中のノイズを段階的に低減することで動作するモデルにおける生成プロセスを支援します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `sigmas` | `SIGMAS` | `sigmas` パラメーターは、反転対象となるシグマ値の並びを表します。この並びは、拡散プロセス中に適用されるノイズレベルを制御する上で極めて重要であり、反転操作は逆方向の生成プロセスにおいて必須となります。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `sigmas` | `SIGMAS` | 出力は、反転および調整(元の先頭値がゼロであった場合に非ゼロに修正)されたシグマ値の並びであり、その後の拡散モデル処理で直ちに利用可能な状態になっています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Flux2Scheduler.mdx b/ja/built-in-nodes/Flux2Scheduler.mdx new file mode 100644 index 000000000..933458964 --- /dev/null +++ b/ja/built-in-nodes/Flux2Scheduler.mdx @@ -0,0 +1,26 @@ +--- +title: "Flux2Scheduler - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における Flux2Scheduler ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Flux2Scheduler" +icon: "circle" +mode: wide +translationSourceHash: 9c335def +translationFrom: built-in-nodes/Flux2Scheduler.mdx, zh-CN/built-in-nodes/Flux2Scheduler.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Flux2Scheduler/en.md) + +Flux2Scheduler ノードは、デノイジング(ノイズ除去)プロセス用の一連のノイズレベル値(シグマ値)を生成するノードであり、Flux モデル専用に設計されています。このノードは、デノイジングステップ数およびターゲット画像の解像度(幅・高さ)に基づいてスケジュールを計算し、画像生成時のノイズ除去の進行具合に影響を与えます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `steps` | INT | はい | 1 ~ 4096 | 実行するデノイジングステップ数です。値が大きいほど通常はより詳細な結果が得られますが、処理時間も長くなります(デフォルト:20)。 | +| `width` | INT | はい | 16 ~ 16384 | 生成対象画像の幅(ピクセル単位)です。この値はノイズスケジュールの計算に影響します(デフォルト:1024)。 | +| `height` | INT | はい | 16 ~ 16384 | 生成対象画像の高さ(ピクセル単位)です。この値はノイズスケジュールの計算に影響します(デフォルト:1024)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `sigmas` | SIGMAS | サンプラーのデノイジングスケジュールを定義する一連のノイズレベル値(シグマ値)です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/FluxDisableGuidance.mdx b/ja/built-in-nodes/FluxDisableGuidance.mdx new file mode 100644 index 000000000..df403c2e2 --- /dev/null +++ b/ja/built-in-nodes/FluxDisableGuidance.mdx @@ -0,0 +1,24 @@ +--- +title: "FluxDisableGuidance - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における FluxDisableGuidance ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "FluxDisableGuidance" +icon: "circle" +mode: wide +translationSourceHash: 3c992b9c +translationFrom: built-in-nodes/FluxDisableGuidance.mdx, zh-CN/built-in-nodes/FluxDisableGuidance.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/FluxDisableGuidance/en.md) + +このノードは、Flux および同様のモデルに対して、ガイドランス埋め込み(guidance embed)機能を完全に無効化します。入力としてコンディショニングデータを受け取り、そのガイドランス成分を `None` に設定することで該当機能を削除し、生成プロセスにおけるガイドランスに基づくコンディショニングを実質的に無効化します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `conditioning` | CONDITIONING | はい | - | ガイドランス機能を処理・削除する対象となるコンディショニングデータ | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `conditioning` | CONDITIONING | ガイドランス機能が無効化された、変更後のコンディショニングデータ | \ No newline at end of file diff --git a/ja/built-in-nodes/FluxGuidance.mdx b/ja/built-in-nodes/FluxGuidance.mdx new file mode 100644 index 000000000..c6b3318c9 --- /dev/null +++ b/ja/built-in-nodes/FluxGuidance.mdx @@ -0,0 +1,21 @@ +--- +title: "FluxGuidance - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における FluxGuidance ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "FluxGuidance" +icon: "circle" +mode: wide +translationSourceHash: 70c0e40b +translationFrom: built-in-nodes/FluxGuidance.mdx, zh-CN/built-in-nodes/FluxGuidance.mdx +--- +## 入力 + +| パラメーター | データ型 | 説明 | +|----------------|-----------|-------------| +| `conditioning` | CONDITIONING | 条件制御データ(通常は前のエンコーディングまたは処理ステップから得られます) | +| `guidance` | FLOAT | テキストプロンプトが画像生成に与える影響を制御するパラメーター。調整範囲は 0.0 ~ 100.0 です | + +## 出力 + +| パラメーター | データ型 | 説明 | +|----------------|-----------|-------------| +| CONDITIONING | CONDITIONING | 更新された条件制御データ。新しい guidance 値が含まれています | \ No newline at end of file diff --git a/ja/built-in-nodes/FluxKontextImageScale.mdx b/ja/built-in-nodes/FluxKontextImageScale.mdx new file mode 100644 index 000000000..9549ccac4 --- /dev/null +++ b/ja/built-in-nodes/FluxKontextImageScale.mdx @@ -0,0 +1,46 @@ +--- +title: "FluxKontextImageScale - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における FluxKontextImageScale ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "FluxKontextImageScale" +icon: "circle" +mode: wide +translationSourceHash: 47ca3cfa +translationFrom: built-in-nodes/FluxKontextImageScale.mdx, zh-CN/built-in-nodes/FluxKontextImageScale.mdx +--- +このノードは、入力画像のアスペクト比に基づき Lanczos アルゴリズムを用いて、Flux Kontext モデルの学習時に使用される最適なサイズに画像をスケーリングします。特に大サイズの画像を入力する場合に有用であり、過大な入力サイズはモデル出力の品質低下や、出力に複数の被写体が現れるなどの問題を引き起こす可能性があります。 + +## 入力 + +| パラメーター名 | データ型 | 入力タイプ | デフォルト値 | 値の範囲 | 説明 | +|----------------|----------|------------|--------------|----------|------| +| `image` | IMAGE | 必須 | - | - | サイズ変更対象の入力画像 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `image` | IMAGE | サイズ変更後の画像 | + +## 事前定義サイズ一覧 + +以下は、モデル学習時に使用される標準サイズの一覧です。このノードは、入力画像のアスペクト比に最も近いサイズを選択します: + +| 幅 | 高さ | アスペクト比 | +|----|------|--------------| +| 672 | 1568 | 0.429 | +| 688 | 1504 | 0.457 | +| 720 | 1456 | 0.494 | +| 752 | 1392 | 0.540 | +| 800 | 1328 | 0.603 | +| 832 | 1248 | 0.667 | +| 880 | 1184 | 0.743 | +| 944 | 1104 | 0.855 | +| 1024 | 1024 | 1.000 | +| 1104 | 944 | 1.170 | +| 1184 | 880 | 1.345 | +| 1248 | 832 | 1.500 | +| 1328 | 800 | 1.660 | +| 1392 | 752 | 1.851 | +| 1456 | 720 | 2.022 | +| 1504 | 688 | 2.186 | +| 1568 | 672 | 2.333 | \ No newline at end of file diff --git a/ja/built-in-nodes/FluxKontextMultiReferenceLatentMethod.mdx b/ja/built-in-nodes/FluxKontextMultiReferenceLatentMethod.mdx new file mode 100644 index 000000000..eef274d62 --- /dev/null +++ b/ja/built-in-nodes/FluxKontextMultiReferenceLatentMethod.mdx @@ -0,0 +1,27 @@ +--- +title: "FluxKontextMultiReferenceLatentMethod - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における FluxKontextMultiReferenceLatentMethod ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "FluxKontextMultiReferenceLatentMethod" +icon: "circle" +mode: wide +translationSourceHash: 5df6344c +translationFrom: built-in-nodes/FluxKontextMultiReferenceLatentMethod.mdx, zh-CN/built-in-nodes/FluxKontextMultiReferenceLatentMethod.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/FluxKontextMultiReferenceLatentMethod/en.md) + +FluxKontextMultiReferenceLatentMethod ノードは、特定の参照潜在変数(リファレンス・ラテンツ)処理手法を設定することで、条件付けデータ(コンディショニング・データ)を変更します。このノードは選択された手法を条件付け入力に付加し、その後の生成ステップにおける参照潜在変数の処理方法に影響を与えます。本ノードは実験的機能としてマークされており、Flux 条件付けシステムの一部です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `conditioning` | CONDITIONING | はい | - | 参照潜在変数処理手法を適用して変更される条件付けデータ | +| `reference_latents_method` | STRING | はい | `"offset"`
`"index"`
`"uxo/uno"` | 参照潜在変数の処理に使用する手法。`"uxo"` または `"uso"` が選択された場合、内部的に `"uxo"` に変換されます | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `conditioning` | CONDITIONING | 参照潜在変数処理手法が適用された、変更後の条件付けデータ | \ No newline at end of file diff --git a/ja/built-in-nodes/FluxProCannyNode.mdx b/ja/built-in-nodes/FluxProCannyNode.mdx new file mode 100644 index 000000000..daf3c1937 --- /dev/null +++ b/ja/built-in-nodes/FluxProCannyNode.mdx @@ -0,0 +1,36 @@ +--- +title: "FluxProCannyNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における FluxProCannyNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "FluxProCannyNode" +icon: "circle" +mode: wide +translationSourceHash: 0a316f3c +translationFrom: built-in-nodes/FluxProCannyNode.mdx, zh-CN/built-in-nodes/FluxProCannyNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/FluxProCannyNode/en.md) + +制御画像(Canny)を用いて画像を生成します。このノードは制御画像を受け取り、指定されたプロンプトに基づき、制御画像内で検出されたエッジ構造に従った新しい画像を生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `control_image` | IMAGE | はい | - | Canny エッジ検出制御に使用される入力画像 | +| `prompt` | STRING | いいえ | - | 画像生成のためのプロンプト(デフォルト:空文字列) | +| `prompt_upsampling` | BOOLEAN | いいえ | - | プロンプトに対してアップサンプリング処理を実行するかどうか。有効にすると、より創造的な生成を実現するために自動的にプロンプトが変更されますが、結果は非決定的になります(同一のシードでも完全に同じ結果にはなりません)。(デフォルト:False) | +| `canny_low_threshold` | FLOAT | いいえ | 0.01 - 0.99 | Canny エッジ検出の低閾値。`skip_processing` が True の場合は無視されます(デフォルト:0.1) | +| `canny_high_threshold` | FLOAT | いいえ | 0.01 - 0.99 | Canny エッジ検出の高閾値。`skip_processing` が True の場合は無視されます(デフォルト:0.4) | +| `skip_preprocessing` | BOOLEAN | いいえ | - | 前処理をスキップするかどうか。制御画像が既に Canny 処理済みの画像である場合は True、生の画像である場合は False を設定します。(デフォルト:False) | +| `guidance` | FLOAT | いいえ | 1 - 100 | 画像生成プロセスにおけるガイド強度(デフォルト:30) | +| `steps` | INT | いいえ | 15 - 50 | 画像生成プロセスのステップ数(デフォルト:50) | +| `seed` | INT | いいえ | 0 - 18446744073709551615 | ノイズ生成に使用される乱数シード(デフォルト:0) | + +**注意:** `skip_preprocessing` を True に設定した場合、制御画像はすでに Canny エッジ画像として処理済みとみなされるため、`canny_low_threshold` および `canny_high_threshold` パラメーターは無視されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output_image` | IMAGE | 制御画像およびプロンプトに基づいて生成された画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/FluxProDepthNode.mdx b/ja/built-in-nodes/FluxProDepthNode.mdx new file mode 100644 index 000000000..4fdaa912f --- /dev/null +++ b/ja/built-in-nodes/FluxProDepthNode.mdx @@ -0,0 +1,32 @@ +--- +title: "FluxProDepthNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における FluxProDepthNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "FluxProDepthNode" +icon: "circle" +mode: wide +translationSourceHash: 51d64ad7 +translationFrom: built-in-nodes/FluxProDepthNode.mdx, zh-CN/built-in-nodes/FluxProDepthNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/FluxProDepthNode/en.md) + +このノードは、深度制御画像をガイドとして用いて画像を生成します。制御画像とテキストプロンプトを入力として受け取り、制御画像の深度情報とプロンプトの記述の両方に従った新しい画像を生成します。画像生成処理は、外部 API に接続して実行されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `control_image` | IMAGE | はい | - | 画像生成をガイドするために使用される深度制御画像 | +| `prompt` | STRING | いいえ | - | 画像生成のためのプロンプト(デフォルト:空文字列) | +| `prompt_upsampling` | BOOLEAN | いいえ | - | プロンプトに対してアップサンプリングを実行するかどうか。有効にすると、より創造的な生成を実現するためにプロンプトが自動的に変更されますが、結果は非決定的となります(同じシードでも完全に同一の結果が得られるとは限りません)。(デフォルト:False) | +| `skip_preprocessing` | BOOLEAN | いいえ | - | 前処理をスキップするかどうか。`control_image` がすでに深度化済みの画像である場合は `True`、生の画像である場合は `False` を指定します。(デフォルト:False) | +| `guidance` | FLOAT | いいえ | 1–100 | 画像生成処理におけるガイド強度(デフォルト:15) | +| `steps` | INT | いいえ | 15–50 | 画像生成処理のステップ数(デフォルト:50) | +| `seed` | INT | いいえ | 0–18446744073709551615 | ノイズ生成に使用される乱数シード。(デフォルト:0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output_image` | IMAGE | 深度制御画像およびプロンプトに基づいて生成された画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/FluxProExpandNode.mdx b/ja/built-in-nodes/FluxProExpandNode.mdx new file mode 100644 index 000000000..1b560f43c --- /dev/null +++ b/ja/built-in-nodes/FluxProExpandNode.mdx @@ -0,0 +1,35 @@ +--- +title: "FluxProExpandNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における FluxProExpandNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "FluxProExpandNode" +icon: "circle" +mode: wide +translationSourceHash: 0d150297 +translationFrom: built-in-nodes/FluxProExpandNode.mdx, zh-CN/built-in-nodes/FluxProExpandNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合や、改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/FluxProExpandNode/en.md) + +プロンプトに基づいて画像の外挿(アウトペイント)を行います。このノードは、画像の上部、下部、左側、右側にピクセルを追加することで画像を拡張し、同時に提供されたテキスト記述と一致する新しいコンテンツを生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 拡張対象の入力画像 | +| `prompt` | STRING | いいえ | - | 画像生成用のプロンプト(デフォルト:"") | +| `prompt_upsampling` | BOOLEAN | いいえ | - | プロンプトに対してアップサンプリングを実行するかどうか。有効にすると、より創造的な生成のために自動的にプロンプトが変更されますが、結果は非決定的になります(同じシードでも完全に同一の結果は得られません)。(デフォルト:False) | +| `top` | INT | いいえ | 0–2048 | 画像の上部に拡張するピクセル数(デフォルト:0) | +| `bottom` | INT | いいえ | 0–2048 | 画像の下部に拡張するピクセル数(デフォルト:0) | +| `left` | INT | いいえ | 0–2048 | 画像の左側に拡張するピクセル数(デフォルト:0) | +| `right` | INT | いいえ | 0–2048 | 画像の右側に拡張するピクセル数(デフォルト:0) | +| `guidance` | FLOAT | いいえ | 1.5–100 | 画像生成プロセスにおけるガイド強度(デフォルト:60) | +| `steps` | INT | いいえ | 15–50 | 画像生成プロセスにおけるステップ数(デフォルト:50) | +| `seed` | INT | いいえ | 0–18446744073709551615 | ノイズ生成に使用される乱数シード。(デフォルト:0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 拡張後の出力画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/FluxProFillNode.mdx b/ja/built-in-nodes/FluxProFillNode.mdx new file mode 100644 index 000000000..d648458bf --- /dev/null +++ b/ja/built-in-nodes/FluxProFillNode.mdx @@ -0,0 +1,32 @@ +--- +title: "FluxProFillNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における FluxProFillNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "FluxProFillNode" +icon: "circle" +mode: wide +translationSourceHash: c192c9c0 +translationFrom: built-in-nodes/FluxProFillNode.mdx, zh-CN/built-in-nodes/FluxProFillNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/FluxProFillNode/en.md) + +マスクとプロンプトに基づいて画像の修復(インペイント)を行います。このノードでは Flux.1 モデルを用い、提供されたテキスト説明に従って画像のマスク領域を埋め、周囲の画像内容と整合性のある新しいコンテンツを生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 修復対象の入力画像 | +| `mask` | MASK | はい | - | 画像のどの領域を埋めるかを定義するマスク | +| `prompt` | STRING | いいえ | - | 画像生成のためのプロンプト(デフォルト:空文字列) | +| `prompt_upsampling` | BOOLEAN | いいえ | - | プロンプトに対してアップサンプリング処理を実行するかどうか。有効にすると、より創造的な生成を実現するためにプロンプトが自動的に修正されますが、結果は非決定的となります(同一のシードでも完全に同一の結果は得られません)。(デフォルト:false) | +| `guidance` | FLOAT | いいえ | 1.5–100 | 画像生成プロセスにおけるガイド強度(デフォルト:60) | +| `steps` | INT | いいえ | 15–50 | 画像生成プロセスにおけるステップ数(デフォルト:50) | +| `seed` | INT | いいえ | 0–18446744073709551615 | ノイズ生成に使用される乱数シード(デフォルト:0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output_image` | IMAGE | プロンプトに基づきマスク領域を埋めた後に生成された画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/FluxProImageNode.mdx b/ja/built-in-nodes/FluxProImageNode.mdx new file mode 100644 index 000000000..30a019167 --- /dev/null +++ b/ja/built-in-nodes/FluxProImageNode.mdx @@ -0,0 +1,31 @@ +--- +title: "FluxProImageNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における FluxProImageNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "FluxProImageNode" +icon: "circle" +mode: wide +translationSourceHash: ae699a16 +translationFrom: built-in-nodes/FluxProImageNode.mdx, zh-CN/built-in-nodes/FluxProImageNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/FluxProImageNode/en.md) + +プロンプトと解像度に基づいて、同期的に画像を生成します。このノードは Flux 1.1 Pro モデルを用いて画像を作成し、API エンドポイントにリクエストを送信した後、生成された画像が完全に返されるのを待ってから結果を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | 画像生成のためのプロンプト(デフォルト:空文字列) | +| `prompt_upsampling` | BOOLEAN | はい | - | プロンプトに対してアップサンプリングを実行するかどうか。有効にすると、より創造的な生成を実現するためにプロンプトが自動的に修正されますが、結果は非決定的となります(同じシードでも完全に同一の結果は得られません)。(デフォルト:False) | +| `width` | INT | はい | 256–1440 | 画像の幅(ピクセル単位)(デフォルト:1024、ステップ:32) | +| `height` | INT | はい | 256–1440 | 画像の高さ(ピクセル単位)(デフォルト:768、ステップ:32) | +| `seed` | INT | はい | 0–18446744073709551615 | ノイズ生成に使用される乱数シード(デフォルト:0) | +| `image_prompt` | IMAGE | いいえ | - | 生成をガイドするためのオプションの参照画像 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | IMAGE | API から返された生成画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/FluxProUltraImageNode.mdx b/ja/built-in-nodes/FluxProUltraImageNode.mdx new file mode 100644 index 000000000..8c3d5d1e8 --- /dev/null +++ b/ja/built-in-nodes/FluxProUltraImageNode.mdx @@ -0,0 +1,34 @@ +--- +title: "FluxProUltraImageNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の FluxProUltraImageNode ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "FluxProUltraImageNode" +icon: "circle" +mode: wide +translationSourceHash: 2bab519e +translationFrom: built-in-nodes/FluxProUltraImageNode.mdx, zh-CN/built-in-nodes/FluxProUltraImageNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/FluxProUltraImageNode/en.md) + +このノードは、Flux Pro 1.1 Ultra の API を用いて、プロンプト(入力テキスト)と解像度に基づいて画像を生成します。外部サービスに接続し、ユーザーが指定したテキストによる説明および寸法に従って画像を作成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | 画像生成用のプロンプト(デフォルト:空文字列) | +| `prompt_upsampling` | BOOLEAN | いいえ | - | プロンプトに対して上採样(アップサンプリング)処理を実行するかどうかを指定します。有効にすると、より創造的な生成結果を得るために自動的にプロンプトが修正されますが、結果は非決定的となります(同一のシードを用いても、必ずしも同一の結果にはなりません)。(デフォルト:False) | +| `seed` | INT | いいえ | 0 ~ 18446744073709551615 | ノイズ生成に使用される乱数シードです。(デフォルト:0) | +| `aspect_ratio` | STRING | いいえ | - | 画像のアスペクト比。1:4 から 4:1 の範囲内である必要があります。(デフォルト:"16:9") | +| `raw` | BOOLEAN | いいえ | - | `True` の場合、加工が少なく、より自然な見た目の画像を生成します。(デフォルト:False) | +| `image_prompt` | IMAGE | いいえ | - | 生成をガイドするためのオプションの参照画像 | +| `image_prompt_strength` | FLOAT | いいえ | 0.0 ~ 1.0 | プロンプトと参照画像(`image_prompt`)の間のブレンド強度を制御します。(デフォルト:0.1) | + +**注意:** `aspect_ratio` パラメーターは 1:4 から 4:1 の範囲内である必要があります。`image_prompt` が指定された場合、`image_prompt_strength` が有効になり、参照画像が最終出力に与える影響の程度を制御します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output_image` | IMAGE | Flux Pro 1.1 Ultra によって生成された画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/FreSca.mdx b/ja/built-in-nodes/FreSca.mdx new file mode 100644 index 000000000..defa65c8b --- /dev/null +++ b/ja/built-in-nodes/FreSca.mdx @@ -0,0 +1,27 @@ +--- +title: "FreSca - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における FreSca ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "FreSca" +icon: "circle" +mode: wide +translationSourceHash: 86ef2afe +translationFrom: built-in-nodes/FreSca.mdx, zh-CN/built-in-nodes/FreSca.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/FreSca/en.md) + +FreSca ノードは、サンプリング過程においてガイド信号に周波数依存のスケーリングを適用します。このノードはフーリエフィルタリングを用いてガイド信号を低周波数成分と高周波数成分に分離し、それぞれの周波数帯域に異なるスケーリング係数を適用した後、再合成します。これにより、ガイド信号が生成結果のさまざまな側面に及ぼす影響をより精緻に制御することが可能になります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | 周波数スケーリングを適用するモデル | +| `scale_low` | FLOAT | いいえ | 0–10 | 低周波数成分に対するスケーリング係数(デフォルト: 1.0) | +| `scale_high` | FLOAT | いいえ | 0–10 | 高周波数成分に対するスケーリング係数(デフォルト: 1.25) | +| `freq_cutoff` | INT | いいえ | 1–10000 | 中心周波数を中心に低周波数とみなす周波数インデックスの数(デフォルト: 20) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | ガイド関数に周波数依存のスケーリングが適用された、変更済みのモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/FreeU.mdx b/ja/built-in-nodes/FreeU.mdx new file mode 100644 index 000000000..85db916dc --- /dev/null +++ b/ja/built-in-nodes/FreeU.mdx @@ -0,0 +1,28 @@ +--- +title: "FreeU - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における FreeU ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "FreeU" +icon: "circle" +mode: wide +translationSourceHash: 50a24435 +translationFrom: built-in-nodes/FreeU.mdx, zh-CN/built-in-nodes/FreeU.mdx +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/FreeU/en.md) + +FreeU ノードは、モデルの出力ブロックに対して周波数領域での変更を適用し、画像生成品質を向上させます。具体的には、異なるチャンネル群のスケーリングと、特定の特徴マップへのフーリエフィルタリングを組み合わせることで、生成プロセス中のモデルの挙動を精密に制御します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `model` | MODEL | はい | - | FreeU 変更を適用するモデル | +| `b1` | FLOAT | はい | 0.0 – 10.0 | `model_channels × 4` 特徴に対するバックボーンのスケーリング係数(デフォルト:1.1) | +| `b2` | FLOAT | はい | 0.0 – 10.0 | `model_channels × 2` 特徴に対するバックボーンのスケーリング係数(デフォルト:1.2) | +| `s1` | FLOAT | はい | 0.0 – 10.0 | `model_channels × 4` 特徴に対するスキップ接続のスケーリング係数(デフォルト:0.9) | +| `s2` | FLOAT | はい | 0.0 – 10.0 | `model_channels × 2` 特徴に対するスキップ接続のスケーリング係数(デフォルト:0.2) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `model` | MODEL | FreeU パッチが適用された修正済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/FreeU_V2.mdx b/ja/built-in-nodes/FreeU_V2.mdx new file mode 100644 index 000000000..f2fd6a2c2 --- /dev/null +++ b/ja/built-in-nodes/FreeU_V2.mdx @@ -0,0 +1,28 @@ +--- +title: "FreeU_V2 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における FreeU_V2 ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "FreeU_V2" +icon: "circle" +mode: wide +translationSourceHash: a8adc278 +translationFrom: built-in-nodes/FreeU_V2.mdx, zh-CN/built-in-nodes/FreeU_V2.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/FreeU_V2/en.md) + +FreeU_V2 ノードは、U-Net アーキテクチャを変更することで、周波数に基づく拡張処理を拡散モデルに適用します。このノードでは、設定可能なパラメーターを用いて異なる特徴チャンネルをスケーリングし、追加の学習を必要とせずに画像生成品質を向上させます。具体的には、モデルの出力ブロックをパッチ(修正)して、特定のチャンネル次元にスケーリング係数を適用します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `model` | MODEL | はい | - | FreeU 増強を適用する拡散モデル | +| `b1` | FLOAT | はい | 0.0 - 10.0 | 最初のブロックにおけるバックボーン特徴のスケーリング係数(デフォルト:1.3) | +| `b2` | FLOAT | はい | 0.0 - 10.0 | 2番目のブロックにおけるバックボーン特徴のスケーリング係数(デフォルト:1.4) | +| `s1` | FLOAT | はい | 0.0 - 10.0 | 最初のブロックにおけるスキップ特徴のスケーリング係数(デフォルト:0.9) | +| `s2` | FLOAT | はい | 0.0 - 10.0 | 2番目のブロックにおけるスキップ特徴のスケーリング係数(デフォルト:0.2) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `model` | MODEL | FreeU の修正が適用された拡張済み拡散モデル | \ No newline at end of file diff --git a/ja/built-in-nodes/GITSScheduler.mdx b/ja/built-in-nodes/GITSScheduler.mdx new file mode 100644 index 000000000..8b6aefc44 --- /dev/null +++ b/ja/built-in-nodes/GITSScheduler.mdx @@ -0,0 +1,28 @@ +--- +title: "GITSScheduler - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における GITSScheduler ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "GITSScheduler" +icon: "circle" +mode: wide +translationSourceHash: a4c67e2d +translationFrom: built-in-nodes/GITSScheduler.mdx, zh-CN/built-in-nodes/GITSScheduler.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合や、改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/GITSScheduler/en.md) + +GITSScheduler ノードは、GITS(生成的反復時間ステップ:Generative Iterative Time Steps)サンプリング手法向けにノイズスケジュールのシグマ値(`sigmas`)を生成します。このノードは、係数パラメーターとステップ数に基づいてシグマ値を計算し、実際の使用ステップ数を減らすことができるオプションのデノイズ係数もサポートしています。最終的なシグマスケジュールは、事前に定義されたノイズレベルと補間処理を用いて生成されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `coeff` | FLOAT | はい | 0.80 – 1.50 | ノイズスケジュール曲線を制御する係数値(デフォルト:1.20) | +| `steps` | INT | はい | 2 – 1000 | シグマ値を生成するための全サンプリングステップ数(デフォルト:10) | +| `denoise` | FLOAT | はい | 0.0 – 1.0 | 実際に使用されるステップ数を減少させるデノイズ係数(デフォルト:1.0) | + +**注意:** `denoise` を `0.0` に設定すると、ノードは空のテンソルを返します。また、`denoise` が `1.0` より小さい場合、実際に使用されるステップ数は `round(steps * denoise)` で計算されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `sigmas` | SIGMAS | ノイズスケジュールのために生成されたシグマ値 | \ No newline at end of file diff --git a/ja/built-in-nodes/GLIGENLoader.mdx b/ja/built-in-nodes/GLIGENLoader.mdx new file mode 100644 index 000000000..085d7733f --- /dev/null +++ b/ja/built-in-nodes/GLIGENLoader.mdx @@ -0,0 +1,24 @@ +--- +title: "GLIGENLoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における GLIGENLoader ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "GLIGENLoader" +icon: "circle" +mode: wide +translationSourceHash: 84a03866 +translationFrom: built-in-nodes/GLIGENLoader.mdx, zh-CN/built-in-nodes/GLIGENLoader.mdx +--- +このノードは、`ComfyUI/models/gligen` フォルダー内に配置されたモデルを検出し、さらに `extra_model_paths.yaml` ファイルで設定された追加パス上のモデルも読み込みます。場合によっては、対応するフォルダー内のモデルファイルを読み込むために、**ComfyUI インターフェースを更新する**必要があります。 + +`GLIGENLoader` ノードは、GLIGEN モデル(専用の生成モデル)を読み込むことを目的として設計されています。このノードにより、指定されたパスからこれらのモデルを取得・初期化するプロセスが簡略化され、その後の生成タスクにすぐに利用可能になります。 + +## 入力 + +| フィールド | Comfy dtype | 説明 | +|-----------------|-------------------|----------------------------------------------------------------------------------------| +| `gligen_name` | `COMBO[STRING]` | 読み込む GLIGEN モデルの名称です。どのモデルファイルを取得・読み込むかを指定し、GLIGEN モデルの初期化において極めて重要な役割を果たします。 | + +## 出力 + +| フィールド | データ型 | 説明 | +|-------------|----------|----------------------------------------------------------------------------------| +| `gligen` | `GLIGEN` | 読み込まれた GLIGEN モデルで、生成タスクにすぐに利用可能です。これは、指定されたパスから読み込まれ、完全に初期化されたモデルを表します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/GLIGENTextBoxApply.mdx b/ja/built-in-nodes/GLIGENTextBoxApply.mdx new file mode 100644 index 000000000..a3c14902f --- /dev/null +++ b/ja/built-in-nodes/GLIGENTextBoxApply.mdx @@ -0,0 +1,31 @@ +--- +title: "GLIGENTextBoxApply - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における GLIGENTextBoxApply ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "GLIGENTextBoxApply" +icon: "circle" +mode: wide +translationSourceHash: 515eaf20 +translationFrom: built-in-nodes/GLIGENTextBoxApply.mdx, zh-CN/built-in-nodes/GLIGENTextBoxApply.mdx +translationMismatches: + - "description" +--- +`GLIGENTextBoxApply` ノードは、テキストベースの条件情報を生成モデルの入力に統合することを目的として設計されており、具体的にはテキストボックスのパラメーターを適用し、CLIP モデルを用いてそれらをエンコードします。この処理により、空間情報とテキスト情報が条件情報に付与され、より正確かつ文脈を意識した画像生成を実現します。 + +## 入力 + +| パラメーター | Comfy データ型 | 説明 | +|----------------------|--------------------|------| +| `conditioning_to` | `CONDITIONING` | テキストボックスのパラメーターおよびエンコード済みテキスト情報を付加する対象となる初期条件入力を指定します。新しい条件データを統合することで、最終出力の決定に重要な役割を果たします。 | +| `clip` | `CLIP` | 提供されたテキストを、生成モデルで利用可能な形式にエンコードするために使用される CLIP モデルです。テキスト情報を互換性のある条件フォーマットに変換するために不可欠です。 | +| `gligen_textbox_model` | `GLIGEN` | テキストボックスの生成に使用される特定の GLIGEN モデル構成を表します。テキストボックスが所望の仕様に従って生成されることを保証するために重要です。 | +| `text` | `STRING` | エンコードおよび条件情報へ統合されるテキスト内容です。生成モデルをガイドする意味的情報を提供します。 | +| `width` | `INT` | テキストボックスの幅(ピクセル単位)。生成された画像内におけるテキストボックスの空間的サイズを定義します。 | +| `height` | `INT` | テキストボックスの高さ(ピクセル単位)。幅と同様に、生成された画像内におけるテキストボックスの空間的サイズを定義します。 | +| `x` | `INT` | 生成された画像内におけるテキストボックスの左上角の x 座標です。テキストボックスの水平方向の位置を指定します。 | +| `y` | `INT` | 生成された画像内におけるテキストボックスの左上角の y 座標です。テキストボックスの垂直方向の位置を指定します。 | + +## 出力 + +| パラメーター | Comfy データ型 | 説明 | +|----------------------|--------------------|------| +| `conditioning` | `CONDITIONING` | 拡張された条件出力で、元の条件データに加えて、新たに付加されたテキストボックスのパラメーターおよびエンコード済みテキスト情報が含まれます。これにより、生成モデルが文脈を意識した出力を生成する際に使用されます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/GLSLShader.mdx b/ja/built-in-nodes/GLSLShader.mdx new file mode 100644 index 000000000..609fde926 --- /dev/null +++ b/ja/built-in-nodes/GLSLShader.mdx @@ -0,0 +1,40 @@ +--- +title: "GLSLShader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における GLSLShader ノードの完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "GLSLShader" +icon: "circle" +mode: wide +translationSourceHash: d1b9e967 +translationFrom: built-in-nodes/GLSLShader.mdx, zh-CN/built-in-nodes/GLSLShader.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/GLSLShader/en.md) + +GLSL Shader ノードは、カスタムの GLSL ES フラグメントシェーダー コードを入力画像に適用します。このノードにより、複数の画像を処理し、一様パラメーター(浮動小数点数および整数)を受け付けるシェーダープログラムを作成して、複雑な視覚効果を実現できます。出力サイズは、最初の入力画像のサイズに基づいて自動決定されるか、手動で設定できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `fragment_shader` | STRING | はい | 該当なし | GLSL フラグメントシェーダーのソースコード(GLSL ES 3.00 / WebGL 2.0 互換)。デフォルト値:最初の入力画像をそのまま出力する基本的なシェーダー。 | +| `size_mode` | COMBO | はい | `"from_input"`
`"custom"` | 出力サイズのモード:`"from_input"` では最初の入力画像の寸法を使用し、`"custom"` では手動で寸法を設定できます。 | +| `width` | INT | いいえ | 1 ~ 16384 | `size_mode` を `"custom"` に設定した場合の出力画像の幅。デフォルト値:512。 | +| `height` | INT | いいえ | 1 ~ 16384 | `size_mode` を `"custom"` に設定した場合の出力画像の高さ。デフォルト値:512。 | +| `images` | IMAGE | はい | 1 ~ 8 枚の画像 | シェーダーによって処理される入力画像。シェーダーコード内では、`u_image0` ~ `u_image7`(`sampler2D` 型)として利用可能です。 | +| `floats` | FLOAT | いいえ | 0 ~ 8 個の浮動小数点数 | シェーダー用の一様浮動小数点数値。シェーダーコード内では、`u_float0` ~ `u_float7` として利用可能です。デフォルト値:0.0。 | +| `ints` | INT | いいえ | 0 ~ 8 個の整数 | シェーダー用の一様整数値。シェーダーコード内では、`u_int0` ~ `u_int7` として利用可能です。デフォルト値:0。 | + +**補足事項:** + +* `width` および `height` パラメーターは、`size_mode` を `"custom"` に設定した場合のみ必須であり、その際に表示されます。 +* 少なくとも 1 枚の入力画像が必要です。 +* シェーダーコードには常に、出力サイズを格納した `u_resolution`(`vec2` 型)という一様変数が利用可能です。 +* 入力画像は最大 8 枚、浮動小数点数の一様変数は最大 8 個、整数の一様変数も最大 8 個まで指定できます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `IMAGE0` | IMAGE | シェーダーから出力される最初の画像。シェーダーコード内では `layout(location = 0) out vec4 fragColor0` により提供されます。 | +| `IMAGE1` | IMAGE | シェーダーから出力される 2 番目の画像。シェーダーコード内では `layout(location = 1) out vec4 fragColor1` により提供されます。 | +| `IMAGE2` | IMAGE | シェーダーから出力される 3 番目の画像。シェーダーコード内では `layout(location = 2) out vec4 fragColor2` により提供されます。 | +| `IMAGE3` | IMAGE | シェーダーから出力される 4 番目の画像。シェーダーコード内では `layout(location = 3) out vec4 fragColor3` により提供されます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/GeminiImage.mdx b/ja/built-in-nodes/GeminiImage.mdx new file mode 100644 index 000000000..7022f9c25 --- /dev/null +++ b/ja/built-in-nodes/GeminiImage.mdx @@ -0,0 +1,33 @@ +--- +title: "GeminiImage - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の GeminiImage ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "GeminiImage" +icon: "circle" +mode: wide +translationSourceHash: 65c86faa +translationFrom: built-in-nodes/GeminiImage.mdx, zh-CN/built-in-nodes/GeminiImage.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合や、改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/GeminiImage/en.md) + +GeminiImage ノードは、Google の Gemini AI モデルを用いてテキストおよび画像の応答を生成します。このノードでは、テキストプロンプト、画像、ファイルなど、マルチモーダルな入力を提供し、一貫性のあるテキストおよび画像出力を生成できます。また、最新の Gemini モデルとのすべての API 通信および応答の解析を自動的に処理します。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `prompt` | STRING | 必須 | "" | - | 生成に使用するテキストプロンプト | +| `model` | COMBO | 必須 | gemini_2_5_flash_image_preview | 利用可能な Gemini モデル
オプションは `GeminiImageModel` 列挙型から抽出されます | 応答生成に使用する Gemini モデル | +| `seed` | INT | 必須 | 42 | 0 ~ 18446744073709551615 | シード値を特定の値に固定すると、モデルは同一のリクエストに対してできる限り同一の応答を返すよう努めます。ただし、出力の決定性は保証されません。また、モデルや温度などのパラメーター設定を変更した場合、たとえ同一のシード値を使用しても応答が変化する可能性があります。デフォルトでは、ランダムなシード値が使用されます。 | +| `images` | IMAGE | 任意 | なし | - | モデルのコンテキストとして使用する任意の画像。複数の画像を含める場合は、Batch Images ノードをご利用ください。 | +| `files` | GEMINI_INPUT_FILES | 任意 | なし | - | モデルのコンテキストとして使用する任意のファイル。Gemini Generate Content Input Files ノードからの入力を受け付けます。 | + +**注:** このノードには、`auth_token`、`comfy_api_key`、`unique_id` といった隠しパラメーターが含まれており、これらはシステムによって自動的に処理されるため、ユーザーによる入力は不要です。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `IMAGE` | IMAGE | Gemini モデルによって生成された画像応答 | +| `STRING` | STRING | Gemini モデルによって生成されたテキスト応答 | \ No newline at end of file diff --git a/ja/built-in-nodes/GeminiImage2Node.mdx b/ja/built-in-nodes/GeminiImage2Node.mdx new file mode 100644 index 000000000..755052edb --- /dev/null +++ b/ja/built-in-nodes/GeminiImage2Node.mdx @@ -0,0 +1,40 @@ +--- +title: "GeminiImage2Node - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における GeminiImage2Node ノードの完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "GeminiImage2Node" +icon: "circle" +mode: wide +translationSourceHash: 8b5b3735 +translationFrom: built-in-nodes/GeminiImage2Node.mdx, zh-CN/built-in-nodes/GeminiImage2Node.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひ貢献してください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/GeminiImage2Node/en.md) + +GeminiImage2Node は、Google の Vertex AI Gemini モデルを用いて画像を生成または編集するノードです。テキストプロンプトおよび任意の参照画像やファイルを API に送信し、生成された画像および/またはテキストによる説明を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | 該当なし | 生成する画像または適用する編集内容を記述するテキストプロンプトです。モデルが従うべき制約、スタイル、詳細などを含めてください。 | +| `model` | COMBO | はい | `"gemini-3-pro-image-preview"` | 生成に使用する特定の Gemini モデルです。 | +| `seed` | INT | はい | 0 ~ 18446744073709551615 | 特定の値に固定すると、モデルは同一のリクエストに対して可能な限り同じ応答を返すよう努めます。ただし、出力の決定論的保証はされません。モデルやその他の設定を変更すると、同一のシードであっても出力が変化する可能性があります。デフォルト値:42。 | +| `aspect_ratio` | COMBO | はい | `"auto"`
`"1:1"`
`"2:3"`
`"3:2"`
`"3:4"`
`"4:3"`
`"4:5"`
`"5:4"`
`"9:16"`
`"16:9"`
`"21:9"` | 出力画像の希望するアスペクト比です。「auto」に設定した場合、入力画像のアスペクト比に一致します。入力画像が指定されていない場合は、通常 16:9 の正方形(※注:原文では「square」とあるが、16:9 は正方形ではないため、日本語では「矩形」または単に「画像」が適切)が生成されます。デフォルト値:`"auto"`。 | +| `resolution` | COMBO | はい | `"1K"`
`"2K"`
`"4K"` | 目標出力解像度です。2K/4K の場合、Gemini 独自のネイティブアップスケーラーが使用されます。 | +| `response_modalities` | COMBO | はい | `"IMAGE+TEXT"`
`"IMAGE"` | 「IMAGE」を選択すると画像のみが出力され、「IMAGE+TEXT」を選択すると生成画像とテキスト応答の両方が返されます。 | +| `images` | IMAGE | いいえ | 該当なし | オプションの参照画像です。複数の画像を含めるには、Batch Images ノードを使用してください(最大 14 枚まで)。 | +| `files` | CUSTOM | いいえ | 該当なし | モデルのコンテキストとして使用するオプションのファイルです。Gemini Generate Content Input Files ノードからの出力を受け付けます。 | +| `system_prompt` | STRING | いいえ | 該当なし | AI の振る舞いを規定する基本的な指示です。デフォルト値:画像生成向けに事前に定義されたシステムプロンプトです。 | + +**制約条件:** + +* `images` 入力は最大 14 枚の画像をサポートします。それより多い画像を指定するとエラーが発生します。 +* `files` 入力は、`GEMINI_INPUT_FILES` データ型を出力するノードに接続する必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | Gemini モデルによって生成または編集された画像です。 | +| `string` | STRING | モデルからのテキスト応答です。`response_modalities` が `"IMAGE"` に設定されている場合、この出力は空になります。 | \ No newline at end of file diff --git a/ja/built-in-nodes/GeminiImageNode.mdx b/ja/built-in-nodes/GeminiImageNode.mdx new file mode 100644 index 000000000..536bcb8ed --- /dev/null +++ b/ja/built-in-nodes/GeminiImageNode.mdx @@ -0,0 +1,31 @@ +--- +title: "GeminiImageNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における GeminiImageNode ノードの完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "GeminiImageNode" +icon: "circle" +mode: wide +translationSourceHash: b29cf619 +translationFrom: built-in-nodes/GeminiImageNode.mdx, zh-CN/built-in-nodes/GeminiImageNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/GeminiImage/en.md) + +GeminiImage ノードは、Google の Gemini AI モデルを用いてテキストおよび画像の応答を生成します。このノードでは、テキストプロンプト、画像、ファイルなどのマルチモーダル入力を提供でき、一貫性のあるテキストおよび画像出力を生成します。ノードは、最新の Gemini モデルとのすべての API 通信および応答の解析を自動的に処理します。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | 初期値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `prompt` | STRING | 必須 | "" | - | 生成に使用するテキストプロンプト | +| `model` | COMBO | 必須 | gemini_2_5_flash_image_preview | 利用可能な Gemini モデル
オプションは `GeminiImageModel` 列挙型から抽出されます | 応答生成に使用する Gemini モデル | +| `seed` | INT | 必須 | 42 | 0 ~ 18446744073709551615 | シード値を特定の値に固定すると、モデルは同一のリクエストに対してできる限り同一の応答を返すよう努めます。ただし、確定的な出力は保証されません。また、モデルや温度などのパラメーター設定を変更した場合、たとえ同一のシード値を使用していても、応答が変化する可能性があります。デフォルトでは、ランダムなシード値が使用されます | +| `images` | IMAGE | 任意 | なし | - | モデルのコンテキストとして使用する任意の画像(複数枚の画像を含める場合は、Batch Images ノードをご利用ください) | +| `files` | GEMINI_INPUT_FILES | 任意 | なし | - | モデルのコンテキストとして使用する任意のファイル(Gemini Generate Content Input Files ノードからの入力を受け付けます) | + +*注:このノードには、システムが自動的に処理する非表示のパラメーター(`auth_token`、`comfy_api_key`、`unique_id`)が含まれており、ユーザーによる入力は不要です。* + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `IMAGE` | IMAGE | Gemini モデルによって生成された画像応答 | +| `STRING` | STRING | Gemini モデルによって生成されたテキスト応答 | \ No newline at end of file diff --git a/ja/built-in-nodes/GeminiInputFiles.mdx b/ja/built-in-nodes/GeminiInputFiles.mdx new file mode 100644 index 000000000..c575dda3a --- /dev/null +++ b/ja/built-in-nodes/GeminiInputFiles.mdx @@ -0,0 +1,29 @@ +--- +title: "GeminiInputFiles - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の GeminiInputFiles ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "GeminiInputFiles" +icon: "circle" +mode: wide +translationSourceHash: 5d22cb63 +translationFrom: built-in-nodes/GeminiInputFiles.mdx, zh-CN/built-in-nodes/GeminiInputFiles.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/GeminiInputFiles/en.md) + +Gemini API で使用するための入力ファイルを読み込み、フォーマットします。このノードでは、テキストファイル(`.txt`)および PDF ファイル(`.pdf`)を Gemini モデルの入力コンテキストとして含めることができます。ファイルは API が要求する適切な形式に変換され、複数のファイルを単一のリクエストに含めるためにチェーン化(連結)することも可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `file` | COMBO | はい | 複数の選択肢が利用可能 | モデルのコンテキストとして含める入力ファイルです。現時点ではテキストファイル(`.txt`)および PDF ファイル(`.pdf`)のみ対応しています。ファイルサイズは、最大入力ファイルサイズ制限より小さくなければなりません。 | +| `GEMINI_INPUT_FILES` | GEMINI_INPUT_FILES | いいえ | 該当なし | このノードで読み込まれたファイルとまとめてバッチ処理する、オプションの追加ファイルです。入力ファイルをチェーン化(連結)することで、1つのメッセージに複数の入力ファイルを含めることができます。 | + +**注意:** `file` パラメーターには、最大入力ファイルサイズ制限より小さいテキストファイル(`.txt`)および PDF ファイル(`.pdf`)のみが表示されます。ファイルは自動的に名前順にフィルタリングおよび並べ替えられます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `GEMINI_INPUT_FILES` | GEMINI_INPUT_FILES | Gemini LLM ノードで使用可能な、フォーマット済みのファイルデータです。読み込まれたファイルの内容が、API に必要な形式で含まれています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/GeminiNode.mdx b/ja/built-in-nodes/GeminiNode.mdx new file mode 100644 index 000000000..81b53a70b --- /dev/null +++ b/ja/built-in-nodes/GeminiNode.mdx @@ -0,0 +1,32 @@ +--- +title: "GeminiNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の GeminiNode ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "GeminiNode" +icon: "circle" +mode: wide +translationSourceHash: 7a01439a +translationFrom: built-in-nodes/GeminiNode.mdx, zh-CN/built-in-nodes/GeminiNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/GeminiNode/en.md) + +このノードを使用すると、Google の Gemini AI モデルと連携してテキスト応答を生成できます。モデルがより関連性が高く、意味のある応答を生成できるよう、テキスト、画像、音声、動画、ファイルなど、さまざまな種類の入力をコンテキストとして提供できます。ノードは、すべての API 通信および応答の解析を自動的に処理します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | モデルへのテキスト入力で、応答を生成するために使用されます。詳細な指示、質問、またはコンテキスト情報を含めることができます。デフォルト値:空文字列。 | +| `model` | COMBO | はい | `gemini-2.0-flash-exp`
`gemini-2.0-flash-thinking-exp`
`gemini-2.5-pro-exp`
`gemini-2.0-flash`
`gemini-2.0-flash-thinking`
`gemini-2.5-pro`
`gemini-2.0-flash-lite`
`gemini-1.5-flash`
`gemini-1.5-flash-8b`
`gemini-1.5-pro`
`gemini-1.0-pro` | 応答生成に使用する Gemini モデルです。デフォルト値:`gemini-2.5-pro`。 | +| `seed` | INT | はい | 0 ~ 18446744073709551615 | シード値を特定の値に固定すると、モデルは同一のリクエストに対して可能な限り同一の応答を返すよう努めます。ただし、出力が完全に決定論的であるとは限りません。また、モデルや温度などのパラメーター設定を変更した場合、たとえ同一のシード値を使用していても、応答に変化が生じる可能性があります。デフォルトでは、ランダムなシード値が使用されます。デフォルト値:42。 | +| `images` | IMAGE | いいえ | - | モデルのコンテキストとして使用するオプションの画像です。複数の画像を含めるには、「Batch Images」ノードをご利用ください。デフォルト値:なし。 | +| `audio` | AUDIO | いいえ | - | モデルのコンテキストとして使用するオプションの音声です。デフォルト値:なし。 | +| `video` | VIDEO | いいえ | - | モデルのコンテキストとして使用するオプションの動画です。デフォルト値:なし。 | +| `files` | GEMINI_INPUT_FILES | いいえ | - | モデルのコンテキストとして使用するオプションのファイルです。「Gemini Generate Content Input Files」ノードからの入力を受け付けます。デフォルト値:なし。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `STRING` | STRING | Gemini モデルによって生成されたテキスト応答です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/GenerateTracks.mdx b/ja/built-in-nodes/GenerateTracks.mdx new file mode 100644 index 000000000..19fc61657 --- /dev/null +++ b/ja/built-in-nodes/GenerateTracks.mdx @@ -0,0 +1,42 @@ +--- +title: "GenerateTracks - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の GenerateTracks ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "GenerateTracks" +icon: "circle" +mode: wide +translationSourceHash: 369711ca +translationFrom: built-in-nodes/GenerateTracks.mdx, zh-CN/built-in-nodes/GenerateTracks.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/GenerateTracks/en.md) + +`GenerateTracks` ノードは、動画生成用に複数の平行な運動軌跡(トラック)を作成します。このノードでは、始点から終点へと伸びる主軌跡を定義し、その軌跡に平行かつ均等な間隔で配置された一連の補助軌跡を生成します。軌跡の形状(直線またはベジェ曲線)、軌跡上での移動速度、および各軌跡が表示されるフレームを制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `width` | INT | はい | 16 - 4096 | 動画フレームの幅(ピクセル単位)。デフォルト値は 832 です。 | +| `height` | INT | はい | 16 - 4096 | 動画フレームの高さ(ピクセル単位)。デフォルト値は 480 です。 | +| `start_x` | FLOAT | はい | 0.0 - 1.0 | 始点位置の正規化 X 座標(0–1)。デフォルト値は 0.0 です。 | +| `start_y` | FLOAT | はい | 0.0 - 1.0 | 始点位置の正規化 Y 座標(0–1)。デフォルト値は 0.0 です。 | +| `end_x` | FLOAT | はい | 0.0 - 1.0 | 終点位置の正規化 X 座標(0–1)。デフォルト値は 1.0 です。 | +| `end_y` | FLOAT | はい | 0.0 - 1.0 | 終点位置の正規化 Y 座標(0–1)。デフォルト値は 1.0 です。 | +| `num_frames` | INT | はい | 1 - 1024 | トラック位置を生成する対象となる全フレーム数。デフォルト値は 81 です。 | +| `num_tracks` | INT | はい | 1 - 100 | 生成する平行トラックの数。デフォルト値は 5 です。 | +| `track_spread` | FLOAT | はい | 0.0 - 1.0 | トラック間の正規化距離。トラックは運動方向に対して垂直な方向に展開されます。デフォルト値は 0.025 です。 | +| `bezier` | BOOLEAN | はい | True / False | 中間点を制御点として用いるベジェ曲線パスを有効化します。デフォルト値は False です。 | +| `mid_x` | FLOAT | はい | 0.0 - 1.0 | ベジェ曲線の正規化 X 制御点。`bezier` が有効な場合のみ使用されます。デフォルト値は 0.5 です。 | +| `mid_y` | FLOAT | はい | 0.0 - 1.0 | ベジェ曲線の正規化 Y 制御点。`bezier` が有効な場合のみ使用されます。デフォルト値は 0.5 です。 | +| `interpolation` | COMBO | はい | `"linear"`
`"ease_in"`
`"ease_out"`
`"ease_in_out"`
`"constant"` | トラック上の移動タイミング/速度を制御します。デフォルト値は `"linear"` です。 | +| `track_mask` | MASK | いいえ | - | 表示されるフレームを指定するためのオプションマスクです。 | + +**注意:** `mid_x` および `mid_y` パラメーターは、`bezier` パラメーターが `True` に設定されている場合にのみ使用されます。`bezier` が `False` の場合、パスは始点から終点への直線となります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `TRACKS` | TRACKS | すべてのフレームにおけるすべてのトラックの生成された軌跡座標および可視性情報を含むトラックオブジェクトです。 | +| `track_length` | INT | トラックが生成されたフレーム数で、入力パラメーター `num_frames` と一致します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/GetImageSize.mdx b/ja/built-in-nodes/GetImageSize.mdx new file mode 100644 index 000000000..36380562f --- /dev/null +++ b/ja/built-in-nodes/GetImageSize.mdx @@ -0,0 +1,27 @@ +--- +title: "GetImageSize - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における GetImageSize ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "GetImageSize" +icon: "circle" +mode: wide +translationSourceHash: c9c74aa2 +translationFrom: built-in-nodes/GetImageSize.mdx, zh-CN/built-in-nodes/GetImageSize.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/GetImageSize/en.md) + +GetImageSize ノードは、入力画像から画像サイズ(幅・高さ)およびバッチ情報(バッチサイズ)を抽出します。このノードは、入力画像の幅、高さ、およびバッチサイズをそれぞれ出力として返すとともに、これらの情報をノードインターフェース上に進行状況テキストとして表示します。元の画像データは変更されず、そのまま通過します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | サイズ情報を抽出する対象となる入力画像 | +| `unique_id` | UNIQUE_ID | いいえ | - | 進行状況情報を表示するために使用される内部識別子 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `width` | INT | 入力画像の幅(ピクセル単位) | +| `height` | INT | 入力画像の高さ(ピクセル単位) | +| `batch_size` | INT | バッチ内の画像数 | \ No newline at end of file diff --git a/ja/built-in-nodes/GetVideoComponents.mdx b/ja/built-in-nodes/GetVideoComponents.mdx new file mode 100644 index 000000000..2f2e9ffb3 --- /dev/null +++ b/ja/built-in-nodes/GetVideoComponents.mdx @@ -0,0 +1,26 @@ +--- +title: "GetVideoComponents - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における GetVideoComponents ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "GetVideoComponents" +icon: "circle" +mode: wide +translationSourceHash: c3d5a3f9 +translationFrom: built-in-nodes/GetVideoComponents.mdx, zh-CN/built-in-nodes/GetVideoComponents.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/GetVideoComponents/en.md) + +Get Video Components ノードは、動画ファイルからすべての主要な要素を抽出します。このノードは動画を個別のフレームに分割し、音声トラックを抽出するとともに、動画のフレームレート情報を提供します。これにより、各要素を独立して処理・分析するための後続作業が可能になります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `video` | VIDEO | はい | - | コンポーネントを抽出する対象の動画ファイル。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `images` | IMAGE | 動画から抽出された個別のフレーム(それぞれが独立した画像として出力されます)。 | +| `audio` | AUDIO | 動画から抽出された音声トラック。 | +| `fps` | FLOAT | 動画のフレームレート(1 秒あたりのフレーム数)。 | \ No newline at end of file diff --git a/ja/built-in-nodes/GrokImageEditNode.mdx b/ja/built-in-nodes/GrokImageEditNode.mdx new file mode 100644 index 000000000..6939a1d6e --- /dev/null +++ b/ja/built-in-nodes/GrokImageEditNode.mdx @@ -0,0 +1,33 @@ +--- +title: "GrokImageEditNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における GrokImageEditNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "GrokImageEditNode" +icon: "circle" +mode: wide +translationSourceHash: 7ff61659 +translationFrom: built-in-nodes/GrokImageEditNode.mdx, zh-CN/built-in-nodes/GrokImageEditNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/GrokImageEditNode/en.md) + +Grok Image Edit ノードは、テキストプロンプトに基づいて既存の画像を変更します。このノードでは Grok API を使用し、ユーザーの記述に従って入力画像のバリエーションである1枚以上の新しい画像を生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"grok-imagine-image-beta"` | 画像編集に使用する特定の AI モデルです。 | +| `image` | IMAGE | はい | | 編集対象の入力画像です。1枚の画像のみがサポートされます。 | +| `prompt` | STRING | はい | | 編集済み画像を生成する際に使用するテキストプロンプトです。 | +| `resolution` | COMBO | はい | `"1K"` | 出力画像の解像度です。 | +| `number_of_images` | INT | いいえ | 1~10 | 生成する編集済み画像の枚数(デフォルト:1)。 | +| `seed` | INT | いいえ | 0~2147483647 | ノードを再実行するかどうかを決定するシード値です。ただし、実際の生成結果はシード値に関わらず非決定的です(デフォルト:0)。 | + +**注意:** `image` 入力には、正確に1枚の画像のみを含める必要があります。複数の画像を指定するとエラーが発生します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | IMAGE | このノードによって生成された編集済み画像です。`number_of_images` が1より大きい場合、出力はバッチとして連結されます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/GrokImageNode.mdx b/ja/built-in-nodes/GrokImageNode.mdx new file mode 100644 index 000000000..0659e89d3 --- /dev/null +++ b/ja/built-in-nodes/GrokImageNode.mdx @@ -0,0 +1,32 @@ +--- +title: "GrokImageNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の GrokImageNode ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "GrokImageNode" +icon: "circle" +mode: wide +translationSourceHash: 115343c2 +translationFrom: built-in-nodes/GrokImageNode.mdx, zh-CN/built-in-nodes/GrokImageNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善の提案をお持ちの場合には、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/GrokImageNode/en.md) + +Grok Image ノードは、Grok AI モデルを用いてテキストによる説明に基づき、1 枚以上の画像を生成します。このノードは、ユーザーが指定したプロンプトを外部サービスに送信し、生成された画像をワークフロー内で利用可能なテンソルとして返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"grok-imagine-image-beta"` | 画像生成に使用する特定の Grok モデルです。 | +| `prompt` | STRING | はい | N/A | 画像生成に使用するテキストプロンプトです。この説明文が、AI が何を作成すべきかを指示します。 | +| `aspect_ratio` | COMBO | はい | `"1:1"`
`"2:3"`
`"3:2"`
`"3:4"`
`"4:3"`
`"9:16"`
`"16:9"`
`"9:19.5"`
`"19.5:9"`
`"9:20"`
`"20:9"`
`"1:2"`
`"2:1"` | 生成される画像の希望する横幅と高さの比率(アスペクト比)です。 | +| `number_of_images` | INT | いいえ | 1 ~ 10 | 生成する画像の枚数(デフォルト値:1)。 | +| `seed` | INT | いいえ | 0 ~ 2147483647 | ノードを再実行するかどうかを判定するためのシード値です。実際の画像生成結果は非決定的であり、同一のシード値を用いた場合でも結果は変化します(デフォルト値:0)。 | + +**注意:** `seed` パラメーターは、主にワークフロー内でノードがいつ再実行されるかを制御するために使用されます。外部 AI サービスの性質上、生成される画像は再現不可能であり、同一のシード値を用いても複数回実行した場合の結果は完全に一致しません。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | IMAGE | 生成された画像、または画像のバッチです。`number_of_images` が 1 の場合、単一の画像テンソルが返されます。1 より大きい場合は、画像テンソルのバッチが返されます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/GrokVideoEditNode.mdx b/ja/built-in-nodes/GrokVideoEditNode.mdx new file mode 100644 index 000000000..75ce0a849 --- /dev/null +++ b/ja/built-in-nodes/GrokVideoEditNode.mdx @@ -0,0 +1,34 @@ +--- +title: "GrokVideoEditNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における GrokVideoEditNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "GrokVideoEditNode" +icon: "circle" +mode: wide +translationSourceHash: 19b4ed2b +translationFrom: built-in-nodes/GrokVideoEditNode.mdx, zh-CN/built-in-nodes/GrokVideoEditNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/GrokVideoEditNode/en.md) + +このノードは Grok API を使用して、テキストプロンプトに基づいて既存の動画を編集します。ユーザーの動画をアップロードし、AI モデルに対してその説明に従った編集を依頼し、新たに生成された動画を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"grok-imagine-video-beta"` | 動画編集に使用する AI モデル。 | +| `prompt` | STRING | はい | なし | 望ましい動画を記述するテキスト。 | +| `video` | VIDEO | はい | なし | 編集対象の入力動画。最大サポート再生時間は 8.7 秒、ファイルサイズは 50MB までです。 | +| `seed` | INT | いいえ | 0 ~ 2147483647 | ノードを再実行するかどうかを決定するシード値。実際の結果はシード値に関わらず非決定的です(デフォルト値:0)。 | + +**制約条件:** + +* 入力 `video` の再生時間は 1 秒以上 8.7 秒以下である必要があります。 +* 入力 `video` のファイルサイズは 50MB を超えてはいけません。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `video` | VIDEO | AI モデルによって生成された編集済みの動画。 | \ No newline at end of file diff --git a/ja/built-in-nodes/GrokVideoNode.mdx b/ja/built-in-nodes/GrokVideoNode.mdx new file mode 100644 index 000000000..06c47bf00 --- /dev/null +++ b/ja/built-in-nodes/GrokVideoNode.mdx @@ -0,0 +1,34 @@ +--- +title: "GrokVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における GrokVideoNode ノードの完全なドキュメントです。入力、出力、パラメーター、および使い方について学びましょう。" +sidebarTitle: "GrokVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 5c9bd6c6 +translationFrom: built-in-nodes/GrokVideoNode.mdx, zh-CN/built-in-nodes/GrokVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/GrokVideoNode/en.md) + +Grok Video ノードは、テキストによる説明から短い動画を生成します。このノードでは、プロンプトを用いて動画をゼロから作成するか、あるいはプロンプトに基づいて単一の入力画像をアニメーション化することができます。本ノードは外部 API にリクエストを送信し、生成された動画を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"grok-imagine-video-beta"` | 動画生成に使用するモデル。 | +| `prompt` | STRING | はい | - | 生成したい動画のテキストによる説明。 | +| `resolution` | COMBO | はい | `"480p"`
`"720p"` | 出力動画の解像度。 | +| `aspect_ratio` | COMBO | はい | `"auto"`
`"16:9"`
`"4:3"`
`"3:2"`
`"1:1"`
`"2:3"`
`"3:4"`
`"9:16"` | 出力動画のアスペクト比。 | +| `duration` | INT | はい | 1 ~ 15 | 出力動画の再生時間(秒単位、デフォルト値:6)。 | +| `seed` | INT | はい | 0 ~ 2147483647 | ノードを再実行するかどうかを判定するためのシード値。ただし、実際の生成結果はシード値に関わらず非決定的です(デフォルト値:0)。 | +| `image` | IMAGE | いいえ | - | アニメーション化するための任意の入力画像。 | + +**注意:** `image` を指定する場合、単一の画像のみがサポートされます。複数の画像を指定するとエラーが発生します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画。 | \ No newline at end of file diff --git a/ja/built-in-nodes/GrowMask.mdx b/ja/built-in-nodes/GrowMask.mdx new file mode 100644 index 000000000..0e995f524 --- /dev/null +++ b/ja/built-in-nodes/GrowMask.mdx @@ -0,0 +1,24 @@ +--- +title: "GrowMask - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における GrowMask ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "GrowMask" +icon: "circle" +mode: wide +translationSourceHash: ef1df115 +translationFrom: built-in-nodes/GrowMask.mdx, zh-CN/built-in-nodes/GrowMask.mdx +--- +`GrowMask` ノードは、与えられたマスクのサイズを拡大または縮小するように設計されており、オプションで角にテーパー(徐々に細くなる)効果を適用できます。この機能は、画像処理タスクにおいてマスクの境界を動的に調整する際に非常に重要であり、関心領域(ROI)に対するより柔軟かつ精密な制御を可能にします。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `mask` | MASK | 変更対象となる入力マスクです。このパラメーターはノードの動作の中心であり、マスクの拡大または縮小が行われる基盤となります。 | +| `expand` | INT | マスクの変更量と方向を決定します。正の値ではマスクが拡大され、負の値では縮小されます。このパラメーターは、マスクの最終的なサイズに直接影響を与えます。 | +| `tapered_corners` | BOOLEAN | ブール型フラグで、`True` に設定すると、マスクの変更時に角にテーパー効果を適用します。このオプションにより、より滑らかな遷移と視覚的に魅力的な結果が得られます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `mask` | MASK | 指定された拡大/縮小およびオプションの角のテーパー効果を適用した後の変更済みマスクです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/HitPawGeneralImageEnhance.mdx b/ja/built-in-nodes/HitPawGeneralImageEnhance.mdx new file mode 100644 index 000000000..3d49bc6ec --- /dev/null +++ b/ja/built-in-nodes/HitPawGeneralImageEnhance.mdx @@ -0,0 +1,31 @@ +--- +title: "HitPawGeneralImageEnhance - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における HitPawGeneralImageEnhance ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "HitPawGeneralImageEnhance" +icon: "circle" +mode: wide +translationSourceHash: 127581d4 +translationFrom: built-in-nodes/HitPawGeneralImageEnhance.mdx, zh-CN/built-in-nodes/HitPawGeneralImageEnhance.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/HitPawGeneralImageEnhance/en.md) + +このノードは、低解像度画像を超高解像度(スーパーレゾリューション)にアップスケールすることで画像品質を向上させ、同時にアーティファクトやノイズを除去します。画像処理には外部 API を使用しており、処理制限を超えないよう入力サイズを自動的に調整できます。最大許容出力サイズは 400 万ピクセル(4MP)です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | STRING | はい | `"generative_portrait"`
`"generative"` | 使用する画像強調モデル。 | +| `image` | IMAGE | はい | - | 強調処理を行う入力画像。 | +| `upscale_factor` | INT | はい | `1`
`2`
`4` | 画像の寸法を拡大する倍率。 | +| `auto_downscale` | BOOLEAN | いいえ | - | 出力が制限を超える場合に、入力画像を自動的に縮小するか。(デフォルト: `False`) | + +**注意:** 計算された出力サイズ(入力高さ × `upscale_factor` × 入力幅 × `upscale_factor`)が 4,000,000 ピクセル(4MP)を超え、かつ `auto_downscale` が無効になっている場合、ノードはエラーを発生させます。`auto_downscale` が有効な場合、ノードは指定されたアップスケール倍率を適用する前に、入力画像を制限内に収まるよう縮小しようと試みます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 強調処理およびアップスケール済みの出力画像。 | \ No newline at end of file diff --git a/ja/built-in-nodes/HitPawVideoEnhance.mdx b/ja/built-in-nodes/HitPawVideoEnhance.mdx new file mode 100644 index 000000000..9c8d06efa --- /dev/null +++ b/ja/built-in-nodes/HitPawVideoEnhance.mdx @@ -0,0 +1,31 @@ +--- +title: "HitPawVideoEnhance - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における HitPawVideoEnhance ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "HitPawVideoEnhance" +icon: "circle" +mode: wide +translationSourceHash: abf8701c +translationFrom: built-in-nodes/HitPawVideoEnhance.mdx, zh-CN/built-in-nodes/HitPawVideoEnhance.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/HitPawVideoEnhance/en.md) + +HitPaw Video Enhance ノードは外部 API を使用して動画の品質を向上させます。低解像度の動画を高解像度にアップスケールし、視覚的なアーティファクトを除去し、ノイズを低減します。処理コストは入力動画の再生時間(1 秒あたり)に基づいて計算されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | DYNAMIC COMBO | はい | 複数の選択肢あり | 動画強調に使用する AI モデルです。モデルを選択すると、ネストされた `resolution` パラメーターが表示されます。 | +| `model.resolution` | COMBO | はい | `"original"`
`"720p"`
`"1080p"`
`"2k/qhd"`
`"4k/uhd"`
`"8k"` | 強調後の動画のターゲット解像度です。一部のオプションは選択した `model` によって利用不可となる場合があります。 | +| `video` | VIDEO | はい | なし | 強調対象の入力動画ファイルです。 | + +**制約条件:** + +* 入力 `video` の再生時間は 0.5 秒以上 60 分(3600 秒)以下である必要があります。 +* 選択した `resolution` は入力動画の解像度より大きい必要があります。動画が正方形の場合、選択した解像度はその幅/高さより大きくなければなりません。非正方形の動画では、選択した解像度は動画の短辺の長さより大きくなければなりません。ターゲット解像度が小さい場合、エラーが発生します。入力動画の解像度を維持するには、`"original"` を選択してください。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `video` | VIDEO | 強調後の動画ファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Hunyuan3Dv2Conditioning.mdx b/ja/built-in-nodes/Hunyuan3Dv2Conditioning.mdx new file mode 100644 index 000000000..573828e2a --- /dev/null +++ b/ja/built-in-nodes/Hunyuan3Dv2Conditioning.mdx @@ -0,0 +1,27 @@ +--- +title: "Hunyuan3Dv2Conditioning - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における Hunyuan3Dv2Conditioning ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Hunyuan3Dv2Conditioning" +icon: "circle" +mode: wide +translationSourceHash: cba10612 +translationFrom: built-in-nodes/Hunyuan3Dv2Conditioning.mdx, zh-CN/built-in-nodes/Hunyuan3Dv2Conditioning.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Hunyuan3Dv2Conditioning/en.md) + +Hunyuan3Dv2Conditioning ノードは、CLIP ビジョン出力を処理して、動画モデル向けの条件付けデータを生成します。このノードは、ビジョン出力から最終隠れ状態の埋め込み(embeddings)を抽出し、正の条件付けデータと負の条件付けデータのペアを作成します。正の条件付けには実際の埋め込みが使用され、負の条件付けには正の埋め込みと同じ形状を持つゼロ値の埋め込みが使用されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `clip_vision_output` | CLIP_VISION_OUTPUT | はい | - | 視覚埋め込みを含む CLIP ビジョンモデルの出力 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | CLIP ビジョン埋め込みを含む正の条件付けデータ | +| `negative` | CONDITIONING | 正の埋め込みと同じ形状を持つゼロ値埋め込みを含む負の条件付けデータ | \ No newline at end of file diff --git a/ja/built-in-nodes/Hunyuan3Dv2ConditioningMultiView.mdx b/ja/built-in-nodes/Hunyuan3Dv2ConditioningMultiView.mdx new file mode 100644 index 000000000..d6d09636c --- /dev/null +++ b/ja/built-in-nodes/Hunyuan3Dv2ConditioningMultiView.mdx @@ -0,0 +1,30 @@ +--- +title: "Hunyuan3Dv2ConditioningMultiView - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における Hunyuan3Dv2ConditioningMultiView ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Hunyuan3Dv2ConditioningMultiView" +icon: "circle" +mode: wide +translationSourceHash: 6aeedf80 +translationFrom: built-in-nodes/Hunyuan3Dv2ConditioningMultiView.mdx, zh-CN/built-in-nodes/Hunyuan3Dv2ConditioningMultiView.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください![GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Hunyuan3Dv2ConditioningMultiView/en.md) + +Hunyuan3Dv2ConditioningMultiView ノードは、3D動画生成向けにマルチビューのCLIP視覚埋め込み(multi-view CLIP vision embeddings)を処理します。このノードは、前方・左方・後方・右方の各視点に対応する埋め込みを任意で受け取り、それらを位置エンコーディング(positional encoding)と組み合わせることで、動画モデル用の条件付けデータ(conditioning data)を生成します。ノードは、組み合わせた埋め込みから得られる「正の条件付け(positive conditioning)」と、ゼロ値による「負の条件付け(negative conditioning)」の両方を出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `front` | CLIP_VISION_OUTPUT | いいえ | - | 前方視点のCLIP視覚出力 | +| `left` | CLIP_VISION_OUTPUT | いいえ | - | 左方視点のCLIP視覚出力 | +| `back` | CLIP_VISION_OUTPUT | いいえ | - | 後方視点のCLIP視覚出力 | +| `right` | CLIP_VISION_OUTPUT | いいえ | - | 右方視点のCLIP視覚出力 | + +**注意:** ノードが正常に動作するには、少なくとも1つの視点入力が必須です。ノードは、有効なCLIP視覚出力データを含む視点のみを処理します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 位置エンコーディングを付与したマルチビュー埋め込みを統合した正の条件付けデータ | +| `negative` | CONDITIONING | 対比学習(contrastive learning)のために用いられるゼロ値の負の条件付けデータ | \ No newline at end of file diff --git a/ja/built-in-nodes/HunyuanImageToVideo.mdx b/ja/built-in-nodes/HunyuanImageToVideo.mdx new file mode 100644 index 000000000..67787b80c --- /dev/null +++ b/ja/built-in-nodes/HunyuanImageToVideo.mdx @@ -0,0 +1,40 @@ +--- +title: "HunyuanImageToVideo - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の HunyuanImageToVideo ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "HunyuanImageToVideo" +icon: "circle" +mode: wide +translationSourceHash: 515a1577 +translationFrom: built-in-nodes/HunyuanImageToVideo.mdx, zh-CN/built-in-nodes/HunyuanImageToVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見した場合や改善のご提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/HunyuanImageToVideo/en.md) + +HunyuanImageToVideo ノードは、混元(Hunyuan)動画モデルを用いて画像を動画の潜在表現(latent representation)に変換します。このノードは条件付け入力と任意の開始画像を受け取り、動画生成モデルによる後続処理が可能な動画潜在表現を生成します。また、開始画像が動画生成プロセスに与える影響を制御するため、複数のガイドタイプ(guidance types)をサポートしています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | 動画生成をガイドするための正方向の条件付け入力 | +| `vae` | VAE | はい | - | 画像を潜在空間へエンコードする際に使用される VAE モデル | +| `width` | INT | はい | 16 ~ MAX_RESOLUTION | 出力動画の幅(ピクセル単位、デフォルト:848、ステップ:16) | +| `height` | INT | はい | 16 ~ MAX_RESOLUTION | 出力動画の高さ(ピクセル単位、デフォルト:480、ステップ:16) | +| `length` | INT | はい | 1 ~ MAX_RESOLUTION | 出力動画のフレーム数(デフォルト:53、ステップ:4) | +| `batch_size` | INT | はい | 1 ~ 4096 | 同時に生成する動画の数(デフォルト:1) | +| `guidance_type` | COMBO | はい | "v1 (concat)"
"v2 (replace)"
"custom" | 開始画像を動画生成に組み込む方法 | +| `start_image` | IMAGE | いいえ | - | 動画生成を初期化するための任意の開始画像 | + +**注意:** `start_image` が指定された場合、選択された `guidance_type` に応じて、以下の異なるガイド方式が適用されます。 + +- 「v1 (concat)」:画像の潜在表現を動画の潜在表現と連結(concatenate)します。 +- 「v2 (replace)」:動画の初期フレームを画像の潜在表現で置き換えます。 +- 「custom」:画像を参照用の潜在表現としてガイドに使用します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | `start_image` が指定された場合、画像によるガイドが適用された修正済みの正方向条件付け | +| `latent` | LATENT | 動画生成モデルによる後続処理が可能な動画の潜在表現 | \ No newline at end of file diff --git a/ja/built-in-nodes/HunyuanRefinerLatent.mdx b/ja/built-in-nodes/HunyuanRefinerLatent.mdx new file mode 100644 index 000000000..f1f5083ca --- /dev/null +++ b/ja/built-in-nodes/HunyuanRefinerLatent.mdx @@ -0,0 +1,31 @@ +--- +title: "HunyuanRefinerLatent - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における HunyuanRefinerLatent ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "HunyuanRefinerLatent" +icon: "circle" +mode: wide +translationSourceHash: e2f7dd7e +translationFrom: built-in-nodes/HunyuanRefinerLatent.mdx, zh-CN/built-in-nodes/HunyuanRefinerLatent.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/HunyuanRefinerLatent/en.md) + +HunyuanRefinerLatent ノードは、精製(リファイン)処理における条件付け入力および潜在表現(ラテント)入力を処理します。このノードは、正の条件付けと負の条件付けの両方にノイズ増強を適用するとともに、潜在画像データを統合し、後続処理用の特定の次元を持つ新しい潜在表現出力を生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | 処理対象の正の条件付け入力 | +| `negative` | CONDITIONING | はい | - | 処理対象の負の条件付け入力 | +| `latent` | LATENT | はい | - | 潜在表現(ラテント)入力 | +| `noise_augmentation` | FLOAT | はい | 0.0 – 1.0 | 適用するノイズ増強の量(デフォルト値:0.10) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | ノイズ増強および潜在画像の連結が適用された、処理済みの正の条件付け | +| `negative` | CONDITIONING | ノイズ増強および潜在画像の連結が適用された、処理済みの負の条件付け | +| `latent` | LATENT | 次元が `[batch_size, 32, height, width, channels]` の新しい潜在表現(ラテント)出力 | \ No newline at end of file diff --git a/ja/built-in-nodes/HunyuanVideo15ImageToVideo.mdx b/ja/built-in-nodes/HunyuanVideo15ImageToVideo.mdx new file mode 100644 index 000000000..fbcd9aa27 --- /dev/null +++ b/ja/built-in-nodes/HunyuanVideo15ImageToVideo.mdx @@ -0,0 +1,38 @@ +--- +title: "HunyuanVideo15ImageToVideo - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における HunyuanVideo15ImageToVideo ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "HunyuanVideo15ImageToVideo" +icon: "circle" +mode: wide +translationSourceHash: 653121a6 +translationFrom: built-in-nodes/HunyuanVideo15ImageToVideo.mdx, zh-CN/built-in-nodes/HunyuanVideo15ImageToVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひ貢献してください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/HunyuanVideo15ImageToVideo/en.md) + +HunyuanVideo15ImageToVideo ノードは、HunyuanVideo 1.5 モデルに基づいて、動画生成のための条件付け情報(conditioning)および潜在空間データを準備します。このノードは動画シーケンスの初期潜在表現を作成し、必要に応じて開始画像または CLIP ビジョン出力を統合して、生成プロセスをガイドします。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | 動画に含めるべき内容を記述するポジティブな条件付けプロンプトです。 | +| `negative` | CONDITIONING | はい | - | 動画に含めないよう回避すべき内容を記述するネガティブな条件付けプロンプトです。 | +| `vae` | VAE | はい | - | 開始画像を潜在空間へエンコードするために使用される VAE(変分オートエンコーダ)モデルです。 | +| `width` | INT | いいえ | 16 ~ MAX_RESOLUTION | 出力動画フレームの幅(ピクセル単位)。16 の倍数である必要があります。(デフォルト:848) | +| `height` | INT | いいえ | 16 ~ MAX_RESOLUTION | 出力動画フレームの高さ(ピクセル単位)。16 の倍数である必要があります。(デフォルト:480) | +| `length` | INT | いいえ | 1 ~ MAX_RESOLUTION | 動画シーケンスの全フレーム数です。(デフォルト:33) | +| `batch_size` | INT | いいえ | 1 ~ 4096 | 1 回のバッチ処理で生成する動画シーケンスの数です。(デフォルト:1) | +| `start_image` | IMAGE | いいえ | - | 動画生成を初期化するための任意の開始画像です。指定した場合、この画像はエンコードされ、最初のフレームの条件付けに使用されます。 | +| `clip_vision_output` | CLIP_VISION_OUTPUT | いいえ | - | 生成に追加の視覚的条件付けを提供するための任意の CLIP ビジョン埋め込みです。 | + +**注意:** `start_image` が指定された場合、その画像はバイリニア補間を用いて、指定された `width` および `height` に自動的にリサイズされます。また、画像バッチの先頭 `length` 枚のフレームが使用されます。エンコードされた画像は、対応する `concat_mask` を伴う `concat_latent_image` として、`positive` 条件付けおよび `negative` 条件付けの両方に追加されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 変更後のポジティブ条件付けで、エンコード済みの開始画像または CLIP ビジョン出力が含まれている場合があります。 | +| `negative` | CONDITIONING | 変更後のネガティブ条件付けで、エンコード済みの開始画像または CLIP ビジョン出力が含まれている場合があります。 | +| `latent` | LATENT | 指定されたバッチサイズ、動画長、幅および高さに応じて次元が設定された空の潜在テンソルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/HunyuanVideo15LatentUpscaleWithModel.mdx b/ja/built-in-nodes/HunyuanVideo15LatentUpscaleWithModel.mdx new file mode 100644 index 000000000..3bea5d0a4 --- /dev/null +++ b/ja/built-in-nodes/HunyuanVideo15LatentUpscaleWithModel.mdx @@ -0,0 +1,33 @@ +--- +title: "HunyuanVideo15LatentUpscaleWithModel - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における HunyuanVideo15LatentUpscaleWithModel ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "HunyuanVideo15LatentUpscaleWithModel" +icon: "circle" +mode: wide +translationSourceHash: cf2adca1 +translationFrom: built-in-nodes/HunyuanVideo15LatentUpscaleWithModel.mdx, zh-CN/built-in-nodes/HunyuanVideo15LatentUpscaleWithModel.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見した場合、または改善のための提案がある場合は、ぜひご貢献ください![GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/HunyuanVideo15LatentUpscaleWithModel/en.md) + +Hunyuan Video 1.5 Latent Upscale With Model ノードは、潜在画像表現の解像度を向上させます。まず、選択された補間手法を用いて潜在サンプルを指定サイズまでアップスケールし、その後、専用の Hunyuan Video 1.5 アップスケールモデルを用いてアップスケール結果を精製し、画質を向上させます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | LATENT_UPSCALE_MODEL | はい | N/A | アップスケール後のサンプルを精製するために使用される Hunyuan Video 1.5 潜在アップスケールモデルです。 | +| `samples` | LATENT | はい | N/A | アップスケール対象の潜在画像表現です。 | +| `upscale_method` | COMBO | いいえ | `"nearest-exact"`
`"bilinear"`
`"area"`
`"bicubic"`
`"bislerp"` | 初期アップスケール工程で使用される補間アルゴリズムです(デフォルト:`"bilinear"`)。 | +| `width` | INT | いいえ | 0 ~ 16384 | アップスケール後の潜在画像の目標幅(ピクセル単位)です。値が 0 の場合、目標高さと元のアスペクト比に基づいて幅が自動計算されます。最終的な出力幅は必ず16の倍数になります(デフォルト:1280)。 | +| `height` | INT | いいえ | 0 ~ 16384 | アップスケール後の潜在画像の目標高さ(ピクセル単位)です。値が 0 の場合、目標幅と元のアスペクト比に基づいて高さが自動計算されます。最終的な出力高さは必ず16の倍数になります(デフォルト:720)。 | +| `crop` | COMBO | いいえ | `"disabled"`
`"center"` | アップスケール後の潜在画像を目標寸法に収める際の切り抜き方法を指定します。 | + +**寸法に関する注意事項:** `width` と `height` の両方が 0 に設定された場合、ノードは入力 `samples` を変更せずにそのまま返します。一方の寸法のみが 0 に設定された場合、もう一方の寸法は元のアスペクト比を維持するように自動計算されます。最終的な寸法は、常に最低でも 64 ピクセル以上となり、かつ 16 の倍数に調整されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `LATENT` | LATENT | アップスケールおよびモデルによる精製が完了した潜在画像表現です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/HunyuanVideo15SuperResolution.mdx b/ja/built-in-nodes/HunyuanVideo15SuperResolution.mdx new file mode 100644 index 000000000..cb7522c07 --- /dev/null +++ b/ja/built-in-nodes/HunyuanVideo15SuperResolution.mdx @@ -0,0 +1,36 @@ +--- +title: "HunyuanVideo15SuperResolution - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における HunyuanVideo15SuperResolution ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "HunyuanVideo15SuperResolution" +icon: "circle" +mode: wide +translationSourceHash: 4da2858f +translationFrom: built-in-nodes/HunyuanVideo15SuperResolution.mdx, zh-CN/built-in-nodes/HunyuanVideo15SuperResolution.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見した場合、または改善のための提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/HunyuanVideo15SuperResolution/en.md) + +HunyuanVideo15SuperResolution ノードは、動画の超解像処理に必要な条件付けデータを準備します。このノードは動画の潜在表現(latent representation)を入力として受け取り、任意で開始画像(start image)も受け取ります。その後、これらのデータにノイズ拡張(noise augmentation)およびCLIPビジョンデータを付与し、モデルが高解像度出力を生成するために利用可能な形式にパッケージ化します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | N/A | 潜在データおよび拡張データで変更される正の条件付け入力です。 | +| `negative` | CONDITIONING | はい | N/A | 潜在データおよび拡張データで変更される負の条件付け入力です。 | +| `vae` | VAE | いいえ | N/A | 任意の `start_image` をエンコードするために使用されるVAEです。`start_image` を指定する場合は必須です。 | +| `start_image` | IMAGE | いいえ | N/A | 超解像処理をガイドするための任意の開始画像です。指定された場合、この画像は自動的にアップスケールされ、条件付け用の潜在空間へエンコードされます。 | +| `clip_vision_output` | CLIP_VISION_OUTPUT | いいえ | N/A | 条件付けデータに追加する任意のCLIPビジョン埋め込み(embedding)です。 | +| `latent` | LATENT | はい | N/A | 条件付けデータに統合される入力潜在動画表現です。 | +| `noise_augmentation` | FLOAT | いいえ | 0.0 – 1.0 | 条件付けデータに適用するノイズ拡張の強さ(デフォルト値:0.70)。 | + +**注意:** `start_image` を指定する場合は、そのエンコードのために必ず `vae` も接続する必要があります。`start_image` は、入力 `latent` から暗に示される解像度に自動的にアップスケールされます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 変更後の正の条件付けデータです。これには結合された潜在データ、ノイズ拡張、および任意のCLIPビジョンデータが含まれます。 | +| `negative` | CONDITIONING | 変更後の負の条件付けデータです。これには結合された潜在データ、ノイズ拡張、および任意のCLIPビジョンデータが含まれます。 | +| `latent` | LATENT | 入力された潜在データは、変更されずにそのまま出力されます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/HyperTile.mdx b/ja/built-in-nodes/HyperTile.mdx new file mode 100644 index 000000000..b10da9a16 --- /dev/null +++ b/ja/built-in-nodes/HyperTile.mdx @@ -0,0 +1,30 @@ +--- +title: "HyperTile - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の HyperTile ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "HyperTile" +icon: "circle" +mode: wide +translationSourceHash: fc404881 +translationFrom: built-in-nodes/HyperTile.mdx, zh-CN/built-in-nodes/HyperTile.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/HyperTile/en.md) + +HyperTile ノードは、拡散モデルにおけるアテンション機構にタイリング(分塊)技術を適用し、画像生成時のメモリ使用量を最適化します。潜在空間をより小さなタイル(図塊)に分割し、それぞれを個別に処理した後、結果を再構成します。これにより、メモリ不足を起こさずに、より大きな画像サイズを扱えるようになります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | HyperTile 最適化を適用する拡散モデル | +| `tile_size` | INT | いいえ | 1–2048 | 処理対象のタイル(図塊)サイズ(デフォルト:256) | +| `swap_size` | INT | いいえ | 1–128 | 処理中にタイル(図塊)をどのように再配置するかを制御(デフォルト:2) | +| `max_depth` | INT | いいえ | 0–10 | タイリング(分塊)を適用する最大の深さレベル(デフォルト:0) | +| `scale_depth` | BOOLEAN | いいえ | - | 深さレベルに応じてタイル(図塊)サイズをスケーリングするかどうか(デフォルト:False) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | HyperTile 最適化が適用された変更済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/HypernetworkLoader.mdx b/ja/built-in-nodes/HypernetworkLoader.mdx new file mode 100644 index 000000000..394f6e6ef --- /dev/null +++ b/ja/built-in-nodes/HypernetworkLoader.mdx @@ -0,0 +1,26 @@ +--- +title: "HypernetworkLoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における HypernetworkLoader ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "HypernetworkLoader" +icon: "circle" +mode: wide +translationSourceHash: 15aec0a9 +translationFrom: built-in-nodes/HypernetworkLoader.mdx, zh-CN/built-in-nodes/HypernetworkLoader.mdx +--- +このノードは、`ComfyUI/models/hypernetworks` フォルダー内にあるモデルを検出し、さらに `extra_model_paths.yaml` ファイルで設定された追加パスからもモデルを読み込みます。場合によっては、対応するフォルダー内のモデルファイルを読み込むために、**ComfyUI インターフェースを更新する**必要があります。 + +HypernetworkLoader ノードは、超ネットワーク(Hypernetwork)を適用することにより、指定されたモデルの機能を強化または変更することを目的として設計されています。このノードは、指定された超ネットワークを読み込み、モデルに適用します。その際、`strength`(強度)パラメーターに応じて、モデルの動作や性能が変化することがあります。このプロセスにより、モデルのアーキテクチャやパラメーターを動的に調整可能となり、より柔軟かつ適応性の高い AI システムを実現できます。 + +## 入力 + +| パラメーター名 | Comfy dtype | 説明 | +|------------------------|-------------------|-------------------------------------------------------------------------------------------| +| `model` | `MODEL` | 超ネットワークを適用するベースモデル。これは、超ネットワークによって強化または変更されるアーキテクチャを決定する重要なパラメーターです。 | +| `hypernetwork_name` | `COMBO[STRING]` | モデルに読み込んで適用する超ネットワークの名称。どの超ネットワークを使用するかを指定し、モデルの変更後の動作や性能に影響を与えます。 | +| `strength` | `FLOAT` | 超ネットワークのモデルへの影響の強さを調整するスカラー値。これにより、モデルの動作や性能に対する変更の度合いを微調整できます。 | + +## 出力 + +| パラメーター名 | データ型 | 説明 | +|--------------|----------|----------------------------------------------------------------------| +| `model` | `MODEL` | 超ネットワークを適用した後の変更済みモデル。この出力は、元のモデルに対して行われた変更を反映し、超ネットワークの影響を示します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/IdeogramV1.mdx b/ja/built-in-nodes/IdeogramV1.mdx new file mode 100644 index 000000000..bc55ed897 --- /dev/null +++ b/ja/built-in-nodes/IdeogramV1.mdx @@ -0,0 +1,32 @@ +--- +title: "IdeogramV1 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における IdeogramV1 ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "IdeogramV1" +icon: "circle" +mode: wide +translationSourceHash: 0e15683a +translationFrom: built-in-nodes/IdeogramV1.mdx, zh-CN/built-in-nodes/IdeogramV1.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/IdeogramV1/en.md) + +IdeogramV1 ノードは、API を介して Ideogram V1 モデルを使用して画像を生成します。テキストプロンプトおよび各種生成設定を受け取り、入力に基づいて1枚以上の画像を生成します。このノードでは、出力をカスタマイズするため、さまざまなアスペクト比および生成モードがサポートされています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | 画像生成用のプロンプト(デフォルト:空) | +| `turbo` | BOOLEAN | はい | - | ターボモードを使用するかどうか(生成速度が速くなるが、品質が若干低下する可能性あり)(デフォルト:False) | +| `aspect_ratio` | COMBO | いいえ | "1:1"
"16:9"
"9:16"
"4:3"
"3:4"
"3:2"
"2:3" | 画像生成時のアスペクト比(デフォルト:"1:1") | +| `magic_prompt_option` | COMBO | いいえ | "AUTO"
"ON"
"OFF" | 生成時に MagicPrompt を使用するかどうかを指定(デフォルト:"AUTO") | +| `seed` | INT | いいえ | 0–2147483647 | 生成に使用する乱数シード値(デフォルト:0) | +| `negative_prompt` | STRING | いいえ | - | 画像から除外する要素の説明(デフォルト:空) | +| `num_images` | INT | いいえ | 1–8 | 生成する画像の枚数(デフォルト:1) | + +**注意:** `num_images` パラメーターは、1回の生成リクエストあたり最大8枚までという制限があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | IMAGE | Ideogram V1 モデルによって生成された画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/IdeogramV2.mdx b/ja/built-in-nodes/IdeogramV2.mdx new file mode 100644 index 000000000..f3a32f5f1 --- /dev/null +++ b/ja/built-in-nodes/IdeogramV2.mdx @@ -0,0 +1,36 @@ +--- +title: "IdeogramV2 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における IdeogramV2 ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "IdeogramV2" +icon: "circle" +mode: wide +translationSourceHash: 1ed78832 +translationFrom: built-in-nodes/IdeogramV2.mdx, zh-CN/built-in-nodes/IdeogramV2.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/IdeogramV2/en.md) + +Ideogram V2 ノードは、Ideogram V2 AI モデルを用いて画像を生成します。このノードはテキストプロンプトおよびさまざまな生成設定を受け取り、API サービスを通じて画像を作成します。ノードは、出力画像をカスタマイズするための異なるアスペクト比、解像度、およびスタイルオプションをサポートしています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | 画像生成のためのプロンプト(デフォルト:空文字列) | +| `turbo` | BOOLEAN | いいえ | - | ターボモードを使用するかどうか(生成が高速化されるが、品質が低下する可能性あり)(デフォルト:False) | +| `aspect_ratio` | COMBO | いいえ | "1:1"
"16:9"
"9:16"
"4:3"
"3:4"
"3:2"
"2:3" | 画像生成時のアスペクト比。解像度が「AUTO」に設定されていない場合は無視されます。(デフォルト:"1:1") | +| `resolution` | COMBO | いいえ | "Auto"
"1024x1024"
"1152x896"
"896x1152"
"1216x832"
"832x1216"
"1344x768"
"768x1344"
"1536x640"
"640x1536" | 画像生成時の解像度。"Auto" に設定されていない場合、この値が `aspect_ratio` の設定を上書きします。(デフォルト:"Auto") | +| `magic_prompt_option` | COMBO | いいえ | "AUTO"
"ON"
"OFF" | 生成時に MagicPrompt を使用するかどうかを指定します(デフォルト:"AUTO") | +| `seed` | INT | いいえ | 0–2147483647 | 生成時の乱数シード(デフォルト:0) | +| `style_type` | COMBO | いいえ | "AUTO"
"GENERAL"
"REALISTIC"
"DESIGN"
"RENDER_3D"
"ANIME" | 生成時のスタイルタイプ(V2 専用)(デフォルト:"NONE") | +| `negative_prompt` | STRING | いいえ | - | 画像から除外する要素の説明(デフォルト:空文字列) | +| `num_images` | INT | いいえ | 1–8 | 生成する画像の枚数(デフォルト:1) | + +**注意:** `resolution` が「Auto」に設定されていない場合、`aspect_ratio` の設定は無視されます。`num_images` パラメーターは、1 回の生成あたり最大 8 枚までと制限されています。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | IMAGE | Ideogram V2 モデルによって生成された画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/IdeogramV3.mdx b/ja/built-in-nodes/IdeogramV3.mdx new file mode 100644 index 000000000..84d6e629f --- /dev/null +++ b/ja/built-in-nodes/IdeogramV3.mdx @@ -0,0 +1,45 @@ +--- +title: "IdeogramV3 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における IdeogramV3 ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "IdeogramV3" +icon: "circle" +mode: wide +translationSourceHash: a3db4eef +translationFrom: built-in-nodes/IdeogramV3.mdx, zh-CN/built-in-nodes/IdeogramV3.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/IdeogramV3/en.md) + +Ideogram V3 ノードは、Ideogram V3 モデルを用いて画像を生成します。テキストプロンプトからの通常の画像生成に加え、画像とマスクの両方が提供された場合の画像編集もサポートしています。このノードでは、アスペクト比、解像度、生成速度、およびオプションのキャラクター参照画像を制御するためのさまざまな設定が利用可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | 画像生成または編集用のプロンプト(デフォルト:空) | +| `image` | IMAGE | いいえ | - | 画像編集用のオプションの参照画像 | +| `mask` | MASK | いいえ | - | インペインティング用のオプションのマスク(白い領域が置き換えられます) | +| `aspect_ratio` | COMBO | いいえ | "1:1"
"16:9"
"9:16"
"4:3"
"3:4"
"3:2"
"2:3" | 画像生成時のアスペクト比。解像度が「Auto」に設定されていない場合は無視されます(デフォルト:"1:1") | +| `resolution` | COMBO | いいえ | "Auto"
"1024x1024"
"1152x896"
"896x1152"
"1216x832"
"832x1216"
"1344x768"
"768x1344"
"1536x640"
"640x1536" | 画像生成時の解像度。「Auto」に設定されていない場合、この値が `aspect_ratio` の設定を上書きします(デフォルト:"Auto") | +| `magic_prompt_option` | COMBO | いいえ | "AUTO"
"ON"
"OFF" | 生成時に MagicPrompt を使用するかどうかを指定します(デフォルト:"AUTO") | +| `seed` | INT | いいえ | 0–2147483647 | 生成時の乱数シード(デフォルト:0) | +| `num_images` | INT | いいえ | 1–8 | 生成する画像の枚数(デフォルト:1) | +| `rendering_speed` | COMBO | いいえ | "DEFAULT"
"TURBO"
"QUALITY" | 生成速度と画質のトレードオフを制御します(デフォルト:"DEFAULT") | +| `character_image` | IMAGE | いいえ | - | キャラクター参照として使用する画像 | +| `character_mask` | MASK | いいえ | - | キャラクター参照画像用のオプションのマスク | + +**パラメーター制約:** + +- `image` と `mask` の両方が提供された場合、ノードは編集モードに切り替わります +- `image` または `mask` のいずれか一方のみが提供された場合、エラーが発生します +- `character_mask` を使用するには、`character_image` も必ず指定する必要があります +- `resolution` が「Auto」に設定されていない場合、`aspect_ratio` パラメーターは無視されます +- インペインティング時、マスク内の白い領域が置き換えられます +- キャラクターマスクとキャラクター画像は、サイズが一致している必要があります + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | IMAGE | 生成または編集された画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageAddNoise.mdx b/ja/built-in-nodes/ImageAddNoise.mdx new file mode 100644 index 000000000..fb491a15c --- /dev/null +++ b/ja/built-in-nodes/ImageAddNoise.mdx @@ -0,0 +1,26 @@ +--- +title: "ImageAddNoise - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ImageAddNoise ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageAddNoise" +icon: "circle" +mode: wide +translationSourceHash: 400dc776 +translationFrom: built-in-nodes/ImageAddNoise.mdx, zh-CN/built-in-nodes/ImageAddNoise.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ImageAddNoise/en.md) + +ImageAddNoise ノードは、入力画像にランダムなノイズを追加します。このノードでは、指定された乱数シードを使用して一貫性のあるノイズパターンを生成し、ノイズ効果の強さを制御できます。出力画像は入力画像と同じサイズを維持しますが、視覚的なテクスチャ(ノイズ)が付与されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | ノイズを追加する対象の入力画像 | +| `seed` | INT | はい | 0 ~ 18446744073709551615 | ノイズ生成に使用される乱数シード(デフォルト値:0) | +| `strength` | FLOAT | はい | 0.0 ~ 1.0 | ノイズ効果の強さを制御します(デフォルト値:0.5) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | ノイズが適用された出力画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageBatch.mdx b/ja/built-in-nodes/ImageBatch.mdx new file mode 100644 index 000000000..e6f02135a --- /dev/null +++ b/ja/built-in-nodes/ImageBatch.mdx @@ -0,0 +1,23 @@ +--- +title: "ImageBatch - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の ImageBatch ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageBatch" +icon: "circle" +mode: wide +translationSourceHash: 6932bce5 +translationFrom: built-in-nodes/ImageBatch.mdx, zh-CN/built-in-nodes/ImageBatch.mdx +--- +`ImageBatch` ノードは、2枚の画像を1つのバッチに結合する目的で設計されています。画像のサイズが一致しない場合、このノードは自動的に2番目の画像をリスケールし、1番目の画像のサイズに合わせたうえで結合します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `image1` | `IMAGE` | バッチに結合される最初の画像です。必要に応じて、2番目の画像を調整する際の基準となるサイズを指定します。 | +| `image2` | `IMAGE` | バッチに結合される2番目の画像です。サイズが異なる場合、自動的に1番目の画像のサイズに合わせてリスケールされます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `image` | `IMAGE` | 結合された画像のバッチです。必要に応じて、2番目の画像は1番目の画像のサイズに合わせてリスケールされています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageBlend.mdx b/ja/built-in-nodes/ImageBlend.mdx new file mode 100644 index 000000000..a8921548a --- /dev/null +++ b/ja/built-in-nodes/ImageBlend.mdx @@ -0,0 +1,25 @@ +--- +title: "ImageBlend - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の ImageBlend ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageBlend" +icon: "circle" +mode: wide +translationSourceHash: 6ff8add9 +translationFrom: built-in-nodes/ImageBlend.mdx, zh-CN/built-in-nodes/ImageBlend.mdx +--- +`ImageBlend` ノードは、指定されたブレンドモードおよびブレンド係数に基づいて、2 枚の画像を合成するように設計されています。通常(Normal)、乗算(Multiply)、スクリーン(Screen)、オーバーレイ(Overlay)、ソフトライト(Soft Light)、差分(Difference)などのさまざまなブレンドモードをサポートしており、多様な画像編集および合成技術を実現できます。このノードは、2 つの画像レイヤー間の視覚的相互作用を調整することで複合画像を作成する際に不可欠です。 + +## 入力 + +| フィールド | データ型 | 説明 | +|--------------------|----------|----------------------------------------------------------------------------------------| +| `image1` | `IMAGE` | 合成対象となる最初の画像です。ブレンド処理におけるベースレイヤーとして機能します。 | +| `image2` | `IMAGE` | 合成対象となる2番目の画像です。ブレンドモードに応じて、最初の画像の外観を変更します。 | +| `blend_factor` | `FLOAT` | 第2の画像がブレンドに与える影響の重みを決定します。値が大きいほど、結果の合成画像において第2の画像の影響が強くなります。 | +| `blend_mode` | COMBO[STRING] | 2枚の画像を合成する方式を指定します。通常(Normal)、乗算(Multiply)、スクリーン(Screen)、オーバーレイ(Overlay)、ソフトライト(Soft Light)、差分(Difference)などのモードをサポートし、それぞれ独自の視覚効果を生成します。 | + +## 出力 + +| フィールド | データ型 | 説明 | +|------------|----------|----------------------------------------------------------------------| +| `image` | `IMAGE` | 指定されたブレンドモードおよびブレンド係数に基づき、2枚の入力画像を合成した結果の画像です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageBlur.mdx b/ja/built-in-nodes/ImageBlur.mdx new file mode 100644 index 000000000..c54c519ae --- /dev/null +++ b/ja/built-in-nodes/ImageBlur.mdx @@ -0,0 +1,24 @@ +--- +title: "ImageBlur - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の ImageBlur ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageBlur" +icon: "circle" +mode: wide +translationSourceHash: e7b24526 +translationFrom: built-in-nodes/ImageBlur.mdx, zh-CN/built-in-nodes/ImageBlur.mdx +--- +`ImageBlur` ノードは、画像にガウスぼかしを適用し、エッジを柔らかくしたり、ディテールやノイズを低減したりします。このノードでは、パラメーターを用いてぼかしの強さと広がりを制御できます。 + +## 入力 + +| フィールド | データ型 | 説明 | +|--------------------|-----------|----------------------------------------------------------------------| +| `image` | `IMAGE` | ぼかしを適用する入力画像です。これはぼかし効果の主な対象となります。 | +| `blur_radius` | `INT` | ぼかし効果の半径を決定します。半径の値が大きいほど、より顕著なぼかしが得られます。 | +| `sigma` | `FLOAT` | ぼかしの広がりを制御します。sigma 値が高いほど、各ピクセル周辺のより広い範囲にぼかしが影響します。 | + +## 出力 + +| フィールド | データ型 | 説明 | +|------------|-----------|----------------------------------------------------------------------| +| `image` | `IMAGE` | 出力は入力画像をぼかしたものであり、そのぼかしの程度は入力パラメーターによって決定されます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageColorToMask.mdx b/ja/built-in-nodes/ImageColorToMask.mdx new file mode 100644 index 000000000..206e96061 --- /dev/null +++ b/ja/built-in-nodes/ImageColorToMask.mdx @@ -0,0 +1,23 @@ +--- +title: "ImageColorToMask - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ImageColorToMask ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageColorToMask" +icon: "circle" +mode: wide +translationSourceHash: 2c279814 +translationFrom: built-in-nodes/ImageColorToMask.mdx, zh-CN/built-in-nodes/ImageColorToMask.mdx +--- +`ImageColorToMask` ノードは、画像内の指定された色をマスクに変換するためのものです。このノードは入力画像とターゲットとなる色を処理し、指定色が強調表示されたマスクを生成します。これにより、色ベースのセグメンテーションやオブジェクトの分離などの操作が容易になります。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `image` | `IMAGE` | 入力画像を表すパラメーターです。指定色と一致する画像領域を特定し、それらをマスクに変換するために不可欠です。 | +| `color` | `INT` | 画像内でマスクに変換する対象となる色を指定するパラメーターです。結果として得られるマスクにおいて、どの色の領域を強調表示するかを識別する上で重要な役割を果たします。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `mask` | `MASK` | 出力は、入力画像内で指定色と一致する領域を強調表示したマスクです。このマスクは、セグメンテーションやオブジェクトの分離など、さらなる画像処理タスクに利用できます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageCompare.mdx b/ja/built-in-nodes/ImageCompare.mdx new file mode 100644 index 000000000..887750de3 --- /dev/null +++ b/ja/built-in-nodes/ImageCompare.mdx @@ -0,0 +1,26 @@ +--- +title: "ImageCompare - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ImageCompare ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageCompare" +icon: "circle" +mode: wide +translationSourceHash: 6a4aa3ea +translationFrom: built-in-nodes/ImageCompare.mdx, zh-CN/built-in-nodes/ImageCompare.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ImageCompare/en.md) + +Image Compare ノードは、ドラッグ可能なスライダーを用いて2枚の画像を並べて視覚的に比較するためのインターフェースを提供します。このノードは「出力ノード」として設計されており、他のノードへデータを渡すことはなく、代わりにユーザーインターフェース上に画像を直接表示して検査できるようにします。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image_a` | IMAGE | いいえ | - | 比較対象となる最初の画像です。 | +| `image_b` | IMAGE | いいえ | - | 比較対象となる2番目の画像です。 | +| `compare_view` | IMAGECOMPARE | はい | - | UI 上でスライダーによる比較ビューを有効化するコントロールです。 | + +**注意:** このノードは出力ノードです。`image_a` および `image_b` はいずれもオプションですが、ノードが可視的な効果を示すには、少なくとも1枚の画像を指定する必要があります。接続されていない画像入力については、ノードは空白の領域を表示します。 + +## 出力 + +このノードは出力ノードであり、他のノードで利用可能なデータ出力は一切生成しません。その機能は、指定された画像を ComfyUI のインターフェース上に表示することに特化しています。 \ No newline at end of file diff --git a/ja/built-in-nodes/ImageCompositeMasked.mdx b/ja/built-in-nodes/ImageCompositeMasked.mdx new file mode 100644 index 000000000..1e141f8bf --- /dev/null +++ b/ja/built-in-nodes/ImageCompositeMasked.mdx @@ -0,0 +1,29 @@ +--- +title: "ImageCompositeMasked - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ImageCompositeMasked ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageCompositeMasked" +icon: "circle" +mode: wide +translationSourceHash: 6c99e5f4 +translationFrom: built-in-nodes/ImageCompositeMasked.mdx, zh-CN/built-in-nodes/ImageCompositeMasked.mdx +translationMismatches: + - "description" +--- +`ImageCompositeMasked` ノードは、画像の合成を目的として設計されており、ソース画像を指定された座標でデスティネーション画像上にオーバーレイする機能を提供します。必要に応じて、リサイズおよびマスク処理も行えます。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `destination` | `IMAGE` | ソース画像を合成する対象となるデスティネーション画像です。合成操作における背景画像として機能します。 | +| `source` | `IMAGE` | デスティネーション画像上に合成されるソース画像です。この画像は、必要に応じてデスティネーション画像の寸法に合わせてリサイズできます。 | +| `x` | `INT` | デスティネーション画像内における、ソース画像の左上角の x 座標です。 | +| `y` | `INT` | デスティネーション画像内における、ソース画像の左上角の y 座標です。 | +| `resize_source` | `BOOLEAN` | ソース画像をデスティネーション画像の寸法に合わせてリサイズするかどうかを示すブール値フラグです。 | +| `mask` | `MASK` | ソース画像のどの部分をデスティネーション画像上に合成するかを指定するオプションのマスクです。これにより、ブレンドや部分的なオーバーレイなど、より複雑な合成操作が可能になります。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `image` | `IMAGE` | 合成操作後の結果画像で、指定されたパラメーターに基づきソース画像とデスティネーション画像の要素が統合されています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageCrop.mdx b/ja/built-in-nodes/ImageCrop.mdx new file mode 100644 index 000000000..3e9c0b23b --- /dev/null +++ b/ja/built-in-nodes/ImageCrop.mdx @@ -0,0 +1,26 @@ +--- +title: "ImageCrop - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の ImageCrop ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageCrop" +icon: "circle" +mode: wide +translationSourceHash: 64c269a4 +translationFrom: built-in-nodes/ImageCrop.mdx, zh-CN/built-in-nodes/ImageCrop.mdx +--- +`ImageCrop` ノードは、指定された幅と高さ、および与えられた x 座標・y 座標を基準として画像を切り抜くために設計されています。この機能は、画像の特定領域に焦点を当てる場合や、画像サイズを特定の要件に合わせて調整する場合に不可欠です。 + +## 入力 + +| パラメーター名 | データ型 | 説明 | +|----------------|-----------|------| +| `image` | `IMAGE` | 切り抜き対象の入力画像です。このパラメーターは極めて重要であり、指定されたサイズおよび座標に基づいて領域を抽出する元となる画像を定義します。 | +| `width` | `INT` | 切り抜かれた画像の幅を指定します。このパラメーターにより、結果として得られる切り抜き画像の幅が決定されます。 | +| `height` | `INT` | 切り抜かれた画像の高さを指定します。このパラメーターにより、結果として得られる切り抜き画像の高さが決定されます。 | +| `x` | `INT` | 切り抜き領域の左上角の x 座標です。このパラメーターは、切り抜きの幅方向における開始位置を設定します。 | +| `y` | `INT` | 切り抜き領域の左上角の y 座標です。このパラメーターは、切り抜きの高さ方向における開始位置を設定します。 | + +## 出力 + +| パラメーター名 | データ型 | 説明 | +|----------------|-----------|------| +| `image` | `IMAGE` | 切り抜き操作の結果として得られる画像です。この出力は、指定された画像領域に対するさらなる処理や解析において非常に重要です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageCropV2.mdx b/ja/built-in-nodes/ImageCropV2.mdx new file mode 100644 index 000000000..7193831f9 --- /dev/null +++ b/ja/built-in-nodes/ImageCropV2.mdx @@ -0,0 +1,27 @@ +--- +title: "ImageCropV2 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ImageCropV2 ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageCropV2" +icon: "circle" +mode: wide +translationSourceHash: 1224fd1f +translationFrom: built-in-nodes/ImageCropV2.mdx, zh-CN/built-in-nodes/ImageCropV2.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ImageCropV2/en.md) + +「Image Crop」ノードは、入力画像から矩形領域を抽出します。保持したい領域を、その左上隅の座標および幅・高さを指定することで定義します。このノードは、元の画像から切り抜かれた部分を出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | 不適用 | 裁剪対象の入力画像です。 | +| `crop_region` | BOUNDINGBOX | はい | 不適用 | 画像から抽出する矩形領域を定義します。`x`(水平方向の開始位置)、`y`(垂直方向の開始位置)、`width`(幅)、`height`(高さ)で指定されます。定義された領域が画像の境界を超える場合、自動的に画像のサイズ内に収まるよう調整されます。 | + +**領域制約に関する注意点:** 裁剪領域は、自動的に入力画像の境界内に収められます。指定された `x` または `y` 座標が画像の幅または高さを超える場合、最大有効位置に設定されます。結果として得られる裁剪幅および裁剪高さは、画像の端を超えないよう調整されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 元の入力画像から切り抜かれた部分です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageDeduplication.mdx b/ja/built-in-nodes/ImageDeduplication.mdx new file mode 100644 index 000000000..ed2b9140a --- /dev/null +++ b/ja/built-in-nodes/ImageDeduplication.mdx @@ -0,0 +1,25 @@ +--- +title: "ImageDeduplication - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ImageDeduplication ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageDeduplication" +icon: "circle" +mode: wide +translationSourceHash: df30827a +translationFrom: built-in-nodes/ImageDeduplication.mdx, zh-CN/built-in-nodes/ImageDeduplication.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ImageDeduplication/en.md) + +このノードは、画像バッチから重複または非常に類似した画像を削除します。処理の仕組みは、各画像に対して「知覚ハッシュ(perceptual hash)」——つまりその視覚的内容に基づくシンプルな数値型の指紋——を作成し、それらを比較することにあります。ハッシュ間の類似度が設定されたしきい値を超える画像は重複と見なされ、フィルタリングによって除外されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `images` | IMAGE | はい | - | 重複除去処理を行う対象の画像バッチです。 | +| `similarity_threshold` | FLOAT | いいえ | 0.0 - 1.0 | 類似度のしきい値(0~1)。値が高いほど、より厳密な類似性が要求されます。このしきい値を超える画像は重複と見なされます。(デフォルト値:0.95) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `images` | IMAGE | 重複が除去されたフィルタリング済みの画像リストです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageFlip.mdx b/ja/built-in-nodes/ImageFlip.mdx new file mode 100644 index 000000000..b44d42695 --- /dev/null +++ b/ja/built-in-nodes/ImageFlip.mdx @@ -0,0 +1,25 @@ +--- +title: "ImageFlip - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ImageFlip ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageFlip" +icon: "circle" +mode: wide +translationSourceHash: dde0544f +translationFrom: built-in-nodes/ImageFlip.mdx, zh-CN/built-in-nodes/ImageFlip.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ImageFlip/en.md) + +ImageFlip ノードは、画像を異なる軸に沿って反転(フリップ)します。具体的には、x 軸に沿って垂直方向に反転するか、y 軸に沿って水平方向に反転することができます。このノードでは、選択された方法に基づき `torch.flip` 操作を用いて反転処理が実行されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 反転対象の入力画像 | +| `flip_method` | STRING | はい | `"x-axis: vertically"`
`"y-axis: horizontally"` | 適用する反転方向 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 反転後の出力画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageFromBatch.mdx b/ja/built-in-nodes/ImageFromBatch.mdx new file mode 100644 index 000000000..64e766f49 --- /dev/null +++ b/ja/built-in-nodes/ImageFromBatch.mdx @@ -0,0 +1,24 @@ +--- +title: "ImageFromBatch - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ImageFromBatch ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageFromBatch" +icon: "circle" +mode: wide +translationSourceHash: 25baa4c7 +translationFrom: built-in-nodes/ImageFromBatch.mdx, zh-CN/built-in-nodes/ImageFromBatch.mdx +--- +`ImageFromBatch` ノードは、指定されたインデックスと長さに基づいて、画像バッチから特定のセグメントを抽出するために設計されています。これにより、バッチ化された画像に対してより細かい制御が可能となり、大規模なバッチ内の個別の画像や画像のサブセットに対して操作を実行できます。 + +## 入力 + +| フィールド | データ型 | 説明 | +|------------------|----------|----------------------------------------------------------------------------------------| +| `image` | `IMAGE` | セグメントを抽出する対象となる画像バッチです。このパラメーターは、ソースとなるバッチを指定するために不可欠です。 | +| `batch_index` | `INT` | バッチ内での抽出開始位置を示すインデックスです。バッチから抽出するセグメントの先頭位置を決定します。 | +| `length` | `INT` | `batch_index` から始めてバッチから抽出する画像の数です。このパラメーターは、抽出するセグメントのサイズを定義します。 | + +## 出力 + +| フィールド | データ型 | 説明 | +|------------|----------|----------------------------------------------------------------------------------------| +| `image` | `IMAGE` | 指定されたバッチから抽出された画像のセグメントです。この出力は、`batch_index` および `length` パラメーターによって決定される、元のバッチのサブセットを表します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageGrid.mdx b/ja/built-in-nodes/ImageGrid.mdx new file mode 100644 index 000000000..8185eaff9 --- /dev/null +++ b/ja/built-in-nodes/ImageGrid.mdx @@ -0,0 +1,28 @@ +--- +title: "ImageGrid - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ImageGrid ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageGrid" +icon: "circle" +mode: wide +translationSourceHash: c68adc5d +translationFrom: built-in-nodes/ImageGrid.mdx, zh-CN/built-in-nodes/ImageGrid.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ImageGrid/en.md) + +「Image Grid」ノードは、複数の画像を1枚の整理されたグリッド(またはコラージュ)に統合します。このノードは画像のリストを受け取り、指定された列数に並べ、各画像を定義されたセルサイズにリサイズし、画像間に任意のパディング(余白)を追加します。結果として得られるのは、すべての入力画像がグリッド形式で配置された単一の新しい画像です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `images` | IMAGE | はい | - | グリッドに配置する画像のリストです。このノードは最低でも1枚の画像を必要とします。 | +| `columns` | INT | いいえ | 1 - 20 | グリッドの列数(デフォルト:4)。 | +| `cell_width` | INT | いいえ | 32 - 2048 | グリッド内の各セルの幅(ピクセル単位)(デフォルト:256)。 | +| `cell_height` | INT | いいえ | 32 - 2048 | グリッド内の各セルの高さ(ピクセル単位)(デフォルト:256)。 | +| `padding` | INT | いいえ | 0 - 50 | グリッド内の画像間のパディング(ピクセル単位)(デフォルト:4)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 入力画像すべてをグリッド形式で配置した単一の出力画像です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageInvert.mdx b/ja/built-in-nodes/ImageInvert.mdx new file mode 100644 index 000000000..24edf56f4 --- /dev/null +++ b/ja/built-in-nodes/ImageInvert.mdx @@ -0,0 +1,22 @@ +--- +title: "ImageInvert - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における ImageInvert ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageInvert" +icon: "circle" +mode: wide +translationSourceHash: 50819779 +translationFrom: built-in-nodes/ImageInvert.mdx, zh-CN/built-in-nodes/ImageInvert.mdx +--- +`ImageInvert` ノードは、画像の色を反転させるために設計されています。この処理では、各ピクセルの色値が色相環上の補色に変換されます。この操作は、ネガティブ画像の作成や、色の反転を必要とする視覚効果の実現に有効です。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `image` | `IMAGE` | `image` パラメーターは、反転対象となる入力画像を表します。反転処理の対象となる画像を明確に指定するために不可欠であり、ノードの実行および反転処理による視覚的結果に直接影響します。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `image` | `IMAGE` | 出力は入力画像を反転したバージョンであり、各ピクセルの色値がその補色に変換されています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageOnlyCheckpointLoader.mdx b/ja/built-in-nodes/ImageOnlyCheckpointLoader.mdx new file mode 100644 index 000000000..2c1537d08 --- /dev/null +++ b/ja/built-in-nodes/ImageOnlyCheckpointLoader.mdx @@ -0,0 +1,26 @@ +--- +title: "ImageOnlyCheckpointLoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ImageOnlyCheckpointLoader ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageOnlyCheckpointLoader" +icon: "circle" +mode: wide +translationSourceHash: ac2d63a8 +translationFrom: built-in-nodes/ImageOnlyCheckpointLoader.mdx, zh-CN/built-in-nodes/ImageOnlyCheckpointLoader.mdx +--- +このノードは、`ComfyUI/models/checkpoints` フォルダ内に配置されたモデルを検出し、さらに `extra_model_paths.yaml` ファイルで設定された追加パス上のモデルも読み込みます。場合によっては、対応するフォルダ内のモデルファイルを読み込むために、**ComfyUI インターフェースを更新する**必要があります。 + +このノードは、動画生成ワークフローにおいて、画像ベースのモデル専用のチェックポイントを読み込むことに特化しています。指定されたチェックポイントから必要なコンポーネントを効率的に取得・設定し、モデルの画像関連機能に焦点を当てます。 + +## 入力 + +| フィールド | データ型 | 説明 | +|-----------------|----------|--------------------------------------------------------------------------------------------------------------------------------------------| +| `ckpt_name` | COMBO[STRING] | 読み込むチェックポイントの名称を指定します。事前に定義されたチェックポイント一覧から、正しいチェックポイントファイルを特定・取得するために不可欠なパラメーターです。 | + +## 出力 + +| フィールド | データ型 | 説明 | +|-------------------|-------------|---------------------------------------------------------------------------------------------------------------------------------------------------| +| `model` | MODEL | チェックポイントから読み込まれたメインモデルを返します。動画生成の文脈における画像処理向けに構成されています。 | +| `clip_vision` | `CLIP_VISION` | チェックポイントから抽出された CLIP ビジョンコンポーネントを提供します。画像の理解および特徴抽出に最適化されています。 | +| `vae` | VAE | 変分自己符号化器(VAE)コンポーネントを提供します。画像操作および画像生成タスクにおいて不可欠なコンポーネントです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageOnlyCheckpointSave.mdx b/ja/built-in-nodes/ImageOnlyCheckpointSave.mdx new file mode 100644 index 000000000..e08a85f76 --- /dev/null +++ b/ja/built-in-nodes/ImageOnlyCheckpointSave.mdx @@ -0,0 +1,31 @@ +--- +title: "ImageOnlyCheckpointSave - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ImageOnlyCheckpointSave ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageOnlyCheckpointSave" +icon: "circle" +mode: wide +translationSourceHash: a54b5489 +translationFrom: built-in-nodes/ImageOnlyCheckpointSave.mdx, zh-CN/built-in-nodes/ImageOnlyCheckpointSave.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ImageOnlyCheckpointSave/en.md) + +ImageOnlyCheckpointSave ノードは、モデル、CLIP ビジョンエンコーダー、および VAE を含むチェックポイントファイルを保存します。指定されたファイル名プレフィックスを持つ `safetensors` ファイルを作成し、出力ディレクトリに保存します。このノードは、画像関連のモデルコンポーネントを単一のチェックポイントファイルにまとめて保存することを目的として設計されています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `model` | MODEL | はい | - | チェックポイントに保存するモデル | +| `clip_vision` | CLIP_VISION | はい | - | チェックポイントに保存する CLIP ビジョンエンコーダー | +| `vae` | VAE | はい | - | チェックポイントに保存する VAE(変分オートエンコーダー) | +| `filename_prefix` | STRING | はい | - | 出力ファイル名のプレフィックス(デフォルト: `"checkpoints/ComfyUI"`) | +| `prompt` | PROMPT | いいえ | - | ワークフローのプロンプトデータ用の非表示パラメーター | +| `extra_pnginfo` | EXTRA_PNGINFO | いいえ | - | 追加の PNG メタデータ用の非表示パラメーター | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| - | - | このノードはいかなる出力も返しません | \ No newline at end of file diff --git a/ja/built-in-nodes/ImagePadForOutpaint.mdx b/ja/built-in-nodes/ImagePadForOutpaint.mdx new file mode 100644 index 000000000..18dccd58f --- /dev/null +++ b/ja/built-in-nodes/ImagePadForOutpaint.mdx @@ -0,0 +1,28 @@ +--- +title: "ImagePadForOutpaint - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ImagePadForOutpaint ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImagePadForOutpaint" +icon: "circle" +mode: wide +translationSourceHash: 9e47d69f +translationFrom: built-in-nodes/ImagePadForOutpaint.mdx, zh-CN/built-in-nodes/ImagePadForOutpaint.mdx +--- +このノードは、画像の周囲にパディングを追加することで、外延(アウトペインティング)処理に備えることを目的として設計されています。画像の寸法を調整し、外延アルゴリズムとの互換性を確保することで、元の境界を超えた拡張画像領域の生成を容易にします。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `image` | `IMAGE` | `image` 入力は、外延処理に備えるための主たる画像であり、パディング操作の基盤となります。 | +| `left` | `INT` | 画像の左側に追加するパディング量を指定します。これにより、外延処理における水平方向の拡張領域が影響を受けます。 | +| `top` | `INT` | 画像の上部に追加するパディング量を決定します。これにより、外延処理における垂直方向の拡張が影響を受けます。 | +| `right` | `INT` | 画像の右側に追加するパディング量を定義します。これにより、外延処理における水平方向の拡張が影響を受けます。 | +| `bottom` | `INT` | 画像の下部に追加するパディング量を示します。これにより、外延処理における垂直方向の拡張が影響を受けます。 | +| `feathering` | `INT` | 元の画像と追加されたパディングとの間のトランジション(遷移)の滑らかさを制御し、外延処理における視覚的な統合性を高めます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `image` | `IMAGE` | 出力 `image` は、パディングが施された画像を表し、外延処理にすぐに使用できる状態です。 | +| `mask` | `MASK` | 出力 `mask` は、元の画像領域と追加されたパディング領域を示しており、外延アルゴリズムの処理をガイドするのに役立ちます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageQuantize.mdx b/ja/built-in-nodes/ImageQuantize.mdx new file mode 100644 index 000000000..2ba59456d --- /dev/null +++ b/ja/built-in-nodes/ImageQuantize.mdx @@ -0,0 +1,24 @@ +--- +title: "ImageQuantize - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ImageQuantize ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageQuantize" +icon: "circle" +mode: wide +translationSourceHash: 785b9a31 +translationFrom: built-in-nodes/ImageQuantize.mdx, zh-CN/built-in-nodes/ImageQuantize.mdx +--- +ImageQuantize ノードは、画像の色数を指定された数に削減するためのものであり、視覚的な品質を維持するために、オプションでディザリング(抖動)技術を適用できます。この処理は、パレットベースの画像を作成したり、特定の用途において色の複雑さを低減したりする場合に有効です。 + +## 入力 + +| フィールド | データ型 | 説明 | +|----------|-----------|------| +| `image` | `IMAGE` | 量子化対象の入力画像テンソルです。色数の削減が実行される主なデータとして、ノードの動作に影響を与えます。 | +| `colors` | `INT` | 画像を削減する色数を指定します。調色板のサイズを決定することで、量子化プロセスに直接影響を与えます。 | +| `dither` | COMBO[STRING] | 量子化時に適用するディザリング(抖動)技術を指定します。出力画像の視覚的品質および外観に影響を与えます。 | + +## 出力 + +| フィールド | データ型 | 説明 | +|----------|-----------|------| +| `image` | `IMAGE` | 入力画像を量子化した結果の画像で、色の複雑さが低減されており、視覚的品質を維持するためにオプションでディザリング(抖動)が適用されています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageRGBToYUV.mdx b/ja/built-in-nodes/ImageRGBToYUV.mdx new file mode 100644 index 000000000..bc6418b65 --- /dev/null +++ b/ja/built-in-nodes/ImageRGBToYUV.mdx @@ -0,0 +1,28 @@ +--- +title: "ImageRGBToYUV - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ImageRGBToYUV ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageRGBToYUV" +icon: "circle" +mode: wide +translationSourceHash: 91345e7a +translationFrom: built-in-nodes/ImageRGBToYUV.mdx, zh-CN/built-in-nodes/ImageRGBToYUV.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ImageRGBToYUV/en.md) + +ImageRGBToYUV ノードは、RGB 色彩空間の画像を YUV 色彩空間に変換します。このノードは RGB 画像を入力として受け取り、それを Y(輝度)、U(青色成分の投影)、V(赤色成分の投影)の 3 つの独立したチャンネルに分離します。各出力チャンネルは、対応する YUV 成分を表す個別のグレースケール画像として出力されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | YUV 色彩空間へ変換するための入力 RGB 画像 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `Y` | IMAGE | YUV 色彩空間における輝度(明るさ)成分 | +| `U` | IMAGE | YUV 色彩空間における青色成分の投影成分 | +| `V` | IMAGE | YUV 色彩空間における赤色成分の投影成分 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageRotate.mdx b/ja/built-in-nodes/ImageRotate.mdx new file mode 100644 index 000000000..110a75dbc --- /dev/null +++ b/ja/built-in-nodes/ImageRotate.mdx @@ -0,0 +1,25 @@ +--- +title: "ImageRotate - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ImageRotate ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageRotate" +icon: "circle" +mode: wide +translationSourceHash: c663ef64 +translationFrom: built-in-nodes/ImageRotate.mdx, zh-CN/built-in-nodes/ImageRotate.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ImageRotate/en.md) + +ImageRotate ノードは、入力画像を指定された角度で回転させます。サポートされる回転オプションは以下の4種類です:回転なし、時計回り90度、180度、時計回り270度。回転処理には効率的なテンソル演算が用いられており、画像データの整合性を保ちます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 回転対象の入力画像 | +| `rotation` | STRING | はい | "none"
"90 degrees"
"180 degrees"
"270 degrees" | 画像に適用する回転角度 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 回転後の出力画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageScale.mdx b/ja/built-in-nodes/ImageScale.mdx new file mode 100644 index 000000000..ea82f301c --- /dev/null +++ b/ja/built-in-nodes/ImageScale.mdx @@ -0,0 +1,26 @@ +--- +title: "ImageScale - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ImageScale ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageScale" +icon: "circle" +mode: wide +translationSourceHash: 86c7c117 +translationFrom: built-in-nodes/ImageScale.mdx, zh-CN/built-in-nodes/ImageScale.mdx +--- +ImageScale ノードは、画像を特定のサイズにリサイズするためのものであり、さまざまなアップスケール手法と、リサイズ後の画像を切り抜く機能を提供します。このノードは、画像のアップスケールおよびクロップ処理の複雑さを抽象化し、ユーザーが定義したパラメーターに基づいて画像サイズを簡単に変更できるインターフェースを提供します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-------------------|----------|--------------------------------------------------------------------------------| +| `image` | `IMAGE` | アップスケール対象の入力画像です。このパラメーターはノードの動作の中心であり、リサイズ変換が適用される主なデータです。出力画像の品質および寸法は、元の画像の特性に直接影響を受けます。 | +| `upscale_method` | COMBO[STRING] | 画像のアップスケールに使用する手法を指定します。選択した手法によって、アップスケール後の画像の品質や特性が変わり、リサイズ出力の視覚的忠実度や潜在的なアーティファクトに影響を与えます。 | +| `width` | `INT` | アップスケール後の画像の目標幅です。このパラメーターは出力画像の寸法に直接影響を与え、リサイズ操作における水平方向のスケールを決定します。 | +| `height` | `INT` | アップスケール後の画像の目標高さです。このパラメーターは出力画像の寸法に直接影響を与え、リサイズ操作における垂直方向のスケールを決定します。 | +| `crop` | COMBO[STRING] | アップスケール後の画像を切り抜くかどうか、およびその方法を決定します。切り抜きを無効にするか、中央で切り抜くかのオプションが用意されています。これにより、指定された寸法に収めるために端部が除去される可能性があり、画像の最終的な構図に影響を与えます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-------------|----------|------| +| `image` | `IMAGE` | アップスケール(および必要に応じて切り抜き)済みの画像で、さらに処理を行うか、または可視化する準備が整っています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageScaleBy.mdx b/ja/built-in-nodes/ImageScaleBy.mdx new file mode 100644 index 000000000..e6e9525be --- /dev/null +++ b/ja/built-in-nodes/ImageScaleBy.mdx @@ -0,0 +1,24 @@ +--- +title: "ImageScaleBy - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の ImageScaleBy ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageScaleBy" +icon: "circle" +mode: wide +translationSourceHash: a5f3674f +translationFrom: built-in-nodes/ImageScaleBy.mdx, zh-CN/built-in-nodes/ImageScaleBy.mdx +--- +ImageScaleBy ノードは、さまざまな補間手法を用いて指定されたスケール係数で画像をアップスケール(拡大)するためのものです。これにより、異なるアップスケール要件に応じて、柔軟に画像サイズを調整できます。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-------------|-----------|------| +| `image` | `IMAGE` | アップスケール対象の入力画像です。このパラメーターは非常に重要であり、アップスケール処理が適用される基盤となる画像を提供します。 | +| `upscale_method` | COMBO[STRING] | アップスケールに使用する補間手法を指定します。選択した手法によって、アップスケール後の画像の画質や特性が影響を受けます。 | +| `scale_by` | `FLOAT` | 画像をアップスケールする際の倍率(スケール係数)です。この値によって、出力画像のサイズが入力画像に対してどの程度大きくなるかが決定されます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-------------|-----------|------| +| `image` | `IMAGE` | アップスケール後の画像で、指定されたスケール係数および補間手法に従って、入力画像よりも大きなサイズになります。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageScaleToMaxDimension.mdx b/ja/built-in-nodes/ImageScaleToMaxDimension.mdx new file mode 100644 index 000000000..65bb17319 --- /dev/null +++ b/ja/built-in-nodes/ImageScaleToMaxDimension.mdx @@ -0,0 +1,28 @@ +--- +title: "ImageScaleToMaxDimension - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ImageScaleToMaxDimension ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageScaleToMaxDimension" +icon: "circle" +mode: wide +translationSourceHash: 22677d96 +translationFrom: built-in-nodes/ImageScaleToMaxDimension.mdx, zh-CN/built-in-nodes/ImageScaleToMaxDimension.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ImageScaleToMaxDimension/en.md) + +ImageScaleToMaxDimension ノードは、元のアスペクト比を維持したまま、画像を指定された最大寸法内に収まるようにリサイズします。このノードは、画像が縦長(ポートレート)か横長(ランドスケープ)かを判定し、大きい方の寸法をターゲットサイズに合わせてスケーリングするとともに、小さい方の寸法も比例的に調整します。また、品質とパフォーマンスの要件に応じて、複数のアップスケーリング手法をサポートしています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `image` | IMAGE | はい | - | スケーリング対象の入力画像 | +| `upscale_method` | STRING | はい | "area"
"lanczos"
"bilinear"
"nearest-exact"
"bicubic" | 画像のスケーリングに使用される補間手法 | +| `largest_size` | INT | はい | 0 ~ 16384 | スケーリング後の画像における最大寸法(デフォルト値:512) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `image` | IMAGE | 最大寸法が指定されたサイズと一致するようスケーリングされた画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageScaleToTotalPixels.mdx b/ja/built-in-nodes/ImageScaleToTotalPixels.mdx new file mode 100644 index 000000000..881c4d05f --- /dev/null +++ b/ja/built-in-nodes/ImageScaleToTotalPixels.mdx @@ -0,0 +1,24 @@ +--- +title: "ImageScaleToTotalPixels - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ImageScaleToTotalPixels ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageScaleToTotalPixels" +icon: "circle" +mode: wide +translationSourceHash: c7d8d335 +translationFrom: built-in-nodes/ImageScaleToTotalPixels.mdx, zh-CN/built-in-nodes/ImageScaleToTotalPixels.mdx +--- +ImageScaleToTotalPixels ノードは、アスペクト比を維持したまま画像を指定された総ピクセル数にリサイズするためのものです。所望のピクセル数を達成するために、画像のアップスケールに複数の手法を提供します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-------------|-----------|------| +| `image` | `IMAGE` | 指定された総ピクセル数へアップスケールする対象の入力画像です。 | +| `upscale_method` | COMBO[STRING] | 画像のアップスケールに使用される手法です。アップスケール後の画像の品質および特性に影響を与えます。 | +| `megapixels` | `FLOAT` | 画像の目標サイズ(単位:メガピクセル)。アップスケール後の画像の総ピクセル数を決定します。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-------------|-----------|------| +| `image` | `IMAGE` | 指定された総ピクセル数を持つアップスケール済み画像で、元のアスペクト比が維持されています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageSharpen.mdx b/ja/built-in-nodes/ImageSharpen.mdx new file mode 100644 index 000000000..05049a57d --- /dev/null +++ b/ja/built-in-nodes/ImageSharpen.mdx @@ -0,0 +1,25 @@ +--- +title: "ImageSharpen - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ImageSharpen ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageSharpen" +icon: "circle" +mode: wide +translationSourceHash: 6c4570b0 +translationFrom: built-in-nodes/ImageSharpen.mdx, zh-CN/built-in-nodes/ImageSharpen.mdx +--- +ImageSharpen ノードは、画像のエッジとディテールを強調することにより、画像の鮮明さを向上させます。このノードは画像にシャープネスフィルターを適用し、その強度および半径を調整可能であるため、画像をより明瞭でシャープな印象に仕上げることができます。 + +## 入力 + +| フィールド | データ型 | 説明 | +|------------|----------|------| +| `image` | `IMAGE` | シャープネス処理を行う入力画像です。このパラメーターは非常に重要であり、シャープネス効果が適用されるベースとなる画像を決定します。 | +| `sharpen_radius` | `INT` | シャープネス効果の半径を定義します。半径の値が大きいほど、エッジ周辺のより多くの画素が影響を受け、より顕著なシャープネス効果が得られます。 | +| `sigma` | `FLOAT` | シャープネス効果の広がり(拡散)を制御します。`sigma` 値が高いほどエッジ部での遷移が滑らかになり、低いほどシャープネス効果が局所的になります。 | +| `alpha` | `FLOAT` | シャープネス効果の強度を調整します。`alpha` 値が高いほど、より強いシャープネス効果が得られます。 | + +## 出力 + +| フィールド | データ型 | 説明 | +|------------|----------|------| +| `image` | `IMAGE` | エッジおよびディテールが強化されたシャープネス処理済みの画像です。これにより、さらに後続の処理や表示にそのまま使用できます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageStitch.mdx b/ja/built-in-nodes/ImageStitch.mdx new file mode 100644 index 000000000..1f84e892d --- /dev/null +++ b/ja/built-in-nodes/ImageStitch.mdx @@ -0,0 +1,61 @@ +--- +title: "ImageStitch - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ImageStitch ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageStitch" +icon: "circle" +mode: wide +translationSourceHash: 96bb1349 +translationFrom: built-in-nodes/ImageStitch.mdx, zh-CN/built-in-nodes/ImageStitch.mdx +--- +このノードは、2枚の画像を指定した方向(上・下・左・右)で結合(ステッチ)する機能を提供します。画像サイズの自動調整および画像間の余白(スペーシング)の設定もサポートしています。 + +## 入力 + +| パラメーター名 | データ型 | 入力タイプ | デフォルト値 | 値の範囲 | 説明 | +|----------------|----------|------------|-------------|-----------|------| +| `image1` | IMAGE | 必須 | - | - | 結合対象となる最初の画像 | +| `image2` | IMAGE | 任意 | None | - | 結合対象となる2番目の画像。指定しない場合、`image1` のみが出力されます | +| `direction` | STRING | 必須 | right | right/down/left/up | 2番目の画像を結合する方向:right(右)、down(下)、left(左)、up(上) | +| `match_image_size` | BOOLEAN | 必須 | True | True/False | 2番目の画像を `image1` のサイズに合わせてリサイズするかどうか | +| `spacing_width` | INT | 必須 | 0 | 0–1024 | 画像間の余白の幅。偶数値である必要があります | +| `spacing_color` | STRING | 必須 | white | white/black/red/green/blue | 結合された画像間の余白の色 | + +> `spacing_color` において、「white」または「black」以外の色を指定する場合、`match_image_size` が `false` に設定されていると、余白領域は黒で塗りつぶされます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|---------|----------|------| +| `IMAGE` | IMAGE | 結合後の画像 | + +## ワークフロー例 + +以下のワークフローでは、サイズの異なる3枚の入力画像を例として使用しています: + +- image1: 500×300 +- image2: 400×250 +- image3: 300×300 + +![workflow](/images/built-in-nodes/ImageStitch/workflow.webp) + +**最初の Image Stitch ノード** + +- `match_image_size`: false — 画像は元のサイズのまま結合されます +- `direction`: up — `image2` が `image1` の上側に配置されます +- `spacing_width`: 20 +- `spacing_color`: black + +出力画像1: + +![output1](/images/built-in-nodes/ImageStitch/output-1.webp) + +**2番目の Image Stitch ノード** + +- `match_image_size`: true — 2番目の画像が、`image1` の高さまたは幅に合わせてスケーリングされます +- `direction`: right — `image3` が右側に配置されます +- `spacing_width`: 20 +- `spacing_color`: white + +出力画像2: + +![output2](/images/built-in-nodes/ImageStitch/output-2.webp) \ No newline at end of file diff --git a/ja/built-in-nodes/ImageToMask.mdx b/ja/built-in-nodes/ImageToMask.mdx new file mode 100644 index 000000000..9af8617eb --- /dev/null +++ b/ja/built-in-nodes/ImageToMask.mdx @@ -0,0 +1,23 @@ +--- +title: "ImageToMask - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ImageToMask ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageToMask" +icon: "circle" +mode: wide +translationSourceHash: e1586f19 +translationFrom: built-in-nodes/ImageToMask.mdx, zh-CN/built-in-nodes/ImageToMask.mdx +--- +ImageToMask ノードは、指定された色チャンネルに基づいて画像をマスクに変換するためのものです。このノードにより、画像の赤(R)、緑(G)、青(B)、またはアルファ(α)チャンネルに対応するマスク層を抽出でき、チャンネルごとのマスキングや処理を必要とする操作を容易に実行できます。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|--------------|----------------|--------------------------------------------------------------------------------------------------------------------------------------| +| `image` | `IMAGE` | `image` パラメーターは、指定された色チャンネルに基づいてマスクを生成するための入力画像です。生成されるマスクの内容および特性を決定する上で極めて重要な役割を果たします。 | +| `channel` | COMBO[STRING] | `channel` パラメーターは、入力画像のどの色チャンネル(赤、緑、青、またはアルファ)を用いてマスクを生成するかを指定します。この選択は、マスクの外観および画像のどの部分が強調表示またはマスク化されるかに直接影響します。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|--------------|----------------|------------------------------------------------------------------------------------------| +| `mask` | `MASK` | 出力 `mask` は、入力画像の指定された色チャンネルを二値またはグレースケールで表現したものです。これにより、さらなる画像処理やマスキング操作に利用できます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageUpscaleWithModel.mdx b/ja/built-in-nodes/ImageUpscaleWithModel.mdx new file mode 100644 index 000000000..fa483e07b --- /dev/null +++ b/ja/built-in-nodes/ImageUpscaleWithModel.mdx @@ -0,0 +1,23 @@ +--- +title: "ImageUpscaleWithModel - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ImageUpscaleWithModel ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageUpscaleWithModel" +icon: "circle" +mode: wide +translationSourceHash: cd256fec +translationFrom: built-in-nodes/ImageUpscaleWithModel.mdx, zh-CN/built-in-nodes/ImageUpscaleWithModel.mdx +--- +このノードは、指定されたアップスケールモデルを用いて画像を高解像度化(アップスケール)するために設計されています。画像を適切なデバイスに調整し、メモリ使用量を最適化するとともに、メモリ不足(OOM)エラーを回避するためにタイル方式でアップスケールモデルを適用することで、効率的にアップスケール処理を実行します。 + +## 入力 + +| パラメーター | Comfy データ型 | 説明 | +|----------------|----------------|----------------------------------------------------------------------| +| `upscale_model` | `UPSCALE_MODEL` | 画像のアップスケールに使用するアップスケールモデルです。アップスケールアルゴリズムおよびそのパラメーターを定義する上で不可欠です。 | +| `image` | `IMAGE` | アップスケール対象の画像です。この入力は、アップスケール処理を受ける元のコンテンツを特定するために必須です。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|----------|-------------------------------------------------------------| +| `image` | `IMAGE` | アップスケールモデルによって処理された高解像度化済みの画像です。この出力はアップスケール操作の結果であり、解像度または画質の向上が確認できます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ImageYUVToRGB.mdx b/ja/built-in-nodes/ImageYUVToRGB.mdx new file mode 100644 index 000000000..190e2e89c --- /dev/null +++ b/ja/built-in-nodes/ImageYUVToRGB.mdx @@ -0,0 +1,30 @@ +--- +title: "ImageYUVToRGB - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ImageYUVToRGB ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ImageYUVToRGB" +icon: "circle" +mode: wide +translationSourceHash: 29fb048b +translationFrom: built-in-nodes/ImageYUVToRGB.mdx, zh-CN/built-in-nodes/ImageYUVToRGB.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ImageYUVToRGB/en.md) + +ImageYUVToRGB ノードは、YUV 色空間の画像を RGB 色空間に変換します。このノードは、Y(輝度)、U(青色成分の投影)、V(赤色成分の投影)チャンネルをそれぞれ表す 3 つの独立した入力画像を受け取り、色空間変換を用いてそれらを単一の RGB 画像に統合します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `Y` | IMAGE | はい | - | Y(輝度)チャンネルの入力画像 | +| `U` | IMAGE | はい | - | U(青色投影)チャンネルの入力画像 | +| `V` | IMAGE | はい | - | V(赤色投影)チャンネルの入力画像 | + +**注意:** 3 つの入力画像(Y、U、V)はすべて同時に提供する必要があります。また、適切な変換を行うためには、互換性のあるサイズである必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | IMAGE | 変換後の RGB 画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/InpaintModelConditioning.mdx b/ja/built-in-nodes/InpaintModelConditioning.mdx new file mode 100644 index 000000000..102d0114e --- /dev/null +++ b/ja/built-in-nodes/InpaintModelConditioning.mdx @@ -0,0 +1,30 @@ +--- +title: "InpaintModelConditioning - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の InpaintModelConditioning ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "InpaintModelConditioning" +icon: "circle" +mode: wide +translationSourceHash: b6508653 +translationFrom: built-in-nodes/InpaintModelConditioning.mdx, zh-CN/built-in-nodes/InpaintModelConditioning.mdx +translationMismatches: + - "description" +--- +InpaintModelConditioning ノードは、修復(インペイント)モデルにおける条件付け処理を容易にするために設計されており、修復出力をカスタマイズするために、さまざまな条件入力を統合・操作することを可能にします。このノードは、特定のモデルチェックポイントの読み込みやスタイル/コントロールネットワークモデルの適用から、条件要素のエンコーディングおよび組み合わせまで、幅広い機能を備えており、修復タスクのカスタマイズに向けた包括的なツールとして機能します。 + +## 入力 + +| パラメーター | Comfy 型 | 説明 | +|--------------|------------------|------| +| `positive` | `CONDITIONING` | 修復モデルに適用される「肯定的条件」(ポジティブ条件)情報またはパラメーターを表します。この入力は、修復操作を実行する際の文脈や制約を定義するために不可欠であり、最終出力に大きな影響を与えます。 | +| `negative` | `CONDITIONING` | 修復モデルに適用される「否定的条件」(ネガティブ条件)情報またはパラメーターを表します。この入力は、修復プロセスにおいて回避すべき条件や文脈を指定するために不可欠であり、最終出力に影響を与えます。 | +| `vae` | `VAE` | 条件付け処理で使用する VAE モデルを指定します。この入力は、実際に使用される VAE モデルのアーキテクチャおよびパラメーターを決定するために重要です。 | +| `pixels` | `IMAGE` | 修復対象となる画像のピクセルデータを表します。この入力は、修復タスクに必要な視覚的文脈を提供するために不可欠です。 | +| `mask` | `MASK` | 画像に適用するマスクを指定し、修復対象領域を示します。この入力は、画像内で修復が必要な特定の領域を定義するために不可欠です。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|--------------|------------------|------| +| `positive` | `CONDITIONING` | 処理後の修正済み「肯定的条件」情報で、修復モデルへ適用可能な状態です。この出力は、指定された肯定的条件に基づいて修復プロセスをガイドするために不可欠です。 | +| `negative` | `CONDITIONING` | 処理後の修正済み「否定的条件」情報で、修復モデルへ適用可能な状態です。この出力は、指定された否定的条件に基づいて修復プロセスをガイドするために不可欠です。 | +| `latent` | `LATENT` | 条件付け処理から得られた潜在表現(ラテント表現)です。この出力は、修復中の画像が持つ基礎的な特徴や性質を理解するために重要です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/InstructPixToPixConditioning.mdx b/ja/built-in-nodes/InstructPixToPixConditioning.mdx new file mode 100644 index 000000000..52e98d8c3 --- /dev/null +++ b/ja/built-in-nodes/InstructPixToPixConditioning.mdx @@ -0,0 +1,33 @@ +--- +title: "InstructPixToPixConditioning - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における InstructPixToPixConditioning ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "InstructPixToPixConditioning" +icon: "circle" +mode: wide +translationSourceHash: 4fd19581 +translationFrom: built-in-nodes/InstructPixToPixConditioning.mdx, zh-CN/built-in-nodes/InstructPixToPixConditioning.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/InstructPixToPixConditioning/en.md) + +InstructPixToPixConditioning ノードは、正のテキストプロンプトと負のテキストプロンプトを画像データと組み合わせることで、InstructPix2Pix による画像編集のための条件付けデータを準備します。このノードは、入力画像を VAE エンコーダーで処理して潜在表現(ラテント表現)を作成し、これらの潜在表現を正の条件付けデータおよび負の条件付けデータの両方に付加します。また、VAE エンコーディング処理との互換性を確保するため、画像の幅および高さを自動的に 8 ピクセル単位に切り捨てて調整します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | 望ましい画像特性を指定するテキストプロンプトおよび設定を含む正の条件付けデータ | +| `negative` | CONDITIONING | はい | - | 望ましくない画像特性を指定するテキストプロンプトおよび設定を含む負の条件付けデータ | +| `vae` | VAE | はい | - | 入力画像を潜在表現へエンコードするために使用される VAE モデル | +| `pixels` | IMAGE | はい | - | 処理・潜在空間へのエンコードが行われる入力画像 | + +**注意:** 入力画像のサイズは、VAE エンコーディング処理との互換性を確保するため、幅および高さをそれぞれ 8 ピクセルの倍数に最も近い値へ切り捨てて自動的に調整されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 潜在画像表現が付加された正の条件付けデータ | +| `negative` | CONDITIONING | 潜在画像表現が付加された負の条件付けデータ | +| `latent` | LATENT | エンコード済み画像と同じ次元を持つ空の潜在テンソル | \ No newline at end of file diff --git a/ja/built-in-nodes/InvertBooleanNode.mdx b/ja/built-in-nodes/InvertBooleanNode.mdx new file mode 100644 index 000000000..47a55cc5d --- /dev/null +++ b/ja/built-in-nodes/InvertBooleanNode.mdx @@ -0,0 +1,24 @@ +--- +title: "InvertBooleanNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の InvertBooleanNode ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "InvertBooleanNode" +icon: "circle" +mode: wide +translationSourceHash: c0e7f4c0 +translationFrom: built-in-nodes/InvertBooleanNode.mdx, zh-CN/built-in-nodes/InvertBooleanNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/InvertBooleanNode/en.md) + +このノードは、単一のブール値(`true`/`false`)を入力として受け取り、その反対の値を出力します。論理 NOT 演算を実行し、`true` を `false` に、`false` を `true` に変換します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `boolean` | BOOLEAN | はい | `true`
`false` | 反転される入力ブール値です。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | BOOLEAN | 反転後のブール値です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/InvertMask.mdx b/ja/built-in-nodes/InvertMask.mdx new file mode 100644 index 000000000..be9dea538 --- /dev/null +++ b/ja/built-in-nodes/InvertMask.mdx @@ -0,0 +1,22 @@ +--- +title: "InvertMask - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における InvertMask ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "InvertMask" +icon: "circle" +mode: wide +translationSourceHash: c381766c +translationFrom: built-in-nodes/InvertMask.mdx, zh-CN/built-in-nodes/InvertMask.mdx +--- +InvertMask ノードは、指定されたマスクの値を反転させるために設計されており、マスク領域と非マスク領域を効果的に入れ替えます。この操作は、画像処理タスクにおいて、関心領域を前景と背景の間で切り替える必要がある場合に基本的な処理となります。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|--------------|-------------| +| `mask` | MASK | `mask` パラメーターは、反転対象となる入力マスクを表します。反転処理においてどの領域を反転させるかを決定するために不可欠です。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|--------------|-------------| +| `mask` | MASK | 出力は入力マスクを反転させたものであり、従来のマスク領域は非マスク領域となり、その逆も同様です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/JoinAudioChannels.mdx b/ja/built-in-nodes/JoinAudioChannels.mdx new file mode 100644 index 000000000..9ff5204d8 --- /dev/null +++ b/ja/built-in-nodes/JoinAudioChannels.mdx @@ -0,0 +1,29 @@ +--- +title: "JoinAudioChannels - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における JoinAudioChannels ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "JoinAudioChannels" +icon: "circle" +mode: wide +translationSourceHash: 0feba823 +translationFrom: built-in-nodes/JoinAudioChannels.mdx, zh-CN/built-in-nodes/JoinAudioChannels.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や、改善に関するご提案がありましたら、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/JoinAudioChannels/en.md) + +「Join Audio Channels」ノードは、2 つの独立したモノラル音声入力を 1 つのステレオ音声出力に結合します。このノードは左チャンネルと右チャンネルの音声をそれぞれ受け取り、両者が互換性のあるサンプルレートおよび長さを持つことを確認したうえで、2 チャンネルの音声波形に統合します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `audio_left` | AUDIO | はい | | 出力されるステレオ音声の左チャンネルとして使用するモノラル音声データです。 | +| `audio_right` | AUDIO | はい | | 出力されるステレオ音声の右チャンネルとして使用するモノラル音声データです。 | + +**注意:** 両方の入力音声ストリームはモノラル(単一チャンネル)である必要があります。サンプルレートが異なる場合、低い方のサンプルレートを持つチャンネルが自動的に再サンプリングされ、高い方のサンプルレートに一致させられます。また、音声ストリームの長さが異なる場合は、短い方の長さに合わせて切り捨てられます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `audio` | AUDIO | 左チャンネルおよび右チャンネルを結合して生成されたステレオ音声です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/JoinImageWithAlpha.mdx b/ja/built-in-nodes/JoinImageWithAlpha.mdx new file mode 100644 index 000000000..2ed1ae424 --- /dev/null +++ b/ja/built-in-nodes/JoinImageWithAlpha.mdx @@ -0,0 +1,23 @@ +--- +title: "JoinImageWithAlpha - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における JoinImageWithAlpha ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "JoinImageWithAlpha" +icon: "circle" +mode: wide +translationSourceHash: 989a17af +translationFrom: built-in-nodes/JoinImageWithAlpha.mdx, zh-CN/built-in-nodes/JoinImageWithAlpha.mdx +--- +このノードは合成処理を目的として設計されており、特に画像と対応するアルファマスクを結合して単一の出力画像を生成します。これにより、視覚的なコンテンツと透明度情報が効果的に統合され、特定の領域が透明または半透明となる画像の作成が可能になります。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `image` | `IMAGE` | アルファマスクと結合される主な視覚コンテンツです。透明度情報を持たない画像を表します。 | +| `alpha` | `MASK` | 対応する画像の透明度を定義するアルファマスクです。画像のどの部分を透明または半透明にするかを決定するために使用されます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `image` | `IMAGE` | 出力は、入力画像とアルファマスクを結合した単一の画像であり、視覚コンテンツに透明度情報を統合しています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/KSampler.mdx b/ja/built-in-nodes/KSampler.mdx new file mode 100644 index 000000000..020cebcaf --- /dev/null +++ b/ja/built-in-nodes/KSampler.mdx @@ -0,0 +1,89 @@ +--- +title: "KSampler - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUIにおけるKSamplerノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KSampler" +icon: "circle" +mode: wide +translationSourceHash: 5184492d +translationFrom: built-in-nodes/KSampler.mdx, zh-CN/built-in-nodes/KSampler.mdx +--- +KSamplerは、指定されたモデルおよび正の条件(positive)・負の条件(negative)に基づいて、入力された元の潜在画像(latent image)を変換するサンプラーです。 +まず、設定された**seed(乱数シード)** と **denoise(デノイズ強度)** に従って、元の画像データにノイズを付加します。その後、事前に設定された**Model(モデル)** と、**positive(正の条件)**・**negative(負の条件)** のガイド条件を組み合わせて画像を生成します。 + +## 入力 + +| パラメーター名 | データ型 | 必須 | デフォルト値 | 範囲/選択肢 | 説明 | +| ---------------------- | -------------- | ---- | ------------ | ------------------------ | ---------------------------------------------------------------------------------------- | +| Model | checkpoint | はい | なし | - | デノイズ処理に使用される入力モデル | +| seed | Int | はい | 0 | 0 ~ 18446744073709551615 | ランダムノイズを生成する際に使用される値。同一の「seed」を用いると、同一の画像が再現されます | +| steps | Int | はい | 20 | 1 ~ 10000 | デノイズ処理で使用するステップ数。ステップ数が多いほど、結果の精度が高くなります | +| cfg | float | はい | 8.0 | 0.0 ~ 100.0 | 生成画像が入力条件にどれだけ忠実になるかを制御します。推奨値は6~8です | +| sampler_name | UI オプション | はい | なし | 複数のアルゴリズム | デノイズに使用するサンプラーを選択します。生成速度やスタイルに影響を与えます | +| scheduler | UI オプション | はい | なし | 複数のスケジューラ | ノイズをどのタイミング・どの割合で除去するかを制御します。生成プロセスに影響を与えます | +| Positive | conditioning | はい | なし | - | デノイズを誘導する正の条件。画像に含めたい要素を指定します | +| Negative | conditioning | はい | なし | - | デノイズを誘導する負の条件。画像に含めたくない要素を指定します | +| Latent_Image | Latent | はい | なし | - | デノイズ対象となる潜在画像(latent image) | +| denoise | float | いいえ | 1.0 | 0.0 ~ 1.0 | ノイズ除去の割合を決定します。値が小さいほど、入力画像との関連性が低くなり、画像間変換(image-to-image)に適しています | +| control_after_generate | UI オプション | いいえ | なし | Random/Inc/Dec/Keep | 各プロンプト実行後にseedを変更する機能を提供します | + +## 出力 + +| パラメーター | 機能 | +| ------------ | ------------------------------------------ | +| Latent | サンプラーによるデノイズ後の潜在画像を出力します | + +## ソースコード + +[2025年5月15日更新] + +```Python + +def common_ksampler(model, seed, steps, cfg, sampler_name, scheduler, positive, negative, latent, denoise=1.0, disable_noise=False, start_step=None, last_step=None, force_full_denoise=False): + latent_image = latent["samples"] + latent_image = comfy.sample.fix_empty_latent_channels(model, latent_image) + + if disable_noise: + noise = torch.zeros(latent_image.size(), dtype=latent_image.dtype, layout=latent_image.layout, device="cpu") + else: + batch_inds = latent["batch_index"] if "batch_index" in latent else None + noise = comfy.sample.prepare_noise(latent_image, seed, batch_inds) + + noise_mask = None + if "noise_mask" in latent: + noise_mask = latent["noise_mask"] + + callback = latent_preview.prepare_callback(model, steps) + disable_pbar = not comfy.utils.PROGRESS_BAR_ENABLED + samples = comfy.sample.sample(model, noise, steps, cfg, sampler_name, scheduler, positive, negative, latent_image, + denoise=denoise, disable_noise=disable_noise, start_step=start_step, last_step=last_step, + force_full_denoise=force_full_denoise, noise_mask=noise_mask, callback=callback, disable_pbar=disable_pbar, seed=seed) + out = latent.copy() + out["samples"] = samples + return (out, ) +class KSampler: + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "model": ("MODEL", {"tooltip": "入力潜在画像のデノイズに使用されるモデル。"}), + "seed": ("INT", {"default": 0, "min": 0, "max": 0xffffffffffffffff, "control_after_generate": True, "tooltip": "ノイズ生成に使用されるランダムシード。"}), + "steps": ("INT", {"default": 20, "min": 1, "max": 10000, "tooltip": "デノイズ処理で使用されるステップ数。"}), + "cfg": ("FLOAT", {"default": 8.0, "min": 0.0, "max": 100.0, "step":0.1, "round": 0.01, "tooltip": "Classifier-Free Guidance(CFG)スケール。創造性とプロンプトへの忠実度のバランスを調整します。値が高すぎると品質が低下する場合があります。"}), + "sampler_name": (comfy.samplers.KSampler.SAMPLERS, {"tooltip": "サンプリング時に使用されるアルゴリズム。生成結果の品質、速度、スタイルに影響を与えます。"}), + "scheduler": (comfy.samplers.KSampler.SCHEDULERS, {"tooltip": "ノイズを段階的に除去して画像を形成する際の制御方法を定義します。"}), + "positive": ("CONDITIONING", {"tooltip": "画像に含めたい属性を記述した条件付け情報。"}), + "negative": ("CONDITIONING", {"tooltip": "画像に含めたくない属性を記述した条件付け情報。"}), + "latent_image": ("LATENT", {"tooltip": "デノイズ対象となる潜在画像。"}), + "denoise": ("FLOAT", {"default": 1.0, "min": 0.0, "max": 1.0, "step": 0.01, "tooltip": "適用されるデノイズ量。値が小さいほど初期画像の構造を保持でき、画像間変換(image-to-image)に適しています。"}), + } + } + + RETURN_TYPES = ("LATENT",) + OUTPUT_TOOLTIPS = ("デノイズ済みの潜在画像。",) + FUNCTION = "sample" + + CATEGORY = "sampling" + DESCRIPTION = "指定されたモデルおよび正・負の条件付け情報を用いて、潜在画像のデノイズを行います。" + + def sample(self, model, seed, steps, cfg, sampler_name, scheduler, positive, negative, latent_image, denoise=1.0): + return common_ksampler(model, seed, steps, cfg, sampler_name, scheduler, positive, negative, latent_image, denoise=denoise) diff --git a/ja/built-in-nodes/KSamplerAdvanced.mdx b/ja/built-in-nodes/KSamplerAdvanced.mdx new file mode 100644 index 000000000..f430bb373 --- /dev/null +++ b/ja/built-in-nodes/KSamplerAdvanced.mdx @@ -0,0 +1,36 @@ +--- +title: "KSamplerAdvanced - ComfyUI 組み込みノード ドキュメンテーション" +description: "ComfyUI の KSamplerAdvanced ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KSamplerAdvanced" +icon: "circle" +mode: wide +translationSourceHash: 873e9e25 +translationFrom: built-in-nodes/KSamplerAdvanced.mdx, zh-CN/built-in-nodes/KSamplerAdvanced.mdx +translationMismatches: + - "description" +--- +`KSamplerAdvanced`(Kサンプラー:高度版)ノードは、`KSampler` ノードの高度なバージョンであり、サンプリング処理をより細かく制御することを目的としています。`KSampler` では、常に潜在画像(Latent)にノイズを追加した後、そのノイズを完全に除去しますが、`KSamplerAdvanced` ノードではこのプロセスをより精密に調整できます。**`add_noise`(ノイズの追加)** 設定により、潜在画像にノイズを追加するかどうかを指定できます。また、**`return_with_leftover_noise`(残余ノイズを含めて返す)** 設定を用いることで、一部のノイズが残った状態の潜在画像を出力することも可能です。`KSampler` ノードとは異なり、本ノードには **`denoise`(デノイズ)** 設定はありませんが、代わりに **`start_at_step`(開始ステップ)** および **`end_at_step`(終了ステップ)** 設定によってノイズ除去の範囲を制御します。このため、部分的にノイズが除去された潜在画像を次の `KSamplerAdvanced` ノードへと渡し、異なるノイズ除去段階で異なる手法を適用することが可能になります。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------------------|--------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| `model` | MODEL | サンプル生成に使用するモデルを指定します。サンプリング処理において極めて重要な役割を果たします。 | +| `add_noise` | COMBO[STRING] | サンプリング処理にノイズを追加するかどうかを決定します。これにより、生成されるサンプルの多様性および品質に影響を与えます。 | +| `noise_seed` | INT | ノイズ生成のシード値を設定します。これにより、サンプリング処理の再現性が保証されます。 | +| `steps` | INT | サンプリング処理におけるステップ数を定義します。出力結果のディテールおよび品質に影響を与えます。 | +| `cfg` | FLOAT | 条件付け係数(Conditioning Factor)を制御します。これにより、サンプリング処理の方向性および探索空間が影響を受けます。 | +| `sampler_name` | COMBO[STRING] | 使用する特定のサンプラーを選択します。サンプリング技術をカスタマイズできます。 | +| `scheduler` | COMBO[STRING] | サンプリング処理を制御するスケジューラーを選択します。サンプルの進行状況および品質に影響を与えます。 | +| `positive` | CONDITIONING | 望ましい属性へとサンプリングを誘導するための「正の条件付け」を指定します。 | +| `negative` | CONDITIONING | 特定の属性からサンプリングを逸らすための「負の条件付け」を指定します。 | +| `latent_image` | LATENT | サンプリング処理で使用する初期潜在画像を提供します。これは処理の起点となります。 | +| `start_at_step` | INT | サンプリング処理の開始ステップを決定します。これにより、サンプリングの進行状況を制御できます。 | +| `end_at_step` | INT | サンプリング処理の終了ステップを設定します。これにより、サンプリングの範囲が定義されます。 | +| `return_with_leftover_noise` | COMBO[STRING] | 残余ノイズを含む状態でサンプルを返すかどうかを示します。これにより、最終出力の外観に影響を与えます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|----------|--------------------------------------------------------------------------------------------------------------------| +| `latent` | LATENT | 出力は、モデルから生成された潜在画像を表します。適用された各種設定および技術が反映されています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/KSamplerSelect.mdx b/ja/built-in-nodes/KSamplerSelect.mdx new file mode 100644 index 000000000..6b1cbe7a6 --- /dev/null +++ b/ja/built-in-nodes/KSamplerSelect.mdx @@ -0,0 +1,22 @@ +--- +title: "KSamplerSelect - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における KSamplerSelect ノードの完全なドキュメンテーションです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "KSamplerSelect" +icon: "circle" +mode: wide +translationSourceHash: b3a3912f +translationFrom: built-in-nodes/KSamplerSelect.mdx, zh-CN/built-in-nodes/KSamplerSelect.mdx +--- +KSamplerSelect ノードは、指定されたサンプラー名に基づいて特定のサンプラーを選択するように設計されています。このノードはサンプラー選択の複雑さを抽象化し、ユーザーがタスクに応じて異なるサンプリング戦略を簡単に切り替えることを可能にします。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-------------------|-----------------|-------------------------------------------------------------------------------------------| +| `sampler_name` | COMBO[STRING] | 選択するサンプラーの名称を指定します。このパラメーターにより、どのサンプリング戦略が使用されるかが決定され、全体的なサンプリング動作および結果に影響を与えます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|---------------|--------------|--------------------------------------------------------------------| +| `sampler` | `SAMPLER` | 選択されたサンプラー・オブジェクトを返します。サンプリング処理にすぐに使用できます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Kandinsky5ImageToVideo.mdx b/ja/built-in-nodes/Kandinsky5ImageToVideo.mdx new file mode 100644 index 000000000..98b1ceeeb --- /dev/null +++ b/ja/built-in-nodes/Kandinsky5ImageToVideo.mdx @@ -0,0 +1,38 @@ +--- +title: "Kandinsky5ImageToVideo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における Kandinsky5ImageToVideo ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Kandinsky5ImageToVideo" +icon: "circle" +mode: wide +translationSourceHash: 7ba82c9b +translationFrom: built-in-nodes/Kandinsky5ImageToVideo.mdx, zh-CN/built-in-nodes/Kandinsky5ImageToVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Kandinsky5ImageToVideo/en.md) + +Kandinsky5ImageToVideo ノードは、Kandinsky モデルを用いた動画生成のために、条件付けデータおよび潜在空間データを準備します。このノードは空の動画潜在テンソルを作成し、オプションとして開始画像をエンコードして生成される動画の初期フレームをガイドすることができ、これに応じて正の条件付けおよび負の条件付けを修正します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | N/A | 動画生成をガイドするための正の条件付けプロンプトです。 | +| `negative` | CONDITIONING | はい | N/A | 動画生成から特定の概念を除外するための負の条件付けプロンプトです。 | +| `vae` | VAE | はい | N/A | オプションの開始画像を潜在空間へエンコードするために使用される VAE モデルです。 | +| `width` | INT | いいえ | 16~8192(ステップ 16) | 出力動画の幅(ピクセル単位)(デフォルト:768)。 | +| `height` | INT | いいえ | 16~8192(ステップ 16) | 出力動画の高さ(ピクセル単位)(デフォルト:512)。 | +| `length` | INT | いいえ | 1~8192(ステップ 4) | 動画のフレーム数(デフォルト:121)。 | +| `batch_size` | INT | いいえ | 1~4096 | 同時に生成する動画シーケンスの数(デフォルト:1)。 | +| `start_image` | IMAGE | いいえ | N/A | オプションの開始画像です。指定した場合、この画像がエンコードされ、モデル出力の潜在テンソルのノイズを含む初期部分を置き換えるために使用されます。 | + +**注意:** `start_image` が指定された場合、この画像は自動的に双線形補間により、指定された `width` および `height` にリサイズされます。また、画像バッチの先頭 `length` フレームがエンコードに使用されます。エンコードされた潜在表現は、その後 `positive` および `negative` の両方の条件付けに注入され、動画の初期外観をガイドします。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 変更後の正の条件付け。開始画像のエンコード済みデータが反映されている場合があります。 | +| `negative` | CONDITIONING | 変更後の負の条件付け。開始画像のエンコード済みデータが反映されている場合があります。 | +| `latent` | LATENT | 指定された次元に適合する形状の、ゼロで初期化された空の動画潜在テンソルです。 | +| `cond_latent` | LATENT | 提供された開始画像の、ノイズのないエンコード済み潜在表現です。これは内部的に、生成された動画潜在テンソルのノイズを含む初期部分を置き換えるために使用されます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/KarrasScheduler.mdx b/ja/built-in-nodes/KarrasScheduler.mdx new file mode 100644 index 000000000..353ba8190 --- /dev/null +++ b/ja/built-in-nodes/KarrasScheduler.mdx @@ -0,0 +1,27 @@ +--- +title: "KarrasScheduler - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の KarrasScheduler ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KarrasScheduler" +icon: "circle" +mode: wide +translationSourceHash: a57fc331 +translationFrom: built-in-nodes/KarrasScheduler.mdx, zh-CN/built-in-nodes/KarrasScheduler.mdx +translationMismatches: + - "description" +--- +`KarrasScheduler` ノードは、Karras ら(2022年)が提唱したノイズスケジュールに基づいて、一連のノイズレベル(シグマ値)を生成することを目的としています。このスケジューラーは、生成モデルにおける拡散プロセスの制御に有効であり、生成プロセスの各ステップで適用されるノイズレベルを微調整することが可能です。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|----------------|------------|-------------------------------------------------------------------------------------------| +| `steps` | INT | ノイズスケジュールにおけるステップ数を指定します。これにより、生成されるシグマ値の列の粒度が決まります。 | +| `sigma_max` | FLOAT | ノイズスケジュールにおける最大シグマ値で、ノイズレベルの上限を設定します。 | +| `sigma_min` | FLOAT | ノイズスケジュールにおける最小シグマ値で、ノイズレベルの下限を設定します。 | +| `rho` | FLOAT | ノイズスケジュールの曲線形状を制御するパラメーターで、シグマ最小値(`sigma_min`)からシグマ最大値(`sigma_max`)へとノイズレベルがどのように変化するかに影響を与えます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|--------------|------------|----------------------------------------------------------------------| +| `sigmas` | SIGMAS | Karras ら(2022年)のノイズスケジュールに従って生成されたノイズレベル(シグマ値)の列です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingCameraControlI2VNode.mdx b/ja/built-in-nodes/KlingCameraControlI2VNode.mdx new file mode 100644 index 000000000..4f7b8d48c --- /dev/null +++ b/ja/built-in-nodes/KlingCameraControlI2VNode.mdx @@ -0,0 +1,35 @@ +--- +title: "KlingCameraControlI2VNode - ComfyUI 組み込みノード ドキュメンテーション" +description: "ComfyUI における KlingCameraControlI2VNode ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingCameraControlI2VNode" +icon: "circle" +mode: wide +translationSourceHash: 8f0e1531 +translationFrom: built-in-nodes/KlingCameraControlI2VNode.mdx, zh-CN/built-in-nodes/KlingCameraControlI2VNode.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見した場合や改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingCameraControlI2VNode/en.md) + +# Kling 画像から動画へのカメラ制御ノード + +Kling 画像から動画へのカメラ制御ノードは、静止画をプロフェッショナルなカメラワーク(カメラ運鏡)を備えた映画的な動画に変換します。この専門的な「画像→動画」ノードでは、ズーム、回転、パン、チルト、およびファーストパーソンビューといった仮想カメラの動作を制御でき、同時に元の画像へのフォーカスを維持します。カメラ制御機能は、現時点では「プロモード」でのみ利用可能であり、`kling-v1-5` モデルを用いて 5 秒間の動画生成時にのみサポートされます。 + +## 入力パラメーター + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `start_frame` | IMAGE | はい | - | 参照画像 — URL または Base64 エンコード文字列。ファイルサイズは 10MB を超えてはならず、解像度は 300×300px 以上、アスペクト比は 1:2.5 ~ 2.5:1 の範囲内である必要があります。Base64 文字列には `data:image` プレフィックスを含めないでください。 | +| `prompt` | STRING | はい | - | ポジティブなテキストプロンプト(正向プロンプト) | +| `negative_prompt` | STRING | はい | - | ネガティブなテキストプロンプト(負向プロンプト) | +| `cfg_scale` | FLOAT | いいえ | 0.0–1.0 | テキストによるガイドの強さを制御します(デフォルト:0.75) | +| `aspect_ratio` | COMBO | いいえ | 複数の選択肢あり | 動画のアスペクト比を選択します(デフォルト:16:9) | +| `camera_control` | CAMERA_CONTROL | はい | - | 「Kling カメラ制御」ノードを使用して作成できます。動画生成時のカメラの移動および動きを制御します。 | + +## 出力パラメーター + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画出力 | +| `video_id` | STRING | 生成された動画の固有識別子(ユニークID) | +| `duration` | STRING | 生成された動画の再生時間(秒数) | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingCameraControlT2VNode.mdx b/ja/built-in-nodes/KlingCameraControlT2VNode.mdx new file mode 100644 index 000000000..6a928d3e9 --- /dev/null +++ b/ja/built-in-nodes/KlingCameraControlT2VNode.mdx @@ -0,0 +1,32 @@ +--- +title: "KlingCameraControlT2VNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における KlingCameraControlT2VNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingCameraControlT2VNode" +icon: "circle" +mode: wide +translationSourceHash: 6ab37a59 +translationFrom: built-in-nodes/KlingCameraControlT2VNode.mdx, zh-CN/built-in-nodes/KlingCameraControlT2VNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingCameraControlT2VNode/en.md) + +Kling テキストから動画へのカメラ制御ノードは、実世界の映画撮影を模倣したプロフェッショナルなカメラ動きを備えた映画的な動画をテキストから生成します。このノードでは、ズーム、回転、パン、チルト、およびファーストパーソンビューといった仮想カメラの動作を制御でき、同時に元のテキストへのフォーカスを維持します。カメラ制御機能は「プロモード」でのみサポートされており、モデル名 `kling-v1-5` および動画長 5 秒という条件に限定されています。そのため、動画の長さ(duration)、モード、およびモデル名はハードコードされています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `prompt` | STRING | はい | - | 正のテキストプロンプト | +| `negative_prompt` | STRING | はい | - | 負のテキストプロンプト | +| `cfg_scale` | FLOAT | いいえ | 0.0–1.0 | 出力がプロンプトにどれだけ従うかを制御します(デフォルト:0.75) | +| `aspect_ratio` | COMBO | いいえ | "16:9"
"9:16"
"1:1"
"21:9"
"3:4"
"4:3" | 生成される動画のアスペクト比(デフォルト:"16:9") | +| `camera_control` | CAMERA_CONTROL | いいえ | - | 「Kling Camera Controls」ノードを使用して作成できます。動画生成時のカメラの移動および動きを制御します。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `output` | VIDEO | カメラ制御効果を適用した生成動画 | +| `video_id` | STRING | 生成された動画の固有識別子 | +| `duration` | STRING | 生成された動画の再生時間 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingCameraControls.mdx b/ja/built-in-nodes/KlingCameraControls.mdx new file mode 100644 index 000000000..86dc71635 --- /dev/null +++ b/ja/built-in-nodes/KlingCameraControls.mdx @@ -0,0 +1,34 @@ +--- +title: "KlingCameraControls - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における KlingCameraControls ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingCameraControls" +icon: "circle" +mode: wide +translationSourceHash: 164fe296 +translationFrom: built-in-nodes/KlingCameraControls.mdx, zh-CN/built-in-nodes/KlingCameraControls.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingCameraControls/en.md) + +Kling Camera Controls ノードを使用すると、動画生成におけるモーションコントロール効果を作成するための、さまざまなカメラの移動および回転パラメーターを設定できます。このノードでは、カメラの位置決め、回転、ズームを制御することで、さまざまなカメラ運動をシミュレートします。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `camera_control_type` | COMBO | はい | 複数の選択肢が利用可能 | 使用するカメラ制御構成の種類を指定します | +| `horizontal_movement` | FLOAT | いいえ | -10.0 ~ 10.0 | カメラの水平方向(x 軸)への移動を制御します。負の値は左方向、正の値は右方向を意味します(デフォルト:0.0) | +| `vertical_movement` | FLOAT | いいえ | -10.0 ~ 10.0 | カメラの垂直方向(y 軸)への移動を制御します。負の値は下方向、正の値は上方向を意味します(デフォルト:0.0) | +| `pan` | FLOAT | いいえ | -10.0 ~ 10.0 | カメラの垂直面(x 軸)における回転を制御します。負の値は下向きの回転、正の値は上向きの回転を意味します(デフォルト:0.5) | +| `tilt` | FLOAT | いいえ | -10.0 ~ 10.0 | カメラの水平面(y 軸)における回転を制御します。負の値は左向きの回転、正の値は右向きの回転を意味します(デフォルト:0.0) | +| `roll` | FLOAT | いいえ | -10.0 ~ 10.0 | カメラのロール量(z 軸)を制御します。負の値は反時計回り、正の値は時計回りを意味します(デフォルト:0.0) | +| `zoom` | FLOAT | いいえ | -10.0 ~ 10.0 | カメラの焦点距離の変化を制御します。負の値は画角が狭くなることを、正の値は画角が広くなることを意味します(デフォルト:0.0) | + +**注意:** 構成が有効となるには、少なくともいずれかのカメラ制御パラメーター(`horizontal_movement`、`vertical_movement`、`pan`、`tilt`、`roll`、または `zoom`)の値がゼロでない必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `camera_control` | CAMERA_CONTROL | 動画生成で使用するための、設定済みカメラ制御パラメーターを返します | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingDualCharacterVideoEffectNode.mdx b/ja/built-in-nodes/KlingDualCharacterVideoEffectNode.mdx new file mode 100644 index 000000000..7b2c287b9 --- /dev/null +++ b/ja/built-in-nodes/KlingDualCharacterVideoEffectNode.mdx @@ -0,0 +1,32 @@ +--- +title: "KlingDualCharacterVideoEffectNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における KlingDualCharacterVideoEffectNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingDualCharacterVideoEffectNode" +icon: "circle" +mode: wide +translationSourceHash: 03113c05 +translationFrom: built-in-nodes/KlingDualCharacterVideoEffectNode.mdx, zh-CN/built-in-nodes/KlingDualCharacterVideoEffectNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingDualCharacterVideoEffectNode/en.md) + +Kling 双キャラクター動画エフェクトノード(KlingDualCharacterVideoEffectNode)は、選択されたシーンに基づいて特殊効果付きの動画を生成します。このノードは2枚の画像を受け取り、1枚目を合成動画の左側に、2枚目を右側に配置します。選択されたエフェクトシーンに応じて、異なる視覚効果が適用されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image_left` | IMAGE | はい | - | 左側の画像 | +| `image_right` | IMAGE | はい | - | 右側の画像 | +| `effect_scene` | COMBO | はい | 複数のオプションから選択可能 | 動画生成に適用する特殊効果シーンの種類 | +| `model_name` | COMBO | いいえ | 複数のオプションから選択可能 | キャラクター効果に使用するモデル(デフォルト: `"kling-v1"`) | +| `mode` | COMBO | いいえ | 複数のオプションから選択可能 | 動画生成モード(デフォルト: `"std"`) | +| `duration` | COMBO | はい | 複数のオプションから選択可能 | 生成される動画の再生時間 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 二つのキャラクターによる特殊効果を含む生成動画 | +| `duration` | STRING | 生成された動画の再生時間に関する情報 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingFirstLastFrameNode.mdx b/ja/built-in-nodes/KlingFirstLastFrameNode.mdx new file mode 100644 index 000000000..262af54f5 --- /dev/null +++ b/ja/built-in-nodes/KlingFirstLastFrameNode.mdx @@ -0,0 +1,35 @@ +--- +title: "KlingFirstLastFrameNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における KlingFirstLastFrameNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingFirstLastFrameNode" +icon: "circle" +mode: wide +translationSourceHash: eee2cd73 +translationFrom: built-in-nodes/KlingFirstLastFrameNode.mdx, zh-CN/built-in-nodes/KlingFirstLastFrameNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingFirstLastFrameNode/en.md) + +このノードは Kling 3.0 モデルを用いて動画を生成します。テキストプロンプト、指定された再生時間、および提供された2枚の画像(開始フレームと終了フレーム)に基づいて動画を作成します。また、このノードは動画に付随する音声も生成できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | N/A | 動画生成をガイドするテキスト説明です。文字数は1~2500文字である必要があります。 | +| `duration` | INT | いいえ | 3~15 | 動画の再生時間(秒単位)。デフォルト値は5です。 | +| `first_frame` | IMAGE | はい | N/A | 動画の開始画像です。解像度は最低でも300×300ピクセル以上であり、アスペクト比は1:2.5~2.5:1の範囲内である必要があります。 | +| `end_frame` | IMAGE | はい | N/A | 動画の終了画像です。解像度は最低でも300×300ピクセル以上であり、アスペクト比は1:2.5~2.5:1の範囲内である必要があります。 | +| `generate_audio` | BOOLEAN | いいえ | N/A | 動画に対して音声を生成するかどうかを制御します(デフォルト値:True)。 | +| `model` | COMBO | いいえ | `"kling-v3"` | モデルおよび生成設定です。このオプションを選択すると、ネストされた `resolution` パラメーターが表示されます。 | +| `model.resolution` | COMBO | いいえ | `"1080p"`
`"720p"` | 生成される動画の解像度です。このパラメーターは、`model` が `"kling-v3"` に設定されている場合のみ利用可能です。 | +| `seed` | INT | いいえ | 0~2147483647 | ノードを再実行するかどうかを制御するための数値です。結果はシード値に関係なく非決定的です(デフォルト値:0)。 | + +**注意:** `first_frame` および `end_frame` の画像は、ノードが正しく機能するために、指定された最小サイズおよびアスペクト比の要件を満たす必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画ファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingImage2VideoNode.mdx b/ja/built-in-nodes/KlingImage2VideoNode.mdx new file mode 100644 index 000000000..2e3920318 --- /dev/null +++ b/ja/built-in-nodes/KlingImage2VideoNode.mdx @@ -0,0 +1,35 @@ +--- +title: "KlingImage2VideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における KlingImage2VideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingImage2VideoNode" +icon: "circle" +mode: wide +translationSourceHash: 873fa0ca +translationFrom: built-in-nodes/KlingImage2VideoNode.mdx, zh-CN/built-in-nodes/KlingImage2VideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingImage2VideoNode/en.md) + +Kling Image to Video ノードは、開始画像とテキストプロンプトを用いて動画コンテンツを生成します。このノードは参照画像を受け取り、指定されたポジティブ(正向)およびネガティブ(負向)なテキスト記述に基づいて動画シーケンスを作成します。また、モデル選択、再生時間、アスペクト比など、さまざまな設定オプションが利用可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `start_frame` | IMAGE | はい | - | 動画生成に使用される参照画像です。 | +| `prompt` | STRING | はい | - | ポジティブ(正向)テキストプロンプトです。 | +| `negative_prompt` | STRING | はい | - | ネガティブ(負向)テキストプロンプトです。 | +| `model_name` | COMBO | はい | 複数の選択肢あり | 動画生成に使用するモデルの選択(デフォルト: `"kling-v2-master"`)。 | +| `cfg_scale` | FLOAT | はい | 0.0–1.0 | 設定スケールパラメーター(デフォルト: `0.8`)。 | +| `mode` | COMBO | はい | 複数の選択肢あり | 動画生成モードの選択(デフォルト: `std`)。 | +| `aspect_ratio` | COMBO | はい | 複数の選択肢あり | 生成される動画のアスペクト比(デフォルト: `field_16_9`)。 | +| `duration` | COMBO | はい | 複数の選択肢あり | 生成される動画の再生時間(デフォルト: `field_5`)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `output` | VIDEO | 生成された動画出力です。 | +| `video_id` | STRING | 生成された動画の固有識別子です。 | +| `duration` | STRING | 生成された動画の再生時間に関する情報です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingImageGenerationNode.mdx b/ja/built-in-nodes/KlingImageGenerationNode.mdx new file mode 100644 index 000000000..c400d9442 --- /dev/null +++ b/ja/built-in-nodes/KlingImageGenerationNode.mdx @@ -0,0 +1,40 @@ +--- +title: "KlingImageGenerationNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の KlingImageGenerationNode ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingImageGenerationNode" +icon: "circle" +mode: wide +translationSourceHash: fcada403 +translationFrom: built-in-nodes/KlingImageGenerationNode.mdx, zh-CN/built-in-nodes/KlingImageGenerationNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingImageGenerationNode/en.md) + +Kling 画像生成ノードは、テキストプロンプトから画像を生成する機能を提供し、オプションとしてガイド用の参照画像を使用できます。このノードは、ユーザーが指定したテキスト記述および参照設定に基づいて 1 枚以上の画像を生成し、生成された画像を出力として返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | 正のテキストプロンプト | +| `negative_prompt` | STRING | はい | - | 負のテキストプロンプト | +| `image_type` | COMBO | はい | KlingImageGenImageReferenceType からの選択肢
(ソースコードより抽出) | 画像参照タイプの選択 | +| `image_fidelity` | FLOAT | はい | 0.0 - 1.0 | ユーザーがアップロードした画像に対する参照強度(デフォルト値:0.5) | +| `human_fidelity` | FLOAT | はい | 0.0 - 1.0 | 対象物の参照類似度(デフォルト値:0.45) | +| `model_name` | COMBO | はい | `"kling-v1"`
(および KlingImageGenModelName からのその他の選択肢) | 画像生成に使用するモデルの選択(デフォルト値:`"kling-v1"`) | +| `aspect_ratio` | COMBO | はい | `"16:9"`
(および KlingImageGenAspectRatio からのその他の選択肢) | 生成画像のアスペクト比(デフォルト値:`"16:9"`) | +| `n` | INT | はい | 1 - 9 | 生成する画像の枚数(デフォルト値:1) | +| `image` | IMAGE | いいえ | - | オプションの参照画像 | + +**パラメーター制約:** + +- `image` パラメーターは任意ですが、参照画像を指定した場合、`kling-v1` モデルは参照画像をサポートしません。 +- 正のプロンプトおよび負のプロンプトには最大長の制限があります(`MAX_PROMPT_LENGTH_IMAGE_GEN`)。 +- 参照画像が指定されない場合、`image_type` パラメーターは自動的に `None` に設定されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | IMAGE | 入力パラメーターに基づいて生成された画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingImageToVideoWithAudio.mdx b/ja/built-in-nodes/KlingImageToVideoWithAudio.mdx new file mode 100644 index 000000000..d1f7ddd43 --- /dev/null +++ b/ja/built-in-nodes/KlingImageToVideoWithAudio.mdx @@ -0,0 +1,29 @@ +--- +title: "KlingImageToVideoWithAudio - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における KlingImageToVideoWithAudio ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingImageToVideoWithAudio" +icon: "circle" +mode: wide +translationSourceHash: 2455996d +translationFrom: built-in-nodes/KlingImageToVideoWithAudio.mdx, zh-CN/built-in-nodes/KlingImageToVideoWithAudio.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingImageToVideoWithAudio/en.md) + +「Kling Image(最初のフレーム)→ 動画(音声付き)」ノードは、Kling AI モデルを用いて、1 枚の開始画像とテキストプロンプトから短い動画を生成します。このノードは、指定された画像を最初のフレームとして使用する動画シーケンスを作成し、オプションで視覚コンテンツに合わせた AI 生成音声を含めることができます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model_name` | COMBO | はい | `"kling-v2-6"` | 動画生成に使用する Kling AI モデルの特定バージョンです。 | +| `start_frame` | IMAGE | はい | - | 生成される動画の最初のフレームとして使用される画像です。画像サイズは最低でも 300×300 ピクセル以上であり、アスペクト比は 1:2.5 ~ 2.5:1 の範囲である必要があります。 | +| `prompt` | STRING | はい | - | ポジティブなテキストプロンプトです。生成したい動画の内容を記述します。プロンプトの長さは 1 文字以上、2500 文字以下である必要があります。 | +| `mode` | COMBO | はい | `"pro"` | 動画生成の動作モードです。 | +| `duration` | COMBO | はい | `5`
`10` | 生成する動画の長さ(秒単位)です。 | +| `generate_audio` | BOOLEAN | いいえ | - | 有効にすると、ノードは動画に同期した音声を生成します。無効にすると、動画は無音になります。(デフォルト:True) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `video` | VIDEO | 生成された動画ファイルです。`generate_audio` 入力パラメーターの設定に応じて、音声が含まれる場合と含まれない場合があります。 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingLipSyncAudioToVideoNode.mdx b/ja/built-in-nodes/KlingLipSyncAudioToVideoNode.mdx new file mode 100644 index 000000000..7ea092c67 --- /dev/null +++ b/ja/built-in-nodes/KlingLipSyncAudioToVideoNode.mdx @@ -0,0 +1,39 @@ +--- +title: "KlingLipSyncAudioToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における KlingLipSyncAudioToVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingLipSyncAudioToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 6b4f64d7 +translationFrom: built-in-nodes/KlingLipSyncAudioToVideoNode.mdx, zh-CN/built-in-nodes/KlingLipSyncAudioToVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingLipSyncAudioToVideoNode/en.md) + +Kling Lip Sync Audio to Video ノードは、動画ファイル内の口の動きを音声ファイルの内容と同期させる機能を提供します。このノードは音声に含まれる発話パターンを解析し、動画内の顔の動きを調整することで、リアルなリップシンク(口の動きの同期)効果を実現します。この処理には、明確に識別可能な顔が映っている動画ファイルと、はっきりと聞き分けられる発話が含まれている音声ファイルの両方が必要です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `video` | VIDEO | はい | - | リップシンク対象の顔を含む動画ファイル | +| `audio` | AUDIO | はい | - | 動画と同期させる発話を含む音声ファイル | +| `voice_language` | COMBO | いいえ | `"en"`
`"zh"`
`"es"`
`"fr"`
`"de"`
`"it"`
`"pt"`
`"pl"`
`"tr"`
`"ru"`
`"nl"`
`"cs"`
`"ar"`
`"ja"`
`"hu"`
`"ko"` | 音声ファイル内の発話の言語(デフォルト: `"en"`) | + +**重要な制約条件:** + +- 音声ファイルのサイズは5MBを超えてはいけません +- 動画ファイルのサイズは100MBを超えてはいけません +- 動画の解像度(高さ/幅)は720px~1920pxの範囲内である必要があります +- 動画の再生時間は2秒~10秒の範囲内である必要があります +- 音声には明確に聞き分けられる発話が含まれている必要があります +- 動画には明確に識別可能な顔が映っている必要があります + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | リップシンク処理済みの動画(口の動きが同期された動画) | +| `video_id` | STRING | 処理済み動画の固有識別子 | +| `duration` | STRING | 処理済み動画の再生時間 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingLipSyncTextToVideoNode.mdx b/ja/built-in-nodes/KlingLipSyncTextToVideoNode.mdx new file mode 100644 index 000000000..bdd584707 --- /dev/null +++ b/ja/built-in-nodes/KlingLipSyncTextToVideoNode.mdx @@ -0,0 +1,37 @@ +--- +title: "KlingLipSyncTextToVideoNode - ComfyUI 組み込みノード ドキュメンテーション" +description: "ComfyUI の KlingLipSyncTextToVideoNode ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingLipSyncTextToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: b2866339 +translationFrom: built-in-nodes/KlingLipSyncTextToVideoNode.mdx, zh-CN/built-in-nodes/KlingLipSyncTextToVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善の提案をお持ちの場合には、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingLipSyncTextToVideoNode/en.md) + +Kling 唇形同期(リップシンク)テキストから動画へ変換するノードは、動画ファイル内の口の動きをテキストプロンプトと同期させます。このノードは入力動画を受け取り、キャラクターの唇の動きが提供されたテキスト内容と一致する新しい動画を生成します。ノードは音声合成技術を用いて、自然でリアルな発話同期効果を実現します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `video` | VIDEO | はい | - | リップシンク処理用の入力動画ファイル | +| `text` | STRING | はい | - | リップシンク動画生成用のテキスト内容。モードが `text2video` の場合に必須です。最大長は 120 文字です。 | +| `voice` | COMBO | いいえ | "Melody"
"Bella"
"Aria"
"Ethan"
"Ryan"
"Dorothy"
"Nathan"
"Lily"
"Aaron"
"Emma"
"Grace"
"Henry"
"Isabella"
"James"
"Katherine"
"Liam"
"Mia"
"Noah"
"Olivia"
"Sophia" | リップシンク音声用の音声選択(デフォルト: "Melody") | +| `voice_speed` | FLOAT | いいえ | 0.8–2.0 | 話速(スピーチレート)。有効範囲:0.8~2.0(小数点以下1桁まで精度可)。デフォルト値:1 | + +**動画ファイルの要件:** + +- 動画ファイルサイズは 100MB を超えてはいけません +- 解像度(高さ/幅)は 720px ~ 1920px の範囲内である必要があります +- 再生時間は 2秒 ~ 10秒 の範囲内である必要があります + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | リップシンク音声を含む生成動画 | +| `video_id` | STRING | 生成された動画の固有識別子(ID) | +| `duration` | STRING | 生成された動画の再生時間情報 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingMotionControl.mdx b/ja/built-in-nodes/KlingMotionControl.mdx new file mode 100644 index 000000000..35b7219b0 --- /dev/null +++ b/ja/built-in-nodes/KlingMotionControl.mdx @@ -0,0 +1,34 @@ +--- +title: "KlingMotionControl - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における KlingMotionControl ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingMotionControl" +icon: "circle" +mode: wide +translationSourceHash: 33ca903c +translationFrom: built-in-nodes/KlingMotionControl.mdx, zh-CN/built-in-nodes/KlingMotionControl.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingMotionControl/en.md) + +Kling Motion Control ノードは、参照動画から取得した動き、表情、カメラ動作を、参照画像とテキストプロンプトで定義されたキャラクターに適用することで、動画を生成します。また、キャラクターの最終的な向き(オライエンテーション)が参照動画から得られるか、それとも参照画像から得られるかを制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | N/A | 生成したい動画のテキストによる説明です。最大長は2500文字です。 | +| `reference_image` | IMAGE | はい | N/A | アニメーション化する対象のキャラクター画像です。最小解像度は340×340ピクセルです。アスペクト比は1:2.5~2.5:1の範囲である必要があります。 | +| `reference_video` | VIDEO | はい | N/A | キャラクターの動きや表情を駆動するためのモーション参照動画です。最小解像度は340×340ピクセル、最大解像度は3850×3850ピクセルです。動画の再生時間の上限・下限は、`character_orientation` の設定に依存します。 | +| `keep_original_sound` | BOOLEAN | いいえ | N/A | 出力動画に参照動画の元の音声を保持するかどうかを指定します。デフォルト値は `True` です。 | +| `character_orientation` | COMBO | いいえ | `"video"`
`"image"` | キャラクターの向き(フェイシング/オライエンテーション)の出所を制御します。
`"video"`:動き、表情、カメラ移動、および向きすべてがモーション参照動画に従います。
`"image"`:動きと表情はモーション参照動画に従いますが、キャラクターの向きは参照画像に一致します。 | +| `mode` | COMBO | いいえ | `"pro"`
`"std"` | 使用する生成モードです。 | + +**制約条件:** + +* `character_orientation` を `"video"` に設定した場合、`reference_video` の再生時間は3秒以上30秒以下である必要があります。 +* `character_orientation` を `"image"` に設定した場合、`reference_video` の再生時間は3秒以上10秒以下である必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 参照動画の動きを再現したキャラクターを含む生成動画です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingOmniProEditVideoNode.mdx b/ja/built-in-nodes/KlingOmniProEditVideoNode.mdx new file mode 100644 index 000000000..343ecd004 --- /dev/null +++ b/ja/built-in-nodes/KlingOmniProEditVideoNode.mdx @@ -0,0 +1,40 @@ +--- +title: "KlingOmniProEditVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における KlingOmniProEditVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingOmniProEditVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 47123108 +translationFrom: built-in-nodes/KlingOmniProEditVideoNode.mdx, zh-CN/built-in-nodes/KlingOmniProEditVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingOmniProEditVideoNode/en.md) + +Kling Omni 編集動画(プロ)ノードは、テキストによる説明に基づいて既存の動画を編集する AI モデルを活用します。ソース動画とプロンプトを指定すると、要求された変更を反映した、元の長さと同じ長さの新しい動画が生成されます。オプションとして、スタイルを制御するための参照画像を指定でき、またソース動画のオリジナル音声を保持することも可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model_name` | COMBO | はい | `"kling-video-o1"` | 動画編集に使用する AI モデル。 | +| `prompt` | STRING | はい | | 動画の内容を記述するテキストプロンプト。ポジティブおよびネガティブな記述を含めることができます。 | +| `video` | VIDEO | はい | | 編集対象の動画。出力動画の長さはこれと同じになります。 | +| `keep_original_sound` | BOOLEAN | はい | | 入力動画のオリジナル音声を出力動画に保持するかどうかを決定します(デフォルト:True)。 | +| `reference_images` | IMAGE | いいえ | | 最大 4 枚の追加参照画像。 | +| `resolution` | COMBO | いいえ | `"1080p"`
`"720p"` | 出力動画の解像度(デフォルト:"1080p")。 | + +**制約と制限事項:** + +* `prompt` は 1 文字以上、2500 文字以下である必要があります。 +* 入力 `video` の再生時間は 3.0 秒以上、10.05 秒以下である必要があります。 +* 入力 `video` の解像度(幅×高さ)は 720×720 ピクセル以上、2160×2160 ピクセル以下である必要があります。 +* 動画を使用する場合、最大で 4 枚の `reference_images` を指定できます。 +* 各 `reference_image` は、少なくとも 300×300 ピクセルのサイズである必要があります。 +* 各 `reference_image` のアスペクト比は、1:2.5 から 2.5:1 の範囲内である必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `video` | VIDEO | AI モデルによって生成された編集済み動画。 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingOmniProFirstLastFrameNode.mdx b/ja/built-in-nodes/KlingOmniProFirstLastFrameNode.mdx new file mode 100644 index 000000000..f083bbc6b --- /dev/null +++ b/ja/built-in-nodes/KlingOmniProFirstLastFrameNode.mdx @@ -0,0 +1,41 @@ +--- +title: "KlingOmniProFirstLastFrameNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における KlingOmniProFirstLastFrameNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingOmniProFirstLastFrameNode" +icon: "circle" +mode: wide +translationSourceHash: 399afa72 +translationFrom: built-in-nodes/KlingOmniProFirstLastFrameNode.mdx, zh-CN/built-in-nodes/KlingOmniProFirstLastFrameNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください![GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingOmniProFirstLastFrameNode/en.md) + +このノードはKling AIモデルを用いて動画を生成します。起動画像(最初のフレーム)とテキストプロンプトの両方が必須です。また、オプションとして終了画像(最後のフレーム)または最大6枚の参照画像を指定することで、生成される動画の内容およびスタイルを制御できます。このノードはこれらの入力を処理し、指定された再生時間および解像度で動画を生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model_name` | COMBO | はい | `"kling-video-o1"` | 動画生成に使用する特定のKling AIモデル。 | +| `prompt` | STRING | はい | - | 動画の内容を記述するテキストプロンプト。肯定的および否定的な記述を含めることができます。 | +| `duration` | INT | はい | 3~10 | 生成される動画の希望再生時間(秒単位)。デフォルト値は5です。 | +| `first_frame` | IMAGE | はい | - | 動画シーケンスの開始画像(最初のフレーム)。 | +| `end_frame` | IMAGE | いいえ | - | 動画のオプション終了フレーム(最後のフレーム)。このパラメーターは `reference_images` と同時に使用できません。 | +| `reference_images` | IMAGE | いいえ | - | 最大6枚の追加参照画像。 | +| `resolution` | COMBO | いいえ | `"1080p"`
`"720p"` | 生成される動画の出力解像度。デフォルト値は `"1080p"` です。 | + +**重要な制約事項:** + +* `end_frame` 入力と `reference_images` 入力は同時に使用できません。 +* `end_frame` も `reference_images` も指定しない場合、`duration` は5秒または10秒のみに設定可能です。 +* すべての入力画像(`first_frame`、`end_frame`、および任意の `reference_images`)は、幅および高さの両方が300ピクセル以上である必要があります。 +* すべての入力画像のアスペクト比は、1:2.5 から 2.5:1 の範囲内である必要があります。 +* `reference_images` 入力では、最大6枚の画像を指定できます。 +* `prompt` テキストの長さは、1文字以上2500文字以下である必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画ファイル。 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingOmniProImageNode.mdx b/ja/built-in-nodes/KlingOmniProImageNode.mdx new file mode 100644 index 000000000..bd337cb76 --- /dev/null +++ b/ja/built-in-nodes/KlingOmniProImageNode.mdx @@ -0,0 +1,30 @@ +--- +title: "KlingOmniProImageNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における KlingOmniProImageNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingOmniProImageNode" +icon: "circle" +mode: wide +translationSourceHash: 04836939 +translationFrom: built-in-nodes/KlingOmniProImageNode.mdx, zh-CN/built-in-nodes/KlingOmniProImageNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingOmniProImageNode/en.md) + +Kling Omni Image(Pro)ノードは、Kling AI モデルを用いて画像を生成または編集します。このノードでは、テキストによる説明に基づいて画像を作成でき、スタイルやコンテンツをガイドするための参照画像を提供することも可能です。ノードは外部 API にリクエストを送信し、API 側でタスクが処理された後に最終的な画像が返されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +| :--- | :--- | :--- | :--- | :--- | +| `model_name` | COMBO | はい | `"kling-image-o1"` | 画像生成に使用する特定の Kling AI モデルです。 | +| `prompt` | STRING | はい | - | 画像の内容を記述するテキストプロンプトです。ポジティブおよびネガティブな記述を含めることができます。テキストの長さは 1 文字以上 2500 文字以下である必要があります。 | +| `resolution` | COMBO | はい | `"1K"`
`"2K"` | 生成される画像の目標解像度です。 | +| `aspect_ratio` | COMBO | はい | `"16:9"`
`"9:16"`
`"1:1"`
`"4:3"`
`"3:4"`
`"3:2"`
`"2:3"`
`"21:9"` | 生成される画像の希望するアスペクト比(横幅:高さ)です。 | +| `reference_images` | IMAGE | いいえ | - | 最大 10 枚の追加参照画像です。各画像の幅および高さはともに最低 300 ピクセル以上である必要があり、アスペクト比は 1:2.5 から 2.5:1 の範囲内である必要があります。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +| :--- | :--- | :--- | +| `image` | IMAGE | Kling AI モデルによって生成または編集された最終的な画像です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingOmniProImageToVideoNode.mdx b/ja/built-in-nodes/KlingOmniProImageToVideoNode.mdx new file mode 100644 index 000000000..af7150dd7 --- /dev/null +++ b/ja/built-in-nodes/KlingOmniProImageToVideoNode.mdx @@ -0,0 +1,33 @@ +--- +title: "KlingOmniProImageToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における KlingOmniProImageToVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingOmniProImageToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 8cd5265e +translationFrom: built-in-nodes/KlingOmniProImageToVideoNode.mdx, zh-CN/built-in-nodes/KlingOmniProImageToVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingOmniProImageToVideoNode/en.md) + +このノードは Kling AI モデルを用いて、テキストプロンプトおよび最大7枚の参照画像に基づいて動画を生成します。動画のアスペクト比、再生時間、解像度を制御できます。このノードはリクエストを外部 API に送信し、生成された動画を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model_name` | COMBO | はい | `"kling-video-o1"` | 動画生成に使用する特定の Kling モデル。 | +| `prompt` | STRING | はい | - | 動画の内容を記述するテキストプロンプト。正の指示と負の指示の両方を含めることができます。テキストは自動的に正規化され、文字数は1文字以上2500文字以下である必要があります。 | +| `aspect_ratio` | COMBO | はい | `"16:9"`
`"9:16"`
`"1:1"` | 生成される動画の希望アスペクト比。 | +| `duration` | INT | はい | 3~10 | 動画の再生時間(秒単位)。スライダーで値を調整できます(デフォルト:3)。 | +| `reference_images` | IMAGE | はい | - | 最大7枚の参照画像。各画像は最低でも300×300ピクセルであり、アスペクト比は1:2.5~2.5:1の範囲内である必要があります。 | +| `resolution` | COMBO | いいえ | `"1080p"`
`"720p"` | 動画の出力解像度。このパラメーターは任意です(デフォルト:"1080p")。 | + +**注意:** `reference_images` 入力は最大7枚の画像を受け付けます。それより多い画像が提供された場合、ノードはエラーを発生させます。各画像は最小サイズおよびアスペクト比の検証が行われます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画ファイル。 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingOmniProTextToVideoNode.mdx b/ja/built-in-nodes/KlingOmniProTextToVideoNode.mdx new file mode 100644 index 000000000..00ca72942 --- /dev/null +++ b/ja/built-in-nodes/KlingOmniProTextToVideoNode.mdx @@ -0,0 +1,28 @@ +--- +title: "KlingOmniProTextToVideoNode - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における KlingOmniProTextToVideoNode ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingOmniProTextToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 9ddddf1a +translationFrom: built-in-nodes/KlingOmniProTextToVideoNode.mdx, zh-CN/built-in-nodes/KlingOmniProTextToVideoNode.mdx +--- +> このドキュメンテーションはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingOmniProTextToVideoNode/en.md) + +このノードは Kling AI モデルを用いて、テキストによる説明から動画を生成します。ユーザーが指定したプロンプトをリモートAPIに送信し、生成された動画を返します。ノードでは、動画の再生時間、アスペクト比(画面比率)、および画質を制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model_name` | COMBO | はい | `"kling-video-o1"` | 動画生成に使用する特定の Kling モデル。 | +| `prompt` | STRING | はい | 1~2500 文字 | 動画の内容を記述するテキストプロンプト。正の指示と負の指示の両方を含めることができます。 | +| `aspect_ratio` | COMBO | はい | `"16:9"`
`"9:16"`
`"1:1"` | 生成する動画のアスペクト比(画面比率)またはサイズ。 | +| `duration` | COMBO | はい | `5`
`10` | 動画の再生時間(単位:秒)。 | +| `resolution` | COMBO | いいえ | `"1080p"`
`"720p"` | 動画の画質またはピクセル解像度(デフォルト値:`"1080p"`)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 提供されたテキストプロンプトに基づいて生成された動画。 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingOmniProVideoToVideoNode.mdx b/ja/built-in-nodes/KlingOmniProVideoToVideoNode.mdx new file mode 100644 index 000000000..1c39ea0f4 --- /dev/null +++ b/ja/built-in-nodes/KlingOmniProVideoToVideoNode.mdx @@ -0,0 +1,38 @@ +--- +title: "KlingOmniProVideoToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における KlingOmniProVideoToVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingOmniProVideoToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 2eac3738 +translationFrom: built-in-nodes/KlingOmniProVideoToVideoNode.mdx, zh-CN/built-in-nodes/KlingOmniProVideoToVideoNode.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingOmniProVideoToVideoNode/en.md) + +このノードはKling AIモデルを用いて、入力動画および任意の参照画像に基づき新しい動画を生成します。希望するコンテンツを記述したテキストプロンプトを提供すると、ノードが参照動画をそれに応じて変換します。また、出力のスタイルおよびコンテンツをガイドするために、最大4枚の追加参照画像を組み込むことも可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model_name` | COMBO | はい | `"kling-video-o1"` | 動画生成に使用する特定のKlingモデル。 | +| `prompt` | STRING | はい | N/A | 動画のコンテンツを記述するテキストプロンプト。ポジティブおよびネガティブな記述を含めることができます。 | +| `aspect_ratio` | COMBO | はい | `"16:9"`
`"9:16"`
`"1:1"` | 生成される動画の希望するアスペクト比。 | +| `duration` | INT | はい | 3~10 | 生成される動画の長さ(単位:秒、デフォルト値:3)。 | +| `reference_video` | VIDEO | はい | N/A | 参照として使用する動画。 | +| `keep_original_sound` | BOOLEAN | はい | N/A | 出力に参照動画の音声を保持するかどうかを指定します(デフォルト値:True)。 | +| `reference_images` | IMAGE | いいえ | N/A | 最大4枚の追加参照画像。 | +| `resolution` | COMBO | いいえ | `"1080p"`
`"720p"` | 生成される動画の解像度(デフォルト値:"1080p")。 | + +**パラメーター制約:** + +* `prompt` の文字数は1~2500文字の間である必要があります。 +* `reference_video` の再生時間は3.0~10.05秒の間である必要があります。 +* `reference_video` の解像度(ピクセルサイズ)は720×720~2160×2160ピクセルの間である必要があります。 +* `reference_images` は最大4枚まで指定できます。各画像のサイズは少なくとも300×300ピクセルであり、アスペクト比は1:2.5~2.5:1の間である必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 新しく生成された動画。 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingSingleImageVideoEffectNode.mdx b/ja/built-in-nodes/KlingSingleImageVideoEffectNode.mdx new file mode 100644 index 000000000..7f1151f73 --- /dev/null +++ b/ja/built-in-nodes/KlingSingleImageVideoEffectNode.mdx @@ -0,0 +1,33 @@ +--- +title: "KlingSingleImageVideoEffectNode - ComfyUI 組み込みノード ドキュメント" +description: "ComfyUI の KlingSingleImageVideoEffectNode ノードに関する完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "KlingSingleImageVideoEffectNode" +icon: "circle" +mode: wide +translationSourceHash: 42ea174a +translationFrom: built-in-nodes/KlingSingleImageVideoEffectNode.mdx, zh-CN/built-in-nodes/KlingSingleImageVideoEffectNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingSingleImageVideoEffectNode/en.md) + +Kling 単一画像動画エフェクトノード(KlingSingleImageVideoEffectNode)は、単一の参照画像に基づいて、さまざまな特殊効果を適用した動画を生成します。このノードは、多様な視覚エフェクトおよびシーンを適用し、静止画像を動的な動画コンテンツへと変換します。また、目的のビジュアル効果を実現するために、異なるエフェクトシーン、モデルオプション、および動画再生時間の設定をサポートしています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 参照画像。URL または Base64 エンコード文字列(`data:image` プレフィックスなし)。ファイルサイズは 10MB を超えてはならず、解像度は 300×300px 以上、アスペクト比は 1:2.5 ~ 2.5:1 の範囲内である必要があります。 | +| `effect_scene` | COMBO | はい | KlingSingleImageEffectsScene から選択可能な値 | 動画生成に適用する特殊効果シーンの種類 | +| `model_name` | COMBO | はい | KlingSingleImageEffectModelName から選択可能な値 | 動画エフェクト生成に使用する特定のモデル | +| `duration` | COMBO | はい | KlingVideoGenDuration から選択可能な値 | 生成される動画の長さ | + +**注意:** `effect_scene`、`model_name`、および `duration` の具体的な選択肢は、それぞれ対応する列挙型クラス(`KlingSingleImageEffectsScene`、`KlingSingleImageEffectModelName`、および `KlingVideoGenDuration`)で定義された利用可能な値によって決定されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 適用されたエフェクトを含む生成動画 | +| `video_id` | STRING | 生成された動画の固有識別子 | +| `duration` | STRING | 生成された動画の再生時間 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingStartEndFrameNode.mdx b/ja/built-in-nodes/KlingStartEndFrameNode.mdx new file mode 100644 index 000000000..ab226ff92 --- /dev/null +++ b/ja/built-in-nodes/KlingStartEndFrameNode.mdx @@ -0,0 +1,41 @@ +--- +title: "KlingStartEndFrameNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の KlingStartEndFrameNode ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingStartEndFrameNode" +icon: "circle" +mode: wide +translationSourceHash: ec024a03 +translationFrom: built-in-nodes/KlingStartEndFrameNode.mdx, zh-CN/built-in-nodes/KlingStartEndFrameNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingStartEndFrameNode/en.md) + +Kling 首尾フレームから動画へ(Kling Start-End Frame to Video)ノードは、指定した開始画像と終了画像の間で遷移する動画シーケンスを作成します。このノードは、最初のフレームから最後のフレームへと滑らかな変換を実現するために、中間のすべてのフレームを生成します。本ノードは画像から動画への API を呼び出しますが、`image_tail` リクエストフィールドと互換性のある入力オプションのみをサポートしています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `start_frame` | IMAGE | はい | - | 参照画像 — URL または Base64 エンコード文字列。ファイルサイズは 10MB を超えてはならず、解像度は 300×300 ピクセル以上である必要があります。アスペクト比は 1:2.5 ~ 2.5:1 の範囲内である必要があります。Base64 エンコードされた文字列には `data:image` プレフィックスを含めないでください。 | +| `end_frame` | IMAGE | はい | - | 参照画像 — 終了フレームの制御用。URL または Base64 エンコード文字列。ファイルサイズは 10MB を超えてはならず、解像度は 300×300 ピクセル以上である必要があります。Base64 エンコードされた文字列には `data:image` プレフィックスを含めないでください。 | +| `prompt` | STRING | はい | - | ポジティブなテキストプロンプト | +| `negative_prompt` | STRING | はい | - | ネガティブなテキストプロンプト | +| `cfg_scale` | FLOAT | いいえ | 0.0–1.0 | プロンプトによるガイドの強さを制御します(デフォルト値:0.5) | +| `aspect_ratio` | COMBO | いいえ | `"16:9"`
`"9:16"`
`"1:1"`
`"21:9"`
`"9:21"`
`"3:4"`
`"4:3"` | 生成される動画のアスペクト比(デフォルト値:`"16:9"`) | +| `mode` | COMBO | いいえ | 複数の選択肢が利用可能 | 動画生成に使用する設定。形式は「モード / 再生時間 / モデル名」です。(デフォルト値:利用可能なモードのうち、3 番目のオプション) | + +**画像の制約条件:** + +- `start_frame` および `end_frame` の両方を必ず指定する必要があります。また、それぞれのファイルサイズは 10MB を超えてはなりません。 +- 最小解像度:両画像とも 300×300 ピクセル以上である必要があります。 +- `start_frame` のアスペクト比は 1:2.5 ~ 2.5:1 の範囲内である必要があります。 +- Base64 エンコードされた画像には `data:image` プレフィックスを含めないでください。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `output` | VIDEO | 生成された動画シーケンス | +| `video_id` | STRING | 生成された動画の固有識別子 | +| `duration` | STRING | 生成された動画の再生時間 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingTextToVideoNode.mdx b/ja/built-in-nodes/KlingTextToVideoNode.mdx new file mode 100644 index 000000000..58788685b --- /dev/null +++ b/ja/built-in-nodes/KlingTextToVideoNode.mdx @@ -0,0 +1,32 @@ +--- +title: "KlingTextToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における KlingTextToVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingTextToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 35a4ff65 +translationFrom: built-in-nodes/KlingTextToVideoNode.mdx, zh-CN/built-in-nodes/KlingTextToVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingTextToVideoNode/en.md) + +Kling テキストから動画へのノード(Kling Text to Video Node)は、テキストによる説明を動画コンテンツに変換します。このノードはテキストプロンプトを受け取り、指定された設定に基づいて対応する動画シーケンスを生成します。また、さまざまなアスペクト比および生成モードをサポートしており、再生時間や品質が異なる動画を生成できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | ポジティブなテキストプロンプト(デフォルト:なし) | +| `negative_prompt` | STRING | はい | - | ネガティブなテキストプロンプト(デフォルト:なし) | +| `cfg_scale` | FLOAT | いいえ | 0.0–1.0 | 設定スケール値(デフォルト:1.0) | +| `aspect_ratio` | COMBO | いいえ | KlingVideoGenAspectRatio のオプションから選択 | 動画のアスペクト比設定(デフォルト:`"16:9"`) | +| `mode` | COMBO | いいえ | 複数のオプションが利用可能 | 動画生成に使用する設定。形式は「モード / 再生時間 / モデル名」です。(デフォルト:`modes[4]`) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画出力 | +| `video_id` | STRING | 生成された動画の固有識別子 | +| `duration` | STRING | 生成された動画の再生時間情報 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingTextToVideoWithAudio.mdx b/ja/built-in-nodes/KlingTextToVideoWithAudio.mdx new file mode 100644 index 000000000..133fe8e58 --- /dev/null +++ b/ja/built-in-nodes/KlingTextToVideoWithAudio.mdx @@ -0,0 +1,31 @@ +--- +title: "KlingTextToVideoWithAudio - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における KlingTextToVideoWithAudio ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingTextToVideoWithAudio" +icon: "circle" +mode: wide +translationSourceHash: c81be1fe +translationFrom: built-in-nodes/KlingTextToVideoWithAudio.mdx, zh-CN/built-in-nodes/KlingTextToVideoWithAudio.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingTextToVideoWithAudio/en.md) + +Kling Text to Video with Audio ノードは、テキストによる説明から短い動画を生成します。このノードは Kling AI サービスにリクエストを送信し、プロンプトを処理して動画ファイルを返却します。また、このノードはテキストに基づいて動画に付随する音声も生成できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model_name` | COMBO | はい | `"kling-v2-6"` | 動画生成に使用する特定の AI モデル。 | +| `prompt` | STRING | はい | - | ポジティブなテキストプロンプト。動画生成に用いる説明文であり、1~2500 文字の長さである必要があります。 | +| `mode` | COMBO | はい | `"pro"` | 動画生成の動作モード。 | +| `aspect_ratio` | COMBO | はい | `"16:9"`
`"9:16"`
`"1:1"` | 生成される動画の希望する横縦比(アスペクト比)。 | +| `duration` | COMBO | はい | `5`
`10` | 動画の長さ(単位:秒)。 | +| `generate_audio` | BOOLEAN | いいえ | - | 動画に対して音声を生成するかどうかを制御します。有効にすると、AI がプロンプトに基づいて音声を生成します。(デフォルト値:`True`) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画ファイル。 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingVideoExtendNode.mdx b/ja/built-in-nodes/KlingVideoExtendNode.mdx new file mode 100644 index 000000000..9eb2ed35f --- /dev/null +++ b/ja/built-in-nodes/KlingVideoExtendNode.mdx @@ -0,0 +1,31 @@ +--- +title: "KlingVideoExtendNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における KlingVideoExtendNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingVideoExtendNode" +icon: "circle" +mode: wide +translationSourceHash: d1b17809 +translationFrom: built-in-nodes/KlingVideoExtendNode.mdx, zh-CN/built-in-nodes/KlingVideoExtendNode.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingVideoExtendNode/en.md) + +Kling 動画拡張ノード(Kling Video Extend Node)は、他の Kling ノードによって作成された動画を拡張する機能を提供します。このノードは、既存の動画をその動画IDで特定し、ユーザーが指定したテキストプロンプトに基づいて追加コンテンツを生成します。ノードは、拡張リクエストを Kling API に送信し、拡張後の動画およびその新しいIDと再生時間を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | いいえ | - | 動画の拡張をガイドするためのポジティブなテキストプロンプト | +| `negative_prompt` | STRING | いいえ | - | 拡張後の動画に含めたくない要素を回避するためのネガティブなテキストプロンプト | +| `cfg_scale` | FLOAT | いいえ | 0.0 – 1.0 | プロンプトによる制御の強さを調整します(デフォルト値:0.5) | +| `video_id` | STRING | はい | - | 拡張対象の動画のIDです。テキストから動画生成(text-to-video)、画像から動画生成(image-to-video)、および以前の動画拡張操作によって生成された動画をサポートします。拡張後の総再生時間は3分を超えてはなりません。 | + +**注意:** `video_id` は、他の Kling ノードによって生成された動画を参照する必要があります。また、拡張後の総再生時間は3分を超えてはなりません。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | Kling API によって生成された拡張後の動画 | +| `video_id` | STRING | 拡張後の動画に対する一意の識別子 | +| `duration` | STRING | 拡張後の動画の再生時間 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingVideoNode.mdx b/ja/built-in-nodes/KlingVideoNode.mdx new file mode 100644 index 000000000..2ca409bf2 --- /dev/null +++ b/ja/built-in-nodes/KlingVideoNode.mdx @@ -0,0 +1,46 @@ +--- +title: "KlingVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の KlingVideoNode ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingVideoNode" +icon: "circle" +mode: wide +translationSourceHash: acabcce3 +translationFrom: built-in-nodes/KlingVideoNode.mdx, zh-CN/built-in-nodes/KlingVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingVideoNode/en.md) + +このノードは Kling V3 モデルを用いて動画を生成します。主に2つのモードをサポートしており、1つはテキストから動画を生成する「テキスト→動画」モード(テキストによる説明から動画を作成)、もう1つは既存の画像をアニメーション化する「画像→動画」モードです。さらに、各セグメントに異なるプロンプトと再生時間を設定できるマルチセグメント動画(ストーリーボード)の作成や、オプションで付随する音声の生成といった高度な機能も提供しています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `multi_shot` | COMBO | はい | `"disabled"`
`"1 storyboard"`
`"2 storyboards"`
`"3 storyboards"`
`"4 storyboards"`
`"5 storyboards"`
`"6 storyboards"` | 単一の動画を生成するか、個別のプロンプトと再生時間をもつ複数のセグメントを生成するかを制御します。「disabled」以外を選択すると、各ストーリーボードのプロンプトおよび再生時間のための追加入力項目が表示されます。 | +| `generate_audio` | BOOLEAN | はい | `True` / `False` | 有効にすると、ノードは動画に付随する音声を生成します。デフォルト値は `True` です。 | +| `model` | COMBO | はい | `"kling-v3"` | 使用するモデルおよびその関連設定です。このオプションを選択すると、`resolution` および `aspect_ratio` のサブパラメーターが表示されます。 | +| `model.resolution` | COMBO | はい | `"1080p"`
`"720p"` | 生成される動画の解像度です。`model` を `"kling-v3"` に設定した場合に利用可能です。 | +| `model.aspect_ratio` | COMBO | はい | `"16:9"`
`"9:16"`
`"1:1"` | 生成される動画のアスペクト比です。`start_frame` に画像が指定された場合(画像→動画モード)には、この設定は無視されます。`model` を `"kling-v3"` に設定した場合に利用可能です。 | +| `seed` | INT | はい | 0 ~ 2147483647 | 生成処理のシード値です。この値を変更するとノードが再実行されますが、結果は非決定的です。デフォルト値は `0` です。 | +| `start_frame` | IMAGE | いいえ | - | オプションの開始画像です。接続すると、ノードは「テキスト→動画」モードから「画像→動画」モードに切り替わり、指定された画像をアニメーション化します。 | + +**`multi_shot` モードにおける入力:** + +* `multi_shot` を **"disabled"** に設定した場合、以下の入力が表示されます: + * `prompt` (STRING): 動画の主なテキスト説明です。必須です。文字数は 1~2500 文字の範囲内である必要があります。 + * `negative_prompt` (STRING): 動画に含めたくない要素を記述したテキストです。任意です。 + * `duration` (INT): 動画の長さ(秒単位)です。3~15 秒の範囲である必要があります。デフォルト値は `5` です。 +* `multi_shot` をストーリーボードオプション(例:`"3 storyboards"`)に設定した場合、各ストーリーボードセグメントに対応する入力(例:`storyboard_1_prompt`、`storyboard_1_duration`)が表示されます。各プロンプトの文字数は 1~512 文字である必要があります。**すべてのストーリーボードの再生時間の合計**は、3~15 秒の範囲である必要があります。 + +**制約条件:** + +* `start_frame` が接続されていない場合、ノードは**テキスト→動画**モードで動作し、このモードでは `model.aspect_ratio` 設定が適用されます。 +* `start_frame` が接続されている場合、ノードは**画像→動画**モードで動作します。このモードでは `model.aspect_ratio` 設定は無視されます。入力画像は、最低でも 300×300 ピクセルのサイズであり、アスペクト比が 1:2.5 ~ 2.5:1 の範囲内である必要があります。 +* ストーリーボードモード(`multi_shot` が "disabled" でない場合)では、メインの `prompt` および `negative_prompt` 入力は非表示となり、使用されません。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `video` | VIDEO | 生成された動画ファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/KlingVirtualTryOnNode.mdx b/ja/built-in-nodes/KlingVirtualTryOnNode.mdx new file mode 100644 index 000000000..f016d62da --- /dev/null +++ b/ja/built-in-nodes/KlingVirtualTryOnNode.mdx @@ -0,0 +1,26 @@ +--- +title: "KlingVirtualTryOnNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における KlingVirtualTryOnNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "KlingVirtualTryOnNode" +icon: "circle" +mode: wide +translationSourceHash: 9a171326 +translationFrom: built-in-nodes/KlingVirtualTryOnNode.mdx, zh-CN/built-in-nodes/KlingVirtualTryOnNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/KlingVirtualTryOnNode/en.md) + +Kling 仮想試着ノードです。人物の画像と衣類の画像を入力することで、その衣類を人物に試着させることができます。複数の衣類アイテムの画像を、白色背景の単一画像に統合することも可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `human_image` | IMAGE | はい | - | 衣類を試着させる対象となる人物の画像 | +| `cloth_image` | IMAGE | はい | - | 人物に試着させる衣類の画像 | +| `model_name` | STRING | はい | `"kolors-virtual-try-on-v1"` | 使用する仮想試着モデル(デフォルト: `"kolors-virtual-try-on-v1"`) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | IMAGE | 人物が衣類を試着した様子を示す結果画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/LTXAVTextEncoderLoader.mdx b/ja/built-in-nodes/LTXAVTextEncoderLoader.mdx new file mode 100644 index 000000000..26be57aaa --- /dev/null +++ b/ja/built-in-nodes/LTXAVTextEncoderLoader.mdx @@ -0,0 +1,30 @@ +--- +title: "LTXAVTextEncoderLoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LTXAVTextEncoderLoader ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LTXAVTextEncoderLoader" +icon: "circle" +mode: wide +translationSourceHash: 476fade0 +translationFrom: built-in-nodes/LTXAVTextEncoderLoader.mdx, zh-CN/built-in-nodes/LTXAVTextEncoderLoader.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LTXAVTextEncoderLoader/en.md) + +このノードは、LTXV 音声モデル用の専用テキストエンコーダーを読み込みます。特定のテキストエンコーダーファイルとチェックポイントファイルを組み合わせることで、音声関連のテキスト条件付けタスクに使用可能な CLIP モデルを作成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `text_encoder` | STRING | はい | 複数の選択肢が利用可能 | 読み込む LTXV テキストエンコーダーモデルのファイル名です。利用可能なオプションは `text_encoders` フォルダーから読み込まれます。 | +| `ckpt_name` | STRING | はい | 複数の選択肢が利用可能 | 読み込むチェックポイントのファイル名です。利用可能なオプションは `checkpoints` フォルダーから読み込まれます。 | +| `device` | STRING | いいえ | `"default"`
`"cpu"` | モデルを読み込むデバイスを指定します。`"cpu"` を指定すると、CPU への強制読み込みが行われます。デフォルトの動作 (`"default"`) では、システムによる自動デバイス配置が使用されます。 | + +**注意:** `text_encoder` および `ckpt_name` パラメーターは連携して動作します。このノードは、指定された両方のファイルを読み込んで、単一かつ機能的な CLIP モデルを作成します。これらのファイルは、LTXV アーキテクチャと互換性がある必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `clip` | CLIP | 読み込まれた LTXV CLIP モデルで、音声生成タスク向けのテキストプロンプトをエンコードするために使用できます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LTXVAddGuide.mdx b/ja/built-in-nodes/LTXVAddGuide.mdx new file mode 100644 index 000000000..e9b80e728 --- /dev/null +++ b/ja/built-in-nodes/LTXVAddGuide.mdx @@ -0,0 +1,36 @@ +--- +title: "LTXVAddGuide - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LTXVAddGuide ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LTXVAddGuide" +icon: "circle" +mode: wide +translationSourceHash: 2be7d449 +translationFrom: built-in-nodes/LTXVAddGuide.mdx, zh-CN/built-in-nodes/LTXVAddGuide.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LTXVAddGuide/en.md) + +LTXVAddGuide ノードは、入力画像または動画をエンコードし、それをキーフレームとして条件付けデータに統合することで、潜在空間シーケンスに動画条件付けガイドを追加します。このノードは入力を VAE エンコーダーで処理し、得られた潜在表現を指定されたフレーム位置に戦略的に配置するとともに、正の条件付けおよび負の条件付けの両方をキーフレーム情報で更新します。また、フレームのアライメント制約を処理し、条件付けの影響強度を制御することも可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | キーフレームガイドで修正される正の条件付け入力 | +| `negative` | CONDITIONING | はい | - | キーフレームガイドで修正される負の条件付け入力 | +| `vae` | VAE | はい | - | 入力画像/動画フレームのエンコードに使用される VAE モデル | +| `latent` | LATENT | はい | - | 条件付けフレームを受ける入力潜在空間シーケンス | +| `image` | IMAGE | はい | - | 潜在空間動画に条件付けを行うための画像または動画。フレーム数は `8*n + 1`(例:1、9、17、25 フレーム)である必要があります。動画のフレーム数が `8*n + 1` でない場合、最も近い有効な `8*n + 1` フレーム数に自動的に切り捨てられます。 | +| `frame_idx` | INT | いいえ | -9999 ~ 9999 | 条件付けを開始するフレームインデックス。単一フレームの画像、または 1~8 フレームの動画の場合、任意の `frame_idx` 値を指定できます。9 フレーム以上の動画では、`frame_idx` は 8 の倍数である必要があります。そうでない場合は、最も近い 8 の倍数に切り捨てられます。負の値は動画の終端から逆算してカウントされます。(デフォルト:0) | +| `strength` | FLOAT | いいえ | 0.0 ~ 1.0 | 条件付けの影響強度。1.0 では完全な条件付けが適用され、0.0 では条件付けが適用されません。(デフォルト:1.0) | + +**注意:** 入力画像/動画のフレーム数は `8*n + 1` のパターン(例:1、9、17、25 フレーム)に従っている必要があります。入力がこのパターンに適合しない場合、最も近い有効なフレーム数に自動的に切り捨てられます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | キーフレームガイド情報を反映して更新された正の条件付けデータ | +| `negative` | CONDITIONING | キーフレームガイド情報を反映して更新された負の条件付けデータ | +| `latent` | LATENT | 条件付けフレームが組み込まれ、ノイズマスクが更新された潜在空間シーケンス | \ No newline at end of file diff --git a/ja/built-in-nodes/LTXVAudioVAEDecode.mdx b/ja/built-in-nodes/LTXVAudioVAEDecode.mdx new file mode 100644 index 000000000..c8c27fdb7 --- /dev/null +++ b/ja/built-in-nodes/LTXVAudioVAEDecode.mdx @@ -0,0 +1,27 @@ +--- +title: "LTXVAudioVAEDecode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LTXVAudioVAEDecode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LTXVAudioVAEDecode" +icon: "circle" +mode: wide +translationSourceHash: e83c0698 +translationFrom: built-in-nodes/LTXVAudioVAEDecode.mdx, zh-CN/built-in-nodes/LTXVAudioVAEDecode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LTXVAudioVAEDecode/en.md) + +LTXV Audio VAE Decode ノードは、音声の潜在表現(ラテント)を元の音声波形に変換します。このデコード処理には専用の Audio VAE モデルが使用され、特定のサンプルレートを持つ音声出力が生成されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `samples` | LATENT | はい | N/A | デコード対象の潜在表現です。 | +| `audio_vae` | VAE | はい | N/A | 潜在表現のデコードに使用される Audio VAE モデルです。 | + +**注意:** 提供された潜在表現がネスト構造(複数の潜在表現を含む)の場合、ノードは自動的にその列の最後の潜在表現をデコードに使用します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `Audio` | AUDIO | デコードされた音声波形および関連するサンプルレートです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LTXVAudioVAEEncode.mdx b/ja/built-in-nodes/LTXVAudioVAEEncode.mdx new file mode 100644 index 000000000..bd2a95c5d --- /dev/null +++ b/ja/built-in-nodes/LTXVAudioVAEEncode.mdx @@ -0,0 +1,25 @@ +--- +title: "LTXVAudioVAEEncode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LTXVAudioVAEEncode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LTXVAudioVAEEncode" +icon: "circle" +mode: wide +translationSourceHash: d32f0be2 +translationFrom: built-in-nodes/LTXVAudioVAEEncode.mdx, zh-CN/built-in-nodes/LTXVAudioVAEEncode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LTXVAudioVAEEncode/en.md) + +LTXV Audio VAE Encode ノードは、音声入力を受け取り、指定された Audio VAE モデルを用いてそれをより小さな潜在表現(ラテント表現)に圧縮します。この処理は、潜在空間ワークフロー内で音声を生成または操作する際に不可欠であり、生の音声データをパイプライン内の他のノードが理解・処理可能な形式に変換します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `audio` | AUDIO | はい | - | エンコード対象の音声です。 | +| `audio_vae` | VAE | はい | - | エンコードに使用する Audio VAE モデルです。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `Audio Latent` | LATENT | 入力音声の圧縮された潜在表現です。出力には潜在サンプル、VAE モデルのサンプリングレート、およびタイプ識別子が含まれます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LTXVAudioVAELoader.mdx b/ja/built-in-nodes/LTXVAudioVAELoader.mdx new file mode 100644 index 000000000..23c11a941 --- /dev/null +++ b/ja/built-in-nodes/LTXVAudioVAELoader.mdx @@ -0,0 +1,24 @@ +--- +title: "LTXVAudioVAELoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LTXVAudioVAELoader ノードの完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "LTXVAudioVAELoader" +icon: "circle" +mode: wide +translationSourceHash: 7e53a484 +translationFrom: built-in-nodes/LTXVAudioVAELoader.mdx, zh-CN/built-in-nodes/LTXVAudioVAELoader.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LTXVAudioVAELoader/en.md) + +LTXV Audio VAE Loader ノードは、チェックポイントファイルから事前学習済みの音声用変分自己符号化器(Audio Variational Autoencoder:VAE)モデルを読み込みます。指定されたチェックポイントを読み取り、その重みとメタデータをロードし、ComfyUI 内での音声生成または音声処理ワークフローで使用できるようモデルを準備します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `ckpt_name` | STRING | はい | `checkpoints` フォルダー内のすべてのファイル。
*例:`"audio_vae.safetensors"`* | 読み込む音声 VAE のチェックポイント。これは、ComfyUI の `checkpoints` ディレクトリ内に存在するすべてのファイルで構成されるドロップダウンリストです。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `Audio VAE` | VAE | 読み込まれた音声用変分自己符号化器モデル。他の音声処理ノードへ接続可能です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LTXVConcatAVLatent.mdx b/ja/built-in-nodes/LTXVConcatAVLatent.mdx new file mode 100644 index 000000000..d2cd3c025 --- /dev/null +++ b/ja/built-in-nodes/LTXVConcatAVLatent.mdx @@ -0,0 +1,29 @@ +--- +title: "LTXVConcatAVLatent - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における LTXVConcatAVLatent ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LTXVConcatAVLatent" +icon: "circle" +mode: wide +translationSourceHash: 02f2a431 +translationFrom: built-in-nodes/LTXVConcatAVLatent.mdx, zh-CN/built-in-nodes/LTXVConcatAVLatent.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LTXVConcatAVLatent/en.md) + +LTXVConcatAVLatent ノードは、動画の潜在表現と音声の潜在表現を単一の、連結された潜在出力に統合します。このノードは、両方の入力から `samples` テンソルを結合し、存在する場合にはそれらの `noise_mask` テンソルも同様に結合することで、動画生成パイプラインにおける後続処理の準備を行います。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `video_latent` | LATENT | はい | | 動画データの潜在表現です。 | +| `audio_latent` | LATENT | はい | | 音声データの潜在表現です。 | + +**注意:** `video_latent` および `audio_latent` 入力の `samples` テンソルが連結されます。いずれかの入力に `noise_mask` が含まれている場合、そのマスクが使用されます。一方、`noise_mask` が欠落している入力については、対応する `samples` と同じ形状を持つ、すべての要素が 1 のマスクが生成されます。その後、これらのマスクも連結されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `latent` | LATENT | 連結された `samples` を含む単一の潜在辞書です。また、適用可能な場合には、動画および音声入力から得られた連結された `noise_mask` も含まれます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LTXVConditioning.mdx b/ja/built-in-nodes/LTXVConditioning.mdx new file mode 100644 index 000000000..bd83be131 --- /dev/null +++ b/ja/built-in-nodes/LTXVConditioning.mdx @@ -0,0 +1,29 @@ +--- +title: "LTXVConditioning - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LTXVConditioning ノードに関する完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "LTXVConditioning" +icon: "circle" +mode: wide +translationSourceHash: f9b13ef6 +translationFrom: built-in-nodes/LTXVConditioning.mdx, zh-CN/built-in-nodes/LTXVConditioning.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や、改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LTXVConditioning/en.md) + +LTXVConditioning ノードは、動画生成モデル向けの正および負のコンディショニング入力にフレームレート情報を追加します。既存のコンディショニングデータを受け取り、指定されたフレームレート値を両方のコンディショニングセットに適用することで、動画モデルによる処理に適した形式に変換します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | フレームレート情報を付与される正のコンディショニング入力 | +| `negative` | CONDITIONING | はい | - | フレームレート情報を付与される負のコンディショニング入力 | +| `frame_rate` | FLOAT | いいえ | 0.0 - 1000.0 | 両方のコンディショニングセットに適用されるフレームレート値(デフォルト: 25.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | フレームレート情報が適用された正のコンディショニング | +| `negative` | CONDITIONING | フレームレート情報が適用された負のコンディショニング | \ No newline at end of file diff --git a/ja/built-in-nodes/LTXVCropGuides.mdx b/ja/built-in-nodes/LTXVCropGuides.mdx new file mode 100644 index 000000000..65506074a --- /dev/null +++ b/ja/built-in-nodes/LTXVCropGuides.mdx @@ -0,0 +1,30 @@ +--- +title: "LTXVCropGuides - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LTXVCropGuides ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LTXVCropGuides" +icon: "circle" +mode: wide +translationSourceHash: 1aab4890 +translationFrom: built-in-nodes/LTXVCropGuides.mdx, zh-CN/built-in-nodes/LTXVCropGuides.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LTXVCropGuides/en.md) + +LTXVCropGuides ノードは、キーフレーム情報を除去し、潜在空間の次元を調整することで、動画生成向けのコンディショニング入力および潜在空間入力を処理します。このノードは、潜在画像およびノイズマスクからキーフレーム領域を除外するように切り取りを行い、同時に正のコンディショニング入力および負のコンディショニング入力からキーフレームのインデックスをクリアします。これにより、キーフレームによるガイドを必要としない動画生成ワークフロー向けにデータが準備されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | 生成時のガイド情報を含む正のコンディショニング入力 | +| `negative` | CONDITIONING | はい | - | 生成時に回避すべき内容に関するガイド情報を含む負のコンディショニング入力 | +| `latent` | LATENT | はい | - | 画像サンプルおよびノイズマスクデータを含む潜在空間表現 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | キーフレームインデックスがクリアされた処理済みの正のコンディショニング | +| `negative` | CONDITIONING | キーフレームインデックスがクリアされた処理済みの負のコンディショニング | +| `latent` | LATENT | サンプルおよびノイズマスクが調整された、切り取られた潜在空間表現 | \ No newline at end of file diff --git a/ja/built-in-nodes/LTXVEmptyLatentAudio.mdx b/ja/built-in-nodes/LTXVEmptyLatentAudio.mdx new file mode 100644 index 000000000..a93c6b418 --- /dev/null +++ b/ja/built-in-nodes/LTXVEmptyLatentAudio.mdx @@ -0,0 +1,31 @@ +--- +title: "LTXVEmptyLatentAudio - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における LTXVEmptyLatentAudio ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LTXVEmptyLatentAudio" +icon: "circle" +mode: wide +translationSourceHash: 3204e61c +translationFrom: built-in-nodes/LTXVEmptyLatentAudio.mdx, zh-CN/built-in-nodes/LTXVEmptyLatentAudio.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LTXVEmptyLatentAudio/en.md) + +LTXV Empty Latent Audio ノードは、空(ゼロ埋め)の潜在音声テンソルのバッチを作成します。このノードでは、指定された Audio VAE モデルの設定を用いて、潜在空間の適切な次元(例:チャンネル数、周波数ビン数など)を決定します。この空の潜在テンソルは、ComfyUI 内での音声生成または音声処理ワークフローの出発点として利用されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `frames_number` | INT | はい | 1 ~ 1000 | フレーム数。デフォルト値は 97 です。 | +| `frame_rate` | INT | はい | 1 ~ 1000 | 1 秒あたりのフレーム数。デフォルト値は 25 です。 | +| `batch_size` | INT | はい | 1 ~ 4096 | バッチ内の潜在音声サンプル数。デフォルト値は 1 です。 | +| `audio_vae` | VAE | はい | 該当なし | 設定情報を取得するための Audio VAE モデル。このパラメーターは必須です。 | + +**注意:** `audio_vae` 入力は必須です。未指定の場合、ノードはエラーを発生させます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `Latent` | LATENT | 入力 Audio VAE と一致する構造(サンプル数、サンプルレート、タイプ)を持つ空の潜在音声テンソルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LTXVImgToVideo.mdx b/ja/built-in-nodes/LTXVImgToVideo.mdx new file mode 100644 index 000000000..8afae6fce --- /dev/null +++ b/ja/built-in-nodes/LTXVImgToVideo.mdx @@ -0,0 +1,36 @@ +--- +title: "LTXVImgToVideo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LTXVImgToVideo ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LTXVImgToVideo" +icon: "circle" +mode: wide +translationSourceHash: 1463f02d +translationFrom: built-in-nodes/LTXVImgToVideo.mdx, zh-CN/built-in-nodes/LTXVImgToVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください![GitHubで編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LTXVImgToVideo/en.md) + +LTXVImgToVideo ノードは、入力画像を動画生成モデル向けの動画潜在表現(video latent representation)に変換します。このノードは単一の画像を受け取り、VAEエンコーダーを用いてそれをフレーム列に拡張した後、強度(strength)制御付きの条件付けを適用します。これにより、動画生成プロセスにおいて、元の画像の内容をどの程度保持するか、あるいは変更するかを制御します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | 動画生成をガイドするためのポジティブな条件付けプロンプト | +| `negative` | CONDITIONING | はい | - | 動画内に特定の要素が出現しないよう回避するためのネガティブな条件付けプロンプト | +| `vae` | VAE | はい | - | 入力画像を潜在空間へ符号化するために使用される VAE モデル | +| `image` | IMAGE | はい | - | 動画フレームへ変換される入力画像 | +| `width` | INT | いいえ | 64 ~ MAX_RESOLUTION | 出力動画の幅(ピクセル単位)(デフォルト:768、ステップ:32) | +| `height` | INT | いいえ | 64 ~ MAX_RESOLUTION | 出力動画の高さ(ピクセル単位)(デフォルト:512、ステップ:32) | +| `length` | INT | いいえ | 9 ~ MAX_RESOLUTION | 生成される動画のフレーム数(デフォルト:97、ステップ:8) | +| `batch_size` | INT | いいえ | 1 ~ 4096 | 同時に生成する動画の数(デフォルト:1) | +| `strength` | FLOAT | いいえ | 0.0 ~ 1.0 | 動画生成中に元の画像がどの程度変更されるかを制御するパラメーター。値が 1.0 の場合は元のコンテンツを最も多く保持し、0.0 の場合は最大限の変更が可能になります(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 動画フレームマスクが適用された処理済みのポジティブ条件付け | +| `negative` | CONDITIONING | 動画フレームマスクが適用された処理済みのネガティブ条件付け | +| `latent` | LATENT | 動画生成に使用される、符号化されたフレームとノイズマスクを含む動画潜在表現 | \ No newline at end of file diff --git a/ja/built-in-nodes/LTXVImgToVideoInplace.mdx b/ja/built-in-nodes/LTXVImgToVideoInplace.mdx new file mode 100644 index 000000000..35e05df67 --- /dev/null +++ b/ja/built-in-nodes/LTXVImgToVideoInplace.mdx @@ -0,0 +1,32 @@ +--- +title: "LTXVImgToVideoInplace - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LTXVImgToVideoInplace ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LTXVImgToVideoInplace" +icon: "circle" +mode: wide +translationSourceHash: 32883cfa +translationFrom: built-in-nodes/LTXVImgToVideoInplace.mdx, zh-CN/built-in-nodes/LTXVImgToVideoInplace.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LTXVImgToVideoInplace/en.md) + +LTXVImgToVideoInplace ノードは、入力画像をその初期フレームにエンコードすることで、動画の潜在表現に条件付けを行います。このノードは、VAE を用いて入力画像を潜在空間にエンコードし、指定された強度に基づいて既存の潜在サンプルと混合するという仕組みで動作します。これにより、画像を動画生成の出発点または条件付け信号として利用することが可能になります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `vae` | VAE | はい | - | 入力画像を潜在空間にエンコードするために使用される VAE モデルです。 | +| `image` | IMAGE | はい | - | エンコードされ、動画の潜在表現に条件付けするために使用される入力画像です。 | +| `latent` | LATENT | はい | - | 変更対象となるターゲットの潜在動画表現です。 | +| `strength` | FLOAT | いいえ | 0.0 – 1.0 | エンコードされた画像を潜在表現に混合する際の強度を制御します。値が 1.0 の場合、初期フレームが完全に置き換えられ、それより小さい値では混合されます。(デフォルト: 1.0) | +| `bypass` | BOOLEAN | いいえ | - | 条件付け処理をバイパスします。有効にすると、ノードは変更されていない入力 `latent` をそのまま返します。(デフォルト: False) | + +**注意:** `image` は、`latent` 入力の幅および高さに基づき、`vae` によるエンコードに必要な空間次元に自動的にリサイズされます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `latent` | LATENT | 変更後の潜在動画表現です。更新されたサンプルと、初期フレームに条件付けの強度を適用するための `noise_mask` を含みます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LTXVLatentUpsampler.mdx b/ja/built-in-nodes/LTXVLatentUpsampler.mdx new file mode 100644 index 000000000..a1b79f96f --- /dev/null +++ b/ja/built-in-nodes/LTXVLatentUpsampler.mdx @@ -0,0 +1,28 @@ +--- +title: "LTXVLatentUpsampler - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における LTXVLatentUpsampler ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LTXVLatentUpsampler" +icon: "circle" +mode: wide +translationSourceHash: 0ce08321 +translationFrom: built-in-nodes/LTXVLatentUpsampler.mdx, zh-CN/built-in-nodes/LTXVLatentUpsampler.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LTXVLatentUpsampler/en.md) + +LTXVLatentUpsampler ノードは、動画の潜在表現(latent representation)の空間解像度を 2 倍に向上させます。このノードでは、専用のアップスケールモデルを用いて潜在データを処理します。処理に先立ち、入力潜在データは正規化を解除(アンノーマライズ)され、その後、指定された VAE のチャンネル統計量を用いて再び正規化されます。本ノードは、潜在空間内での動画ワークフロー向けに設計されています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `samples` | LATENT | はい | | アップスケール対象の動画の入力潜在表現です。 | +| `upscale_model` | LATENT_UPSCALE_MODEL | はい | | 潜在データに対して 2 倍のアップスケールを実行するための、事前に読み込まれたモデルです。 | +| `vae` | VAE | はい | | アップスケール前の入力潜在表現の正規化解除(アンノーマライズ)および、アップスケール後の出力潜在表現の正規化に使用される VAE モデルです。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `LATENT` | LATENT | アップスケール後の潜在表現で、入力と比較して空間次元が 2 倍になります。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LTXVPreprocess.mdx b/ja/built-in-nodes/LTXVPreprocess.mdx new file mode 100644 index 000000000..38d8a6956 --- /dev/null +++ b/ja/built-in-nodes/LTXVPreprocess.mdx @@ -0,0 +1,27 @@ +--- +title: "LTXVPreprocess - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LTXVPreprocess ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LTXVPreprocess" +icon: "circle" +mode: wide +translationSourceHash: 06d2a3e1 +translationFrom: built-in-nodes/LTXVPreprocess.mdx, zh-CN/built-in-nodes/LTXVPreprocess.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や、改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LTXVPreprocess/en.md) + +LTXVPreprocess ノードは、画像に対して圧縮前処理を適用します。このノードは入力画像を受け取り、指定された圧縮レベルで処理を行い、圧縮設定が適用された処理済み画像を出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 処理対象の入力画像 | +| `img_compression` | INT | いいえ | 0–100 | 画像に適用する圧縮量(デフォルト値:35) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output_image` | IMAGE | 圧縮処理が適用された出力画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/LTXVScheduler.mdx b/ja/built-in-nodes/LTXVScheduler.mdx new file mode 100644 index 000000000..55fff977b --- /dev/null +++ b/ja/built-in-nodes/LTXVScheduler.mdx @@ -0,0 +1,33 @@ +--- +title: "LTXVScheduler - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LTXVScheduler ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LTXVScheduler" +icon: "circle" +mode: wide +translationSourceHash: 71fc8595 +translationFrom: built-in-nodes/LTXVScheduler.mdx, zh-CN/built-in-nodes/LTXVScheduler.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LTXVScheduler/en.md) + +LTXVScheduler ノードは、カスタムサンプリング処理用の sigma 値を生成します。このノードは、入力潜在表現(latent)に含まれるトークン数に基づいてノイズスケジュールのパラメーターを計算し、シグモイド変換を適用してサンプリングスケジュールを作成します。また、生成された sigma 値を指定された終端値(terminal)に合わせて任意で「ストレッチ」(拡張)することもできます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `steps` | INT | はい | 1–10000 | サンプリングステップ数(デフォルト:20) | +| `max_shift` | FLOAT | はい | 0.0–100.0 | sigma 計算における最大シフト値(デフォルト:2.05) | +| `base_shift` | FLOAT | はい | 0.0–100.0 | sigma 計算における基本シフト値(デフォルト:0.95) | +| `stretch` | BOOLEAN | はい | True/False | sigma を `[terminal, 1]` の範囲にストレッチする(デフォルト:True) | +| `terminal` | FLOAT | はい | 0.0–0.99 | ストレッチ後の sigma の終端値(デフォルト:0.1) | +| `latent` | LATENT | いいえ | - | sigma 調整のためのトークン数を算出する際に使用される、オプションの潜在表現(latent)入力 | + +**注意:** `latent` パラメーターはオプションです。未指定の場合、ノードは計算にデフォルトのトークン数 4096 を使用します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `sigmas` | SIGMAS | サンプリング処理用に生成された sigma 値 | \ No newline at end of file diff --git a/ja/built-in-nodes/LTXVSeparateAVLatent.mdx b/ja/built-in-nodes/LTXVSeparateAVLatent.mdx new file mode 100644 index 000000000..d331059c2 --- /dev/null +++ b/ja/built-in-nodes/LTXVSeparateAVLatent.mdx @@ -0,0 +1,29 @@ +--- +title: "LTXVSeparateAVLatent - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における LTXVSeparateAVLatent ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LTXVSeparateAVLatent" +icon: "circle" +mode: wide +translationSourceHash: d70ae935 +translationFrom: built-in-nodes/LTXVSeparateAVLatent.mdx, zh-CN/built-in-nodes/LTXVSeparateAVLatent.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LTXVSeparateAVLatent/en.md) + +LTXVSeparateAVLatent ノードは、統合された音声・映像の潜在表現(audio-visual latent representation)を入力として受け取り、それを映像用と音声用の 2 つの独立した部分に分割します。このノードは入力潜在表現からサンプルを分離し、存在する場合はノイズマスク(`noise_mask`)も同様に分離して、2 つの新しい潜在オブジェクトを生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `av_latent` | LATENT | はい | N/A | 分離対象となる統合音声・映像潜在表現。 | + +**注意:** 入力潜在表現の `samples` テンソルは、最初の次元(バッチ次元)に少なくとも 2 つの要素を持つ必要があります。そのうち最初の要素が映像用潜在表現に、2 番目の要素が音声用潜在表現にそれぞれ使用されます。`noise_mask` が存在する場合、これも同様の方法で分割されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `video_latent` | LATENT | 分離された映像データを含む潜在表現。 | +| `audio_latent` | LATENT | 分離された音声データを含む潜在表現。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LaplaceScheduler.mdx b/ja/built-in-nodes/LaplaceScheduler.mdx new file mode 100644 index 000000000..f02c2e21f --- /dev/null +++ b/ja/built-in-nodes/LaplaceScheduler.mdx @@ -0,0 +1,30 @@ +--- +title: "LaplaceScheduler - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LaplaceScheduler ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LaplaceScheduler" +icon: "circle" +mode: wide +translationSourceHash: 9110daaa +translationFrom: built-in-nodes/LaplaceScheduler.mdx, zh-CN/built-in-nodes/LaplaceScheduler.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LaplaceScheduler/en.md) + +LaplaceScheduler ノードは、拡散サンプリングに使用されるラプラス分布に従った一連のシグマ(σ)値を生成します。このノードは、最大値から最小値へと徐々に減少するノイズレベルのスケジュールを作成し、ラプラス分布のパラメーターを用いてその進行を制御します。このスケジューラーは、拡散モデル向けのノイズスケジュールを定義するカスタムサンプリングワークフローでよく使用されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `steps` | INT | はい | 1 ~ 10000 | スケジュール内のサンプリングステップ数(デフォルト:20) | +| `sigma_max` | FLOAT | はい | 0.0 ~ 5000.0 | スケジュール開始時の最大シグマ値(デフォルト:14.614642) | +| `sigma_min` | FLOAT | はい | 0.0 ~ 5000.0 | スケジュール終了時の最小シグマ値(デフォルト:0.0291675) | +| `mu` | FLOAT | はい | -10.0 ~ 10.0 | ラプラス分布の平均パラメーター(デフォルト:0.0) | +| `beta` | FLOAT | はい | 0.0 ~ 10.0 | ラプラス分布の尺度パラメーター(デフォルト:0.5) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `SIGMAS` | SIGMAS | ラプラス分布に基づくスケジュールに従った一連のシグマ値 | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentAdd.mdx b/ja/built-in-nodes/LatentAdd.mdx new file mode 100644 index 000000000..725c0297e --- /dev/null +++ b/ja/built-in-nodes/LatentAdd.mdx @@ -0,0 +1,23 @@ +--- +title: "LatentAdd - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUIにおけるLatentAddノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentAdd" +icon: "circle" +mode: wide +translationSourceHash: 7ae32dfc +translationFrom: built-in-nodes/LatentAdd.mdx, zh-CN/built-in-nodes/LatentAdd.mdx +--- +LatentAddノードは、2つの潜在表現(latent representation)を加算するためのノードです。このノードは、これらの表現にエンコードされた特徴や性質を、要素ごとの加算(element-wise addition)によって統合することを可能にします。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|--------------|-------------|-------------| +| `samples1` | `LATENT` | 加算対象となる最初の潜在サンプル群です。これは、他の潜在サンプル群と特徴を統合するための入力の一つです。 | +| `samples2` | `LATENT` | 加算対象となる2番目の潜在サンプル群です。これは、要素ごとの加算を通じて、最初の潜在サンプル群と特徴を統合するもう一方の入力です。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `latent` | `LATENT` | 2つの潜在サンプルの要素ごとの加算結果であり、両方の入力の特徴を統合した新しい潜在サンプル群を表します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentApplyOperation.mdx b/ja/built-in-nodes/LatentApplyOperation.mdx new file mode 100644 index 000000000..9a91ebab8 --- /dev/null +++ b/ja/built-in-nodes/LatentApplyOperation.mdx @@ -0,0 +1,27 @@ +--- +title: "LatentApplyOperation - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LatentApplyOperation ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentApplyOperation" +icon: "circle" +mode: wide +translationSourceHash: 30ace7dc +translationFrom: built-in-nodes/LatentApplyOperation.mdx, zh-CN/built-in-nodes/LatentApplyOperation.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LatentApplyOperation/en.md) + +LatentApplyOperation ノードは、指定された演算を潜在表現(latent)のサンプルに適用します。このノードは潜在データと演算を入力として受け取り、提供された演算を用いて潜在サンプルを処理し、変更後の潜在データを返します。このノードにより、ワークフロー内で潜在表現を変換または操作することが可能になります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `samples` | LATENT | はい | - | 演算によって処理される潜在サンプル | +| `operation` | LATENT_OPERATION | はい | - | 潜在サンプルに適用する演算 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | LATENT | 演算を適用した後に変更された潜在サンプル | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentApplyOperationCFG.mdx b/ja/built-in-nodes/LatentApplyOperationCFG.mdx new file mode 100644 index 000000000..bf2897276 --- /dev/null +++ b/ja/built-in-nodes/LatentApplyOperationCFG.mdx @@ -0,0 +1,25 @@ +--- +title: "LatentApplyOperationCFG - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における LatentApplyOperationCFG ノードの完全なドキュメンテーションです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "LatentApplyOperationCFG" +icon: "circle" +mode: wide +translationSourceHash: ba00cadf +translationFrom: built-in-nodes/LatentApplyOperationCFG.mdx, zh-CN/built-in-nodes/LatentApplyOperationCFG.mdx +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見した場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LatentApplyOperationCFG/en.md) + +LatentApplyOperationCFG ノードは、潜在空間における操作を適用することで、モデル内の条件付きガイド(conditioning guidance)プロセスを変更します。このノードは、分類器不要ガイド(Classifier-Free Guidance:CFG)によるサンプリング処理中に条件出力をインターセプトし、生成に使用される前に潜在表現に対して指定された操作を適用します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | CFG 操作を適用する対象のモデル | +| `operation` | LATENT_OPERATION | はい | - | CFG サンプリング処理中に適用する潜在操作 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | サンプリング処理に CFG 操作が適用された、修正済みのモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentBatch.mdx b/ja/built-in-nodes/LatentBatch.mdx new file mode 100644 index 000000000..3231127b8 --- /dev/null +++ b/ja/built-in-nodes/LatentBatch.mdx @@ -0,0 +1,23 @@ +--- +title: "LatentBatch - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の LatentBatch ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentBatch" +icon: "circle" +mode: wide +translationSourceHash: 14e86042 +translationFrom: built-in-nodes/LatentBatch.mdx, zh-CN/built-in-nodes/LatentBatch.mdx +--- +LatentBatch ノードは、2 組の潜在表現(latent)サンプルを単一のバッチに統合するためのものであり、結合(concatenation)の前に、片方のサンプル群のサイズをもう片方のサイズに合わせて変更することがあります。この操作により、異なる潜在表現を組み合わせて、その後の処理や生成タスクに活用できます。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|--------------|-------------|-------------| +| `samples1` | `LATENT` | 統合対象となる最初の潜在サンプル群です。統合後のバッチの最終的な形状を決定する上で重要な役割を果たします。 | +| `samples2` | `LATENT` | 統合対象となる2番目の潜在サンプル群です。最初のサンプル群と寸法が異なる場合、統合前に互換性を確保するためにサイズが調整されます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `latent` | `LATENT` | 統合された潜在サンプル群で、これにより単一のバッチとして後続の処理に利用可能になります。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentBatchSeedBehavior.mdx b/ja/built-in-nodes/LatentBatchSeedBehavior.mdx new file mode 100644 index 000000000..6fefb8e3e --- /dev/null +++ b/ja/built-in-nodes/LatentBatchSeedBehavior.mdx @@ -0,0 +1,23 @@ +--- +title: "LatentBatchSeedBehavior - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における LatentBatchSeedBehavior ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentBatchSeedBehavior" +icon: "circle" +mode: wide +translationSourceHash: ff97aa68 +translationFrom: built-in-nodes/LatentBatchSeedBehavior.mdx, zh-CN/built-in-nodes/LatentBatchSeedBehavior.mdx +--- +LatentBatchSeedBehavior ノードは、潜在的サンプルのバッチに対するシード挙動を変更するためのものです。このノードにより、バッチ全体でシードをランダム化するか、あるいは固定することが可能となり、生成される出力の一貫性を保つことや、逆に多様性を導入することによって、生成プロセスに影響を与えます。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-------------------|--------------|------| +| `samples` | `LATENT` | `samples` パラメーターは、処理対象となる潜在的サンプルのバッチを表します。その内容の変更は選択されたシード挙動に依存し、生成される出力の一貫性または多様性に影響を与えます。 | +| `seed_behavior` | COMBO[STRING] | `seed_behavior` パラメーターは、潜在的サンプルのバッチに対してシードをランダム化するか、あるいは固定するかを決定します。この選択は、バッチ全体における一貫性を確保するか、あるいは変化性を導入することで、生成プロセスに大きな影響を与えます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|--------------|------| +| `latent` | `LATENT` | 出力は、指定されたシード挙動に基づいて調整された入力潜在サンプルの修正版です。選択されたシード挙動を反映するために、バッチインデックスが維持されたり、変更されたりします。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentBlend.mdx b/ja/built-in-nodes/LatentBlend.mdx new file mode 100644 index 000000000..c379a9c8b --- /dev/null +++ b/ja/built-in-nodes/LatentBlend.mdx @@ -0,0 +1,30 @@ +--- +title: "LatentBlend - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の LatentBlend ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentBlend" +icon: "circle" +mode: wide +translationSourceHash: f816eb15 +translationFrom: built-in-nodes/LatentBlend.mdx, zh-CN/built-in-nodes/LatentBlend.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LatentBlend/en.md) + +LatentBlend ノードは、指定されたブレンド係数を用いて 2 つの潜在サンプルを混合することで、それらを統合します。このノードは 2 つの潜在入力を受け取り、最初のサンプルにブレンド係数を、2 番目のサンプルにはその補数(1 からブレンド係数を引いた値)を重みとして適用した新しい出力を生成します。入力サンプルの形状が異なる場合、2 番目のサンプルは自動的に最初のサンプルのサイズに合わせてリサイズされます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `samples1` | LATENT | はい | - | 混合対象となる最初の潜在サンプル | +| `samples2` | LATENT | はい | - | 混合対象となる 2 番目の潜在サンプル | +| `blend_factor` | FLOAT | はい | 0 ~ 1 | 2 つのサンプル間の混合比率を制御します(デフォルト値:0.5) | + +**注意:** `samples1` と `samples2` の形状が異なる場合、`samples2` はバイキュービック補間と中心切り抜きを用いて、`samples1` の次元に自動的にリサイズされます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `latent` | LATENT | 2 つの入力サンプルを混合して得られる潜在サンプル | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentComposite.mdx b/ja/built-in-nodes/LatentComposite.mdx new file mode 100644 index 000000000..ba88799cc --- /dev/null +++ b/ja/built-in-nodes/LatentComposite.mdx @@ -0,0 +1,29 @@ +--- +title: "LatentComposite - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LatentComposite ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentComposite" +icon: "circle" +mode: wide +translationSourceHash: e7cc30b8 +translationFrom: built-in-nodes/LatentComposite.mdx, zh-CN/built-in-nodes/LatentComposite.mdx +translationMismatches: + - "description" +--- + +LatentComposite ノードは、2つの潜在表現(latent representation)を1つの出力にブレンドまたはマージするように設計されています。この処理は、入力された潜在表現の特徴を制御された方法で組み合わせることで、合成画像や合成特徴を作成するために不可欠です。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------------|------------|------| +| `samples_to` | `LATENT` | `samples_from` を合成する際のベースとなる潜在表現です。合成演算の基盤として機能します。 | +| `samples_from` | `LATENT` | `samples_to` 上に合成される潜在表現です。最終的な合成出力にその特徴や性質を提供します。 | +| `x` | `INT` | `samples_from` の潜在表現を `samples_to` 上に配置する際の x 座標(水平位置)です。合成結果の水平方向の位置合わせを決定します。 | +| `y` | `INT` | `samples_from` の潜在表現を `samples_to` 上に配置する際の y 座標(垂直位置)です。合成結果の垂直方向の位置合わせを決定します。 | +| `feather` | `INT` | `samples_from` の潜在表現を合成前に `samples_to` にサイズ変更するかどうかを示すブール値です。これにより、合成結果のスケールおよびアスペクト比が影響を受ける場合があります。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|--------------|------------|------| +| `latent` | `LATENT` | 出力は合成された潜在表現であり、指定された座標およびサイズ変更オプションに基づき、`samples_to` と `samples_from` の両方の潜在表現の特徴をブレンドしたものです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentCompositeMasked.mdx b/ja/built-in-nodes/LatentCompositeMasked.mdx new file mode 100644 index 000000000..82190101f --- /dev/null +++ b/ja/built-in-nodes/LatentCompositeMasked.mdx @@ -0,0 +1,28 @@ +--- +title: "LatentCompositeMasked - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の LatentCompositeMasked ノードに関する完全なドキュメンテーションです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "LatentCompositeMasked" +icon: "circle" +mode: wide +translationSourceHash: c99e2ced +translationFrom: built-in-nodes/LatentCompositeMasked.mdx, zh-CN/built-in-nodes/LatentCompositeMasked.mdx +--- + +LatentCompositeMasked ノードは、指定された座標で 2 つの潜在表現(latent representation)を合成するためのノードであり、必要に応じてマスクを用いてより精密な合成制御が可能です。このノードにより、ある画像の一部を別の画像上にオーバーレイすることで複雑な潜在画像を作成でき、またソース画像をリサイズして目的のサイズに正確に合わせることもできます。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `destination` | `LATENT` | 他の潜在表現を合成する対象となる潜在表現です。合成操作におけるベースレイヤーとして機能します。 | +| `source` | `LATENT` | `destination` 上に合成される潜在表現です。このソースレイヤーは、指定されたパラメーターに従ってサイズ変更および位置調整が可能です。 | +| `x` | `INT` | ソースを配置する際の、`destination` 潜在表現における X 座標です。ソースレイヤーの位置を高精度で指定できます。 | +| `y` | `INT` | ソースを配置する際の、`destination` 潜在表現における Y 座標です。オーバーレイの位置を正確に制御できます。 | +| `resize_source` | `BOOLEAN` | ソースの潜在表現を、合成前に `destination` の寸法に合わせてリサイズするかどうかを示すブール値フラグです。 | +| `mask` | `MASK` | ソースと `destination` のブレンドを制御するために使用可能なオプションのマスクです。このマスクによって、最終的な合成結果においてソースのどの部分が可視となるかが定義されます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `latent` | `LATENT` | ソースを `destination` 上に合成した結果得られる潜在表現です。必要に応じてマスクを用いた選択的ブレンドが行われます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentConcat.mdx b/ja/built-in-nodes/LatentConcat.mdx new file mode 100644 index 000000000..c4c2d0ec0 --- /dev/null +++ b/ja/built-in-nodes/LatentConcat.mdx @@ -0,0 +1,30 @@ +--- +title: "LatentConcat - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LatentConcat ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentConcat" +icon: "circle" +mode: wide +translationSourceHash: 79cd2cf5 +translationFrom: built-in-nodes/LatentConcat.mdx, zh-CN/built-in-nodes/LatentConcat.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LatentConcat/en.md) + +LatentConcat ノードは、指定された次元に沿って 2 つの潜在サンプルを結合します。このノードは 2 つの潜在入力を受け取り、選択された軸(x、y、または t 次元)に沿ってそれらを連結します。連結処理を実行する前に、ノードは自動的に 2 つ目の入力のバッチサイズを 1 つ目の入力と一致するように調整します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `samples1` | LATENT | はい | - | 連結する最初の潜在サンプル | +| `samples2` | LATENT | はい | - | 連結する 2 つ目の潜在サンプル | +| `dim` | COMBO | はい | `"x"`
`"-x"`
`"y"`
`"-y"`
`"t"`
`"-t"` | 潜在サンプルを連結する次元。正の値では `samples1` を `samples2` の前に連結し、負の値では `samples2` を `samples1` の前に連結します | + +**注意:** 連結処理の前に、2 つ目の潜在サンプル (`samples2`) が自動的に 1 つ目の潜在サンプル (`samples1`) のバッチサイズに合わせて調整されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | LATENT | 指定された次元に沿って 2 つの入力サンプルを結合した結果得られる潜在サンプル | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentCrop.mdx b/ja/built-in-nodes/LatentCrop.mdx new file mode 100644 index 000000000..cc1f62176 --- /dev/null +++ b/ja/built-in-nodes/LatentCrop.mdx @@ -0,0 +1,27 @@ +--- +title: "LatentCrop - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LatentCrop ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentCrop" +icon: "circle" +mode: wide +translationSourceHash: 1c1972fd +translationFrom: built-in-nodes/LatentCrop.mdx, zh-CN/built-in-nodes/LatentCrop.mdx +--- + +LatentCrop ノードは、画像の潜在表現(latent representation)に対してクロップ操作を実行するために設計されています。このノードでは、クロップ領域のサイズおよび位置を指定でき、潜在空間に対するターゲットを絞った変更を可能にします。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `samples` | `LATENT` | クロップ対象となる潜在表現を表すパラメーターです。クロップ操作が適用されるデータを定義する上で非常に重要です。 | +| `width` | `INT` | クロップ領域の幅を指定します。出力される潜在表現の次元に直接影響します。 | +| `height` | `INT` | クロップ領域の高さを指定し、結果として得られるクロップ済み潜在表現のサイズに影響を与えます。 | +| `x` | `INT` | クロップ領域の開始 x 座標を決定し、元の潜在表現内におけるクロップ位置に影響を与えます。 | +| `y` | `INT` | クロップ領域の開始 y 座標を決定し、元の潜在表現内におけるクロップ位置を設定します。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `latent` | `LATENT` | 指定されたクロップが適用された、変更後の潜在表現が出力されます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentCut.mdx b/ja/built-in-nodes/LatentCut.mdx new file mode 100644 index 000000000..92c593012 --- /dev/null +++ b/ja/built-in-nodes/LatentCut.mdx @@ -0,0 +1,29 @@ +--- +title: "LatentCut - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LatentCut ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentCut" +icon: "circle" +mode: wide +translationSourceHash: a390a586 +translationFrom: built-in-nodes/LatentCut.mdx, zh-CN/built-in-nodes/LatentCut.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LatentCut/en.md) + +LatentCut ノードは、選択された次元に沿って潜在サンプルから特定の部分を抽出します。このノードでは、次元(`x`、`y`、`t`)および開始位置、抽出する要素数を指定することで、潜在表現の一部を切り出すことができます。また、正のインデックスと負のインデックスの両方をサポートしており、自動的に抽出範囲を有効な境界内に調整します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `samples` | LATENT | はい | - | 抽出元となる入力潜在サンプル | +| `dim` | COMBO | はい | "x"
"y"
"t" | 潜在サンプルを切り出す際の対象次元 | +| `index` | INT | いいえ | -16384 ~ 16384 | 切り出しを開始する位置(デフォルト: 0)。正の値は先頭からの位置を、負の値は末尾からの位置を表します | +| `amount` | INT | いいえ | 1 ~ 16384 | 指定した次元に沿って抽出する要素数(デフォルト: 1) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | LATENT | 抽出された潜在サンプルの一部 | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentCutToBatch.mdx b/ja/built-in-nodes/LatentCutToBatch.mdx new file mode 100644 index 000000000..b3acccb0a --- /dev/null +++ b/ja/built-in-nodes/LatentCutToBatch.mdx @@ -0,0 +1,26 @@ +--- +title: "LatentCutToBatch - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LatentCutToBatch ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentCutToBatch" +icon: "circle" +mode: wide +translationSourceHash: a7e2b28a +translationFrom: built-in-nodes/LatentCutToBatch.mdx, zh-CN/built-in-nodes/LatentCutToBatch.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LatentCutToBatch/en.md) + +LatentCutToBatch ノードは潜在表現(latent representation)を受け取り、指定された次元に沿って複数のスライスに分割します。その後、これらのスライスを新しいバッチ次元にスタックすることで、単一の潜在サンプルを、より小さな潜在サンプルから構成されるバッチへと変換します。これは、潜在空間の異なる部分を独立して処理する際に有用です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `samples` | LATENT | はい | - | 分割およびバッチ化を行う対象の潜在表現です。 | +| `dim` | COMBO | はい | `"t"`
`"x"`
`"y"` | 潜在サンプルを切断する次元を指定します。`"t"` は時間次元、`"x"` は幅、`"y"` は高さを表します。 | +| `slice_size` | INT | はい | 1 ~ 16384 | 指定された次元から切り取る各スライスのサイズです。当該次元のサイズがこの値で割り切れない場合、余りの部分は破棄されます。(デフォルト値:1) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `samples` | LATENT | スライス化・スタックされた結果として得られる潜在バッチです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentFlip.mdx b/ja/built-in-nodes/LatentFlip.mdx new file mode 100644 index 000000000..0f43f93c3 --- /dev/null +++ b/ja/built-in-nodes/LatentFlip.mdx @@ -0,0 +1,24 @@ +--- +title: "LatentFlip - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LatentFlip ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentFlip" +icon: "circle" +mode: wide +translationSourceHash: a7d11ecf +translationFrom: built-in-nodes/LatentFlip.mdx, zh-CN/built-in-nodes/LatentFlip.mdx +--- + +LatentFlip ノードは、潜在表現を垂直または水平方向に反転(フリップ)することにより、それらを操作するためのものです。この操作によって潜在空間が変換され、データ内に新たなバリエーションや視点が現れる可能性があります。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------------|--------------|------| +| `samples` | `LATENT` | `samples` パラメーターは、反転対象となる潜在表現を表します。反転操作は、`flip_method` パラメーターで指定された軸(垂直または水平)に従ってこれらの表現を変更し、結果として潜在空間内のデータを変換します。 | +| `flip_method` | COMBO[STRING] | `flip_method` パラメーターは、潜在サンプルを反転する際の軸を指定します。値は `'x-axis: vertically'`(x軸:垂直方向)または `'y-axis: horizontally'`(y軸:水平方向)のいずれかであり、これにより反転の方向および潜在表現に適用される変換の性質が決定されます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|--------------|------| +| `latent` | `LATENT` | 出力は、指定された方法で反転された入力潜在表現の変更版です。この変換により、潜在空間内に新たなバリエーションが導入される可能性があります。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentFromBatch.mdx b/ja/built-in-nodes/LatentFromBatch.mdx new file mode 100644 index 000000000..8c8451dd4 --- /dev/null +++ b/ja/built-in-nodes/LatentFromBatch.mdx @@ -0,0 +1,25 @@ +--- +title: "LatentFromBatch - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における LatentFromBatch ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentFromBatch" +icon: "circle" +mode: wide +translationSourceHash: 243fbba9 +translationFrom: built-in-nodes/LatentFromBatch.mdx, zh-CN/built-in-nodes/LatentFromBatch.mdx +--- + +このノードは、指定されたバッチインデックスと長さに基づいて、与えられたバッチから特定の潜在サンプルのサブセットを抽出するために設計されています。これにより、潜在サンプルに対して選択的な処理が可能となり、効率性の向上や目的に応じた操作のために、バッチの小さなセグメントを対象とした処理を実現します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------------|------------|------| +| `samples` | `LATENT` | サブセットを抽出する対象となる潜在サンプルの集合です。このパラメーターは、処理対象となる元のバッチを特定する上で不可欠です。 | +| `batch_index` | `INT` | サブセットの抽出を開始するバッチ内の開始インデックスを指定します。このパラメーターにより、バッチ内の特定の位置からサンプルをターゲットとして抽出することが可能になります。 | +| `length` | `INT` | 指定された開始インデックスから抽出するサンプル数を定義します。このパラメーターは、処理対象となるサブセットのサイズを制御し、バッチのセグメントに対する柔軟な操作を可能にします。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|------------|------| +| `latent` | `LATENT` | 抽出された潜在サンプルのサブセットで、これ以降の処理または解析に利用できます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentInterpolate.mdx b/ja/built-in-nodes/LatentInterpolate.mdx new file mode 100644 index 000000000..be53f21bd --- /dev/null +++ b/ja/built-in-nodes/LatentInterpolate.mdx @@ -0,0 +1,25 @@ +--- +title: "LatentInterpolate - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における LatentInterpolate ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentInterpolate" +icon: "circle" +mode: wide +translationSourceHash: 7846712d +translationFrom: built-in-nodes/LatentInterpolate.mdx, zh-CN/built-in-nodes/LatentInterpolate.mdx +--- + +LatentInterpolate ノードは、指定された比率に基づいて2つの潜在サンプル集合の間で補間(インタポレーション)を行うことを目的として設計されています。これにより、両方の集合の特徴が混合され、新しい中間的な潜在サンプル集合が生成されます。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|--------------|-------------|-------------| +| `samples1` | `LATENT` | 補間対象となる最初の潜在サンプル集合です。補間処理の開始点として機能します。 | +| `samples2` | `LATENT` | 補間対象となる2番目の潜在サンプル集合です。補間処理の終了点として機能します。 | +| `ratio` | `FLOAT` | 補間出力における各サンプル集合の重みを決定する浮動小数点値です。比率が 0 の場合、最初の集合のコピーが出力され、比率が 1 の場合、2番目の集合のコピーが出力されます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `latent` | `LATENT` | 出力は、指定された比率に基づいて2つの入力集合の間の中間状態を表す新しい潜在サンプル集合です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentMultiply.mdx b/ja/built-in-nodes/LatentMultiply.mdx new file mode 100644 index 000000000..d24183565 --- /dev/null +++ b/ja/built-in-nodes/LatentMultiply.mdx @@ -0,0 +1,24 @@ +--- +title: "LatentMultiply - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LatentMultiply ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentMultiply" +icon: "circle" +mode: wide +translationSourceHash: 061ff8c4 +translationFrom: built-in-nodes/LatentMultiply.mdx, zh-CN/built-in-nodes/LatentMultiply.mdx +--- + +LatentMultiply ノードは、サンプルの潜在表現(latent representation)を指定された乗数でスケーリングするように設計されています。この演算により、潜在空間内の特徴の強度または大きさを調整でき、生成されるコンテンツの微調整や、特定の潜在方向におけるバリエーションの探索が可能になります。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|----------------|-----------|------| +| `samples` | `LATENT` | `samples` パラメーターは、スケーリング対象となる潜在表現を表します。乗算演算が実行される入力データを定義する上で不可欠です。 | +| `multiplier` | `FLOAT` | `multiplier` パラメーターは、潜在サンプルに適用されるスケーリング係数を指定します。潜在特徴の大きさを調整する上で重要な役割を果たし、生成出力に対するきめ細かな制御を可能にします。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|-----------|------| +| `latent` | `LATENT` | 出力は、指定された乗数でスケーリングされた入力潜在サンプルの変更版です。これにより、特徴の強度を調整することで、潜在空間内のバリエーションを探ることが可能になります。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentOperationSharpen.mdx b/ja/built-in-nodes/LatentOperationSharpen.mdx new file mode 100644 index 000000000..f98de4e40 --- /dev/null +++ b/ja/built-in-nodes/LatentOperationSharpen.mdx @@ -0,0 +1,28 @@ +--- +title: "LatentOperationSharpen - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LatentOperationSharpen ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentOperationSharpen" +icon: "circle" +mode: wide +translationSourceHash: 059755f6 +translationFrom: built-in-nodes/LatentOperationSharpen.mdx, zh-CN/built-in-nodes/LatentOperationSharpen.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LatentOperationSharpen/en.md) + +LatentOperationSharpen ノードは、ガウスカーネルを用いて潜在表現(ラテント)にシャープネス効果を適用します。具体的には、潜在データを正規化し、カスタムシャープネスカーネルによる畳み込み演算を適用した後、元の輝度を復元します。これにより、潜在空間におけるディテールやエッジが強調されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `sharpen_radius` | INT | いいえ | 1–31 | シャープネスカーネルの半径(デフォルト:9) | +| `sigma` | FLOAT | いいえ | 0.1–10.0 | ガウスカーネルの標準偏差(デフォルト:1.0) | +| `alpha` | FLOAT | いいえ | 0.0–5.0 | シャープネス強度係数(デフォルト:0.1) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `operation` | LATENT_OPERATION | 潜在データに適用可能なシャープネス操作を返します | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentOperationTonemapReinhard.mdx b/ja/built-in-nodes/LatentOperationTonemapReinhard.mdx new file mode 100644 index 000000000..193424a07 --- /dev/null +++ b/ja/built-in-nodes/LatentOperationTonemapReinhard.mdx @@ -0,0 +1,26 @@ +--- +title: "LatentOperationTonemapReinhard - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LatentOperationTonemapReinhard ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentOperationTonemapReinhard" +icon: "circle" +mode: wide +translationSourceHash: d0fb3e28 +translationFrom: built-in-nodes/LatentOperationTonemapReinhard.mdx, zh-CN/built-in-nodes/LatentOperationTonemapReinhard.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や、改善に関するご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LatentOperationTonemapReinhard/en.md) + +LatentOperationTonemapReinhard ノードは、潜在ベクトルに Reinhard トーンマッピングを適用します。この手法では、平均値と標準偏差に基づく統計的手法を用いて潜在ベクトルを正規化し、その大きさ(マグニチュード)を調整します。処理の強度は、乗数パラメーターで制御されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `multiplier` | FLOAT | いいえ | 0.0 ~ 100.0 | トーンマッピング効果の強度を制御します(デフォルト値:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `operation` | LATENT_OPERATION | 潜在ベクトルに適用可能なトーンマッピング操作を返します | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentRotate.mdx b/ja/built-in-nodes/LatentRotate.mdx new file mode 100644 index 000000000..6ded3a0d7 --- /dev/null +++ b/ja/built-in-nodes/LatentRotate.mdx @@ -0,0 +1,24 @@ +--- +title: "LatentRotate - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における LatentRotate ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentRotate" +icon: "circle" +mode: wide +translationSourceHash: 0ae72e72 +translationFrom: built-in-nodes/LatentRotate.mdx, zh-CN/built-in-nodes/LatentRotate.mdx +--- + +LatentRotate ノードは、画像の潜在表現(latent representation)を指定された角度で回転させるために設計されています。このノードは、潜在空間を操作して回転効果を実現する際の複雑さを抽象化し、ユーザーが生成モデルの潜在空間内で画像を容易に変換できるようにします。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `samples` | `LATENT` | `samples` パラメーターは、回転対象となる画像の潜在表現を表します。回転操作の開始点を決定する上で非常に重要です。 | +| `rotation` | COMBO[STRING] | `rotation` パラメーターは、潜在画像を回転させる角度を指定します。この値は、出力される画像の向きに直接影響を与えます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `latent` | `LATENT` | 出力は、入力された潜在表現を指定角度だけ回転させた修正版です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentSubtract.mdx b/ja/built-in-nodes/LatentSubtract.mdx new file mode 100644 index 000000000..8ae7f2b1c --- /dev/null +++ b/ja/built-in-nodes/LatentSubtract.mdx @@ -0,0 +1,24 @@ +--- +title: "LatentSubtract - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における LatentSubtract ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentSubtract" +icon: "circle" +mode: wide +translationSourceHash: 58210425 +translationFrom: built-in-nodes/LatentSubtract.mdx, zh-CN/built-in-nodes/LatentSubtract.mdx +--- + +LatentSubtract ノードは、ある潜在表現から別の潜在表現を減算する目的で設計されています。この演算は、ある潜在空間に表現された特徴や属性を他方の潜在空間から効果的に除去することで、生成モデルの出力を操作または変更するために利用できます。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|--------------|-------------|-------------| +| `samples1` | `LATENT` | 減算対象となる最初の潜在サンプルの集合です。減算演算の基準(被減数)として機能します。 | +| `samples2` | `LATENT` | 最初の潜在サンプル集合から減算される2番目の潜在サンプルの集合です。この演算により、属性や特徴を除去することで、生成モデルの出力を変更できます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `latent` | `LATENT` | 最初の潜在サンプル集合から2番目の潜在サンプル集合を減算した結果です。この修正後の潜在表現は、その後の生成タスクに使用できます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentUpscale.mdx b/ja/built-in-nodes/LatentUpscale.mdx new file mode 100644 index 000000000..da09ba933 --- /dev/null +++ b/ja/built-in-nodes/LatentUpscale.mdx @@ -0,0 +1,27 @@ +--- +title: "LatentUpscale - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LatentUpscale ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentUpscale" +icon: "circle" +mode: wide +translationSourceHash: a4a7320a +translationFrom: built-in-nodes/LatentUpscale.mdx, zh-CN/built-in-nodes/LatentUpscale.mdx +--- + +LatentUpscale ノードは、画像の潜在表現(ラテント表現)をアップスケールするために設計されています。このノードでは、出力画像のサイズおよびアップスケール手法を調整でき、潜在画像の解像度向上において柔軟性を提供します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `samples` | `LATENT` | アップスケール対象となる画像の潜在表現です。このパラメーターは、アップスケール処理の開始点を決定する上で非常に重要です。 | +| `upscale_method` | COMBO[STRING] | 潜在画像のアップスケールに使用する手法を指定します。異なる手法を用いることで、アップスケール後の画像の品質や特性が変化します。 | +| `width` | `INT` | アップスケール後の画像の目標幅です。0 に設定した場合、アスペクト比を維持するために高さに基づいて自動計算されます。 | +| `height` | `INT` | アップスケール後の画像の目標高さです。0 に設定した場合、アスペクト比を維持するために幅に基づいて自動計算されます。 | +| `crop` | COMBO[STRING] | アップスケール後の画像をどのように切り抜くかを指定します。これにより、出力画像の最終的な外観および寸法が影響を受けます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `latent` | `LATENT` | アップスケールされた画像の潜在表現で、その後の処理または画像生成にすぐに利用可能です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentUpscaleBy.mdx b/ja/built-in-nodes/LatentUpscaleBy.mdx new file mode 100644 index 000000000..42e4faff6 --- /dev/null +++ b/ja/built-in-nodes/LatentUpscaleBy.mdx @@ -0,0 +1,27 @@ +--- +title: "LatentUpscaleBy - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUIにおけるLatentUpscaleByノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentUpscaleBy" +icon: "circle" +mode: wide +translationSourceHash: d7e20bfe +translationFrom: built-in-nodes/LatentUpscaleBy.mdx, zh-CN/built-in-nodes/LatentUpscaleBy.mdx +translationMismatches: + - "description" +--- + +LatentUpscaleByノードは、画像の潜在表現(latent representation)をアップスケールするために設計されています。このノードでは、スケール係数およびアップスケール手法を調整可能であり、潜在サンプルの解像度を向上させる際の柔軟性を提供します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|--------------|------------|------| +| `samples` | `LATENT` | アップスケール対象となる画像の潜在表現です。このパラメーターは、アップスケール処理を受ける入力データを決定する上で極めて重要です。 | +| `upscale_method` | COMBO[STRING] | 潜在サンプルのアップスケールに用いる手法を指定します。選択した手法によって、アップスケール後の出力品質および特性が大きく影響を受けます。 | +| `scale_by` | `FLOAT` | 潜在サンプルをどの程度拡大するかを定義する倍率です。このパラメーターは出力解像度に直接影響を与え、アップスケール処理を精密に制御することを可能にします。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|--------------|------------|------| +| `latent` | `LATENT` | アップスケール済みの潜在表現で、さらなる処理や生成タスクにすぐに利用可能です。この出力は、生成された画像の解像度を高める場合や、その後のモデル演算を行う際に不可欠です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LatentUpscaleModelLoader.mdx b/ja/built-in-nodes/LatentUpscaleModelLoader.mdx new file mode 100644 index 000000000..c7484957b --- /dev/null +++ b/ja/built-in-nodes/LatentUpscaleModelLoader.mdx @@ -0,0 +1,24 @@ +--- +title: "LatentUpscaleModelLoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LatentUpscaleModelLoader ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LatentUpscaleModelLoader" +icon: "circle" +mode: wide +translationSourceHash: 7bd26326 +translationFrom: built-in-nodes/LatentUpscaleModelLoader.mdx, zh-CN/built-in-nodes/LatentUpscaleModelLoader.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LatentUpscaleModelLoader/en.md) + +LatentUpscaleModelLoader ノードは、潜在表現(ラテント表現)の拡大に特化したモデルを読み込みます。このノードは、システム上に指定されたフォルダーからモデルファイルを読み取り、そのタイプ(720p、1080p、またはその他の解像度)を自動的に検出し、適切な内部モデルアーキテクチャをインスタンス化・設定します。読み込まれたモデルは、他のノードが潜在空間における超解像(スーパーレゾリューション)処理に利用できる状態になります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model_name` | STRING | はい | *`latent_upscale_models` フォルダー内のすべてのファイル* | 読み込む潜在拡大モデルのファイル名。利用可能な選択肢は、ComfyUI の `latent_upscale_models` ディレクトリ内に存在するファイルに基づいて動的に生成されます。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | LATENT_UPSCALE_MODEL | 読み込まれ、設定が完了し、すぐに使用可能な潜在拡大モデルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LazyCache.mdx b/ja/built-in-nodes/LazyCache.mdx new file mode 100644 index 000000000..030628d02 --- /dev/null +++ b/ja/built-in-nodes/LazyCache.mdx @@ -0,0 +1,28 @@ +--- +title: "LazyCache - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における LazyCache ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LazyCache" +icon: "circle" +mode: wide +translationSourceHash: f001e4a2 +translationFrom: built-in-nodes/LazyCache.mdx, zh-CN/built-in-nodes/LazyCache.mdx +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LazyCache/en.md) + +LazyCache は、EasyCache の自作バージョンであり、さらに簡易な実装を提供します。ComfyUI 内の任意のモデルと互換性があり、サンプリング時の計算量を削減するためにキャッシュ機能を追加します。一般的には EasyCache よりも性能が劣りますが、稀にそれより効果的な場合もあり、また汎用的な互換性を備えています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | LazyCache を適用するモデルです。 | +| `reuse_threshold` | FLOAT | いいえ | 0.0 - 3.0 | キャッシュ済みステップを再利用する際の閾値(デフォルト: 0.2)。 | +| `start_percent` | FLOAT | いいえ | 0.0 - 1.0 | LazyCache の使用を開始する相対的なサンプリングステップ(デフォルト: 0.15)。 | +| `end_percent` | FLOAT | いいえ | 0.0 - 1.0 | LazyCache の使用を終了する相対的なサンプリングステップ(デフォルト: 0.95)。 | +| `verbose` | BOOLEAN | いいえ | - | 詳細なログ情報を出力するかどうか(デフォルト: False)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | LazyCache 機能が追加されたモデルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Load3D.mdx b/ja/built-in-nodes/Load3D.mdx new file mode 100644 index 000000000..d9d19ccf4 --- /dev/null +++ b/ja/built-in-nodes/Load3D.mdx @@ -0,0 +1,143 @@ +--- +title: "Load3D - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の Load3D ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Load3D" +icon: "circle" +mode: wide +translationSourceHash: 39de901b +translationFrom: built-in-nodes/Load3D.mdx, zh-CN/built-in-nodes/Load3D.mdx +translationMismatches: + - "description" +--- +Load3D ノードは、3D モデルファイルを読み込んで処理するためのコアノードです。このノードを読み込むと、`ComfyUI/input/3d/` から利用可能な 3D リソースが自動的に取得されます。また、サポートされている 3D ファイルをアップロード機能を使ってアップロードし、プレビュー表示することもできます。 + +**サポートされるフォーマット** +現在、このノードでは `.gltf`、`.glb`、`.obj`、`.fbx`、`.stl` などの複数の 3D ファイル形式がサポートされています。 + +**3D ノードの設定(プリファレンス)** +3D ノードに関連するいくつかの設定は、ComfyUI の設定メニューで行うことができます。対応する設定については、以下のドキュメントをご参照ください: + +[設定メニュー](https://docs.comfy.org/interface/settings/3d) + +通常のノード出力に加えて、Load3D ノードにはキャンバスメニュー内に多数の 3D 表示関連設定が用意されています。 + +## 入力 + +| パラメーター名 | 型 | 説明 | デフォルト値 | 範囲 | +|---------------|------------|-----------------------------------|------------|--------------| +| model_file | ファイル選択 | 3D モデルファイルのパス。アップロードに対応しており、デフォルトでは `ComfyUI/input/3d/` からモデルファイルを読み込みます | - | サポート対象フォーマット | +| width | INT | キャンバスの描画幅 | 1024 | 1–4096 | +| height | INT | キャンバスの描画高さ | 1024 | 1–4096 | + +## 出力 + +| パラメーター名 | データ型 | 説明 | +|-----------------|----------------|-------------------------------------| +| image | IMAGE | キャンバスで描画された画像 | +| mask | MASK | 現在のモデル位置を含むマスク | +| mesh_path | STRING | モデルファイルのパス | +| normal | IMAGE | 法線マップ(ノーマルマップ) | +| lineart | IMAGE | 線画(ラインアート)出力。対応する `edge_threshold` はキャンバスのモデルメニューで調整可能です | +| camera_info | LOAD3D_CAMERA | カメラ情報 | +| recording_video | VIDEO | 録画された動画(録画が存在する場合のみ) | + +すべての出力のプレビュー: +![表示操作のデモ](/images/built-in-nodes/Load3D/load3d_outputs.webp) + +## キャンバス領域の説明 + +Load3D ノードのキャンバス領域には、以下のような多様な表示操作が含まれています: + +- プレビュー表示設定(グリッド表示、背景色、プレビュー表示) +- カメラ制御:視野角(FOV)、カメラタイプの制御 +- グローバルイルミネーション強度:照明の強さを調整 +- 動画録画:動画の録画およびエクスポート +- モデルのエクスポート:`GLB`、`OBJ`、`STL` 形式に対応 +- その他 + +![Load 3D ノード UI](/images/built-in-nodes/Load3D/load3d_ui.jpg) + +1. Load 3D ノードの複数のメニューおよび非表示メニューを含む +2. 「プレビューウィンドウのサイズ変更」と「キャンバス動画録画」のメニュー +3. 3D 表示操作用の座標軸 +4. プレビューのサムネイル +5. プレビューのサイズ設定:サイズを指定してウィンドウをリサイズすることで、プレビュー表示の拡大・縮小が可能 + +### 1. 表示操作 + + + +表示制御操作: + +- 左クリック+ドラッグ:視点の回転 +- 右クリック+ドラッグ:視点の平行移動(パン) +- マウスホイールのスクロール、または中ボタンクリック+ドラッグ:ズームイン/ズームアウト +- 座標軸:表示方向の切り替え + +### 2. 左側メニューの機能 + +![メニュー](/images/built-in-nodes/Load3D/menu.webp) + +キャンバス上では、一部の設定がメニュー内に隠されています。メニューのボタンをクリックすると、異なるメニューが展開されます。 + +- 1. **シーン(Scene)**: プレビューウィンドウのグリッド表示、背景色、プレビュー設定を含む +- 2. **モデル(Model)**: モデルの描画モード、テクスチャ・マテリアル、上方向(Up direction)の設定 +- 3. **カメラ(Camera)**: 平行投影(オルソグラフィック)と透視投影(パースペクティブ)の切り替え、および透視角度の設定 +- 4. **ライト(Light)**: シーン全体のグローバルイルミネーション強度 +- 5. **エクスポート(Export)**: モデルを他の形式(GLB、OBJ、STL)へエクスポート + +#### シーン(Scene) + +![シーンメニュー](/images/built-in-nodes/Load3D/menu_scene.webp) + +シーンメニューでは、シーンの基本設定機能が提供されます。 + +1. グリッドの表示/非表示 +2. 背景色の設定 +3. クリックして背景画像をアップロード +4. プレビューの非表示 + +#### モデル(Model) + +![モデルメニュー](/images/built-in-nodes/Load3D/menu_model.webp) + +モデルメニューでは、モデルに関連する機能が提供されます。 + +1. **上方向(Up direction)**: モデルの「上」方向を定義する軸を指定 +2. **マテリアルモード(Material mode)**: モデルの描画モードを切り替え — 「オリジナル(Original)」「法線(Normal)」「ワイヤーフレーム(Wireframe)」「線画(Lineart)」 + +#### カメラ(Camera) + +![カメラメニュー](/images/built-in-nodes/Load3D/menu_camera.webp) + +このメニューでは、平行投影と透視投影の切り替え、および透視角度(FOV)の設定が可能です。 + +1. **カメラ(Camera)**: 平行投影と透視投影を素早く切り替え +2. **FOV(視野角)**: FOV 角度を調整 + +#### ライト(Light) + +![ライトメニュー](/images/built-in-nodes/Load3D/menu_light.webp) + +このメニューを通じて、シーン全体のグローバルイルミネーション強度を迅速に調整できます。 + +#### エクスポート(Export) + +![エクスポートメニュー](/images/built-in-nodes/Load3D/menu_export.webp) + +このメニューでは、モデル形式の変換およびエクスポートを迅速に行うことができます。 + +### 3. 右側メニューの機能 + + + +右側メニューには、以下の2つの主な機能があります: + +1. **表示比率のリセット**: ボタンをクリックすると、設定された幅と高さに基づいてキャンバスの描画領域の比率が自動調整されます。 +2. **動画録画**: 現在の 3D 表示操作を動画として録画でき、録画した動画は後続ノードへ `recording_video` として出力可能です。 \ No newline at end of file diff --git a/ja/built-in-nodes/Load3DAnimation.mdx b/ja/built-in-nodes/Load3DAnimation.mdx new file mode 100644 index 000000000..d6607154a --- /dev/null +++ b/ja/built-in-nodes/Load3DAnimation.mdx @@ -0,0 +1,146 @@ +--- +title: "Load3DAnimation - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の Load3DAnimation ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Load3DAnimation" +icon: "circle" +mode: wide +translationSourceHash: 2b271efb +translationFrom: built-in-nodes/Load3DAnimation.mdx, zh-CN/built-in-nodes/Load3DAnimation.mdx +translationMismatches: + - "description" +--- +Load3DAnimation ノードは、3D モデルファイルを読み込み・処理するためのコアノードです。このノードを読み込むと、`ComfyUI/input/3d/` ディレクトリから利用可能な 3D リソースが自動的に取得されます。また、サポートされている 3D ファイルをアップロード機能でアップロードし、プレビュー表示することもできます。 + +> - このノードの機能の大部分は Load 3D ノードと同じですが、本ノードはアニメーション付きモデルの読み込みをサポートしており、ノード内で対応するアニメーションをプレビュー表示できます。 +> - 本ドキュメントの内容は Load3D ノードのものと同一です。なぜなら、アニメーションのプレビューおよび再生機能を除けば、両者の機能は完全に同一であるためです。 + +**サポートされるフォーマット** +現在、本ノードでは `.gltf`、`.glb`、`.obj`、`.fbx`、`.stl` などの複数の 3D ファイルフォーマットがサポートされています。 + +**3D ノードの設定(プリファレンス)** +3D ノードに関連するいくつかの設定は、ComfyUI の設定メニューで行うことができます。対応する設定については、以下のドキュメントをご参照ください: + +[設定メニュー](https://docs.comfy.org/interface/settings/3d) + +通常のノード出力に加えて、Load3D ノードにはキャンバスメニュー内に多数の 3D 表示関連設定が用意されています。 + +## 入力 + +| パラメーター名 | 型 | 説明 | 初期値 | 範囲 | +|---------------|------------|-----------------------------------|--------|-------------| +| model_file | ファイル選択 | 3D モデルファイルのパス。アップロードに対応。デフォルトでは `ComfyUI/input/3d/` からモデルファイルを読み込みます | - | サポート対象フォーマット | +| width | INT | キャンバス描画の幅 | 1024 | 1–4096 | +| height | INT | キャンバス描画の高さ | 1024 | 1–4096 | + +## 出力 + +| パラメーター名 | データ型 | 説明 | +|-----------------|----------------|-------------------------------------| +| image | IMAGE | キャンバスで描画された画像 | +| mask | MASK | 現在のモデル位置を含むマスク | +| mesh_path | STRING | モデルファイルのパス | +| normal | IMAGE | 法線マップ(ノーマルマップ) | +| lineart | IMAGE | 線画(ラインアート)出力。対応する `edge_threshold` は、キャンバスのモデルメニューで調整可能です | +| camera_info | LOAD3D_CAMERA | カメラ情報 | +| recording_video | VIDEO | 録画動画(録画が存在する場合のみ出力) | + +すべての出力のプレビュー: +![表示操作のデモ](/images/built-in-nodes/Load3DAnimation/load3d_outputs.webp) + +## キャンバス領域の説明 + +Load3D ノードのキャンバス領域には、以下のような多様な表示操作が含まれています: + +- プレビュー表示設定(グリッド表示、背景色、プレビュー表示) +- カメラ制御:FOV(画角)およびカメラ種別の制御 +- グローバルイルミネーション強度:照明の強さを調整 +- 動画録画:動画の録画およびエクスポート +- モデルのエクスポート:`GLB`、`OBJ`、`STL` 形式をサポート +- その他 + +![Load 3D ノードの UI](/images/built-in-nodes/Load3DAnimation/load3d_ui.jpg) + +1. Load 3D ノードの複数のメニューおよび非表示メニューを含む +2. 「プレビューウィンドウのサイズ変更」と「キャンバス動画録画」のメニュー +3. 3D 表示操作用の座標軸 +4. プレビューのサムネイル +5. プレビューのサイズ設定:サイズを指定してウィンドウをリサイズすることで、プレビュー表示の拡大・縮小が可能 + +### 1. 表示操作 + + + +表示制御操作: + +- 左クリック+ドラッグ:視点の回転 +- 右クリック+ドラッグ:視点の平行移動(パン) +- マウスホイールのスクロール、または中ボタンクリック+ドラッグ:ズームイン/ズームアウト +- 座標軸:表示方向の切り替え + +### 2. 左側メニューの機能 + +![メニュー](https://raw.githubusercontent.com/Comfy-Org/embedded-docs/refs/heads/main/comfyui_embedded_docs/docs/Load3d/asset/menu.webp) + +キャンバス上では、一部の設定がメニュー内に隠されています。メニューボタンをクリックすると、さまざまなメニューが展開されます。 + +- 1. **シーン(Scene)**: プレビューウィンドウのグリッド表示、背景色、プレビュー設定を含む +- 2. **モデル(Model)**: モデルの描画モード、テクスチャ・マテリアル、上方向(Up direction)の設定 +- 3. **カメラ(Camera)**: 平行投影(オルソグラフィック)と透視投影(パースペクティブ)の切り替え、および透視角度の設定 +- 4. **ライト(Light)**: シーン全体の照明強度(グローバルイルミネーション) +- 5. **エクスポート(Export)**: モデルを他の形式(GLB、OBJ、STL)へエクスポート + +#### シーン(Scene) + +![シーンメニュー](https://raw.githubusercontent.com/Comfy-Org/embedded-docs/refs/heads/main/comfyui_embedded_docs/docs/Load3d/asset/menu_scene.webp) + +シーンメニューでは、シーンの基本設定が可能です。 + +1. グリッドの表示/非表示 +2. 背景色の設定 +3. 背景画像のアップロード(クリックで実行) +4. プレビューの非表示 + +#### モデル(Model) + +![モデルメニュー](https://raw.githubusercontent.com/Comfy-Org/embedded-docs/refs/heads/main/comfyui_embedded_docs/docs/Load3d/asset/menu_model.webp) + +モデルメニューでは、モデルに関連する各種機能が提供されます。 + +1. **上方向(Up direction)**: モデルの「上」方向を定義する軸を選択 +2. **マテリアルモード(Material mode)**: モデルの描画モードを切り替え(オリジナル/法線/ワイヤーフレーム/ラインアート) + +#### カメラ(Camera) + +![カメラメニュー](https://raw.githubusercontent.com/Comfy-Org/embedded-docs/refs/heads/main/comfyui_embedded_docs/docs/Load3d/asset/menu_camera.webp) + +このメニューでは、平行投影と透視投影の切り替え、および透視角度(FOV)の設定が可能です。 + +1. **カメラ(Camera)**: 平行投影と透視投影を素早く切り替え +2. **FOV(Field of View)**: FOV 角度を調整 + +#### ライト(Light) + +![ライトメニュー](https://raw.githubusercontent.com/Comfy-Org/embedded-docs/refs/heads/main/comfyui_embedded_docs/docs/Load3d/asset/menu_light.webp) + +このメニューにより、シーン全体のグローバルイルミネーション強度を迅速に調整できます。 + +#### エクスポート(Export) + +![エクスポートメニュー](https://raw.githubusercontent.com/Comfy-Org/embedded-docs/refs/heads/main/comfyui_embedded_docs/docs/Load3d/asset/menu_export.webp) + +このメニューでは、モデルを他の形式へ迅速に変換・エクスポートできます。 + +### 3. 右側メニューの機能 + + + +右側メニューには主に以下の2つの機能があります: + +1. **ビュー比率のリセット**: ボタンをクリックすると、設定した幅と高さに基づいてキャンバス描画領域のアスペクト比が自動調整されます。 +2. **動画録画**: 現在の3Dビュー操作を動画として録画でき、録画済み動画のインポートも可能。録画動画は `recording_video` として後続ノードへ出力できます。 \ No newline at end of file diff --git a/ja/built-in-nodes/LoadAudio.mdx b/ja/built-in-nodes/LoadAudio.mdx new file mode 100644 index 000000000..c6b9d3aa7 --- /dev/null +++ b/ja/built-in-nodes/LoadAudio.mdx @@ -0,0 +1,26 @@ +--- +title: "LoadAudio - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における LoadAudio ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LoadAudio" +icon: "circle" +mode: wide +translationSourceHash: 438aca7e +translationFrom: built-in-nodes/LoadAudio.mdx, zh-CN/built-in-nodes/LoadAudio.mdx +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LoadAudio/en.md) + +LoadAudio ノードは、入力ディレクトリから音声ファイルを読み込み、ComfyUI 内の他の音声関連ノードで処理可能な形式に変換します。このノードは音声ファイルを読み取り、波形データとサンプルレートの両方を抽出し、後続の音声処理タスクで利用できるようにします。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `audio` | AUDIO | はい | 入力ディレクトリ内のすべてのサポート対象音声/動画ファイル | 入力ディレクトリから読み込む音声ファイル | + +**注意:** このノードは、ComfyUI の入力ディレクトリ内に存在する音声および動画ファイルのみを受け付けます。正常に読み込むには、ファイルが存在し、アクセス可能である必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `AUDIO` | AUDIO | 波形およびサンプルレート情報を含む音声データ | \ No newline at end of file diff --git a/ja/built-in-nodes/LoadImage.mdx b/ja/built-in-nodes/LoadImage.mdx new file mode 100644 index 000000000..6ce9ee204 --- /dev/null +++ b/ja/built-in-nodes/LoadImage.mdx @@ -0,0 +1,28 @@ +--- +title: "LoadImage - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LoadImage ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LoadImage" +icon: "circle" +mode: wide +translationSourceHash: a379f8ff +translationFrom: built-in-nodes/LoadImage.mdx, zh-CN/built-in-nodes/LoadImage.mdx +--- + +このノードを右クリックし、コンテキストメニューから **「MaskEditor で開く(遮罩編集器で開く)」** を選択すると、読み込まれた画像のマスクエディターが起動します。 + +> アップロードされた画像はデフォルトで *ComfyUI/input* フォルダに保存され、デフォルトで読み込まれる画像は **input** フォルダ内のファイルとなります。 + +LoadImage ノードは、指定されたパスから画像を読み込み、前処理を行うことを目的として設計されています。複数フレームを含む画像形式にも対応し、EXIF データに基づく回転などの必要な変換を適用し、ピクセル値を正規化します。また、アルファチャンネルを含む画像に対しては、オプションでマスクを生成します。このノードは、パイプライン内で画像をさらに処理または解析する前に準備する際に不可欠です。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `image` | COMBO[STRING] | `image` パラメーターは、読み込んで処理する画像の識別子を指定します。これにより画像ファイルのパスが特定され、その後、変換および正規化のための画像読み込みが行われます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `image` | `IMAGE` | 処理済みの画像で、ピクセル値は正規化され、必要に応じて変換が適用されています。以降の処理や解析にすぐに使用できます。 | +| `mask` | `MASK` | (オプション)画像に対するマスク出力で、透明度を制御するアルファチャンネルを含む画像を扱う場合に有用です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LoadImageDataSetFromFolder.mdx b/ja/built-in-nodes/LoadImageDataSetFromFolder.mdx new file mode 100644 index 000000000..961df7a7d --- /dev/null +++ b/ja/built-in-nodes/LoadImageDataSetFromFolder.mdx @@ -0,0 +1,24 @@ +--- +title: "LoadImageDataSetFromFolder - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LoadImageDataSetFromFolder ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LoadImageDataSetFromFolder" +icon: "circle" +mode: wide +translationSourceHash: 8034def2 +translationFrom: built-in-nodes/LoadImageDataSetFromFolder.mdx, zh-CN/built-in-nodes/LoadImageDataSetFromFolder.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LoadImageDataSetFromFolder/en.md) + +このノードは、ComfyUI の入力ディレクトリ内に存在する指定されたサブフォルダーから複数の画像を読み込みます。選択されたフォルダー内の一般的な画像ファイル形式(PNG、JPG、JPEG、WEBP)をスキャンし、それらをリスト形式で返します。バッチ処理やデータセットの準備などに便利です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `folder` | STRING | はい | *複数のオプションが利用可能* | 画像を読み込む対象のフォルダーです。選択肢は、ComfyUI のメイン入力ディレクトリ内に存在するサブフォルダーです。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `images` | IMAGE | 読み込まれた画像のリストです。このノードは、選択されたフォルダー内で見つかったすべての有効な画像ファイル(PNG、JPG、JPEG、WEBP)を読み込みます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LoadImageMask.mdx b/ja/built-in-nodes/LoadImageMask.mdx new file mode 100644 index 000000000..661d8d425 --- /dev/null +++ b/ja/built-in-nodes/LoadImageMask.mdx @@ -0,0 +1,24 @@ +--- +title: "LoadImageMask - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LoadImageMask ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LoadImageMask" +icon: "circle" +mode: wide +translationSourceHash: 262ee99b +translationFrom: built-in-nodes/LoadImageMask.mdx, zh-CN/built-in-nodes/LoadImageMask.mdx +--- + +LoadImageMask ノードは、指定されたパスから画像および関連するマスクを読み込むことを目的としており、後続の画像操作や解析タスクとの互換性を確保するためにそれらを処理します。このノードは、マスクにおけるアルファチャンネルの有無など、さまざまな画像フォーマットや条件を扱うことに重点を置いており、画像およびマスクを標準化されたフォーマットに変換することで、ダウンストリーム処理への準備を行います。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|--------------|----------|------| +| `image` | COMBO[STRING] | `image` パラメーターは、読み込んで処理する画像ファイルを指定します。マスク抽出およびフォーマット変換のためのソース画像を提供することにより、出力の決定において重要な役割を果たします。 | +| `channel` | COMBO[STRING] | `channel` パラメーターは、マスク生成に使用する画像の色チャンネルを指定します。これにより、異なる色チャンネルに基づいた柔軟なマスク作成が可能となり、さまざまな画像処理シナリオにおけるノードの実用性が高まります。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|--------------|----------|------| +| `mask` | `MASK` | このノードは、指定された画像およびチャンネルから生成されたマスクを出力します。出力されるマスクは、画像操作タスクにおける後続処理に適した標準化されたフォーマットで準備されています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LoadImageOutput.mdx b/ja/built-in-nodes/LoadImageOutput.mdx new file mode 100644 index 000000000..860b9235a --- /dev/null +++ b/ja/built-in-nodes/LoadImageOutput.mdx @@ -0,0 +1,27 @@ +--- +title: "LoadImageOutput - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LoadImageOutput ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LoadImageOutput" +icon: "circle" +mode: wide +translationSourceHash: a68c5de9 +translationFrom: built-in-nodes/LoadImageOutput.mdx, zh-CN/built-in-nodes/LoadImageOutput.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LoadImageOutput/en.md) + +LoadImageOutput ノードは、出力フォルダーから画像を読み込みます。更新ボタンをクリックすると、利用可能な画像の一覧が更新され、自動的に先頭の画像が選択されます。これにより、生成された画像を簡単に確認・反復処理できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | COMBO | はい | 複数の選択肢が利用可能 | 出力フォルダーから画像を読み込みます。アップロード機能および画像一覧を更新するための更新ボタンが含まれています。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 出力フォルダーから読み込まれた画像 | +| `mask` | MASK | 読み込まれた画像に関連付けられたマスク | \ No newline at end of file diff --git a/ja/built-in-nodes/LoadImageSetFromFolderNode.mdx b/ja/built-in-nodes/LoadImageSetFromFolderNode.mdx new file mode 100644 index 000000000..194b50e5f --- /dev/null +++ b/ja/built-in-nodes/LoadImageSetFromFolderNode.mdx @@ -0,0 +1,25 @@ +--- +title: "LoadImageSetFromFolderNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LoadImageSetFromFolderNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LoadImageSetFromFolderNode" +icon: "circle" +mode: wide +translationSourceHash: a1a0ccc4 +translationFrom: built-in-nodes/LoadImageSetFromFolderNode.mdx, zh-CN/built-in-nodes/LoadImageSetFromFolderNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LoadImageSetFromFolderNode/en.md) + +LoadImageSetFromFolderNode は、訓練目的で指定されたフォルダーから複数の画像を読み込みます。このノードは一般的な画像形式を自動的に検出し、必要に応じてさまざまな方法で画像サイズを変更したうえで、バッチとして返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `folder` | STRING | はい | 複数のオプションが利用可能 | 画像を読み込む対象のフォルダーです。 | +| `resize_method` | STRING | いいえ | "None"
"Stretch"
"Crop"
"Pad" | 画像のリサイズに使用する方法(デフォルト: "None")。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `IMAGE` | IMAGE | 読み込まれた画像のバッチを、単一のテンソルとして返します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LoadImageSetNode.mdx b/ja/built-in-nodes/LoadImageSetNode.mdx new file mode 100644 index 000000000..5622492a9 --- /dev/null +++ b/ja/built-in-nodes/LoadImageSetNode.mdx @@ -0,0 +1,27 @@ +--- +title: "LoadImageSetNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LoadImageSetNode ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LoadImageSetNode" +icon: "circle" +mode: wide +translationSourceHash: d115e066 +translationFrom: built-in-nodes/LoadImageSetNode.mdx, zh-CN/built-in-nodes/LoadImageSetNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LoadImageSetNode/en.md) + +LoadImageSetNode は、バッチ処理および学習目的で入力ディレクトリから複数の画像を読み込みます。さまざまな画像形式をサポートしており、オプションで異なる手法を用いて画像のサイズ変更が可能です。このノードは選択されたすべての画像をバッチとして処理し、単一のテンソルとして返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `images` | IMAGE | はい | 複数の画像ファイル | 入力ディレクトリから複数の画像を選択します。PNG、JPG、JPEG、WEBP、BMP、GIF、JPE、APNG、TIF、TIFF 形式をサポートします。画像のバッチ選択が可能です。 | +| `resize_method` | STRING | いいえ | "None"
"Stretch"
"Crop"
"Pad" | 読み込まれた画像のサイズ変更に使用するオプションの手法(デフォルト:"None")。"None" を選択すると元のサイズを維持し、"Stretch" を選択すると強制的にサイズ変更され、"Crop" を選択するとアスペクト比を維持するために切り抜きが行われ、"Pad" を選択するとアスペクト比を維持するためにパディングが追加されます。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `IMAGE` | IMAGE | さらに処理を行うために、すべての読み込まれた画像をバッチとして含むテンソルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LoadImageTextDataSetFromFolder.mdx b/ja/built-in-nodes/LoadImageTextDataSetFromFolder.mdx new file mode 100644 index 000000000..3b44427b7 --- /dev/null +++ b/ja/built-in-nodes/LoadImageTextDataSetFromFolder.mdx @@ -0,0 +1,29 @@ +--- +title: "LoadImageTextDataSetFromFolder - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LoadImageTextDataSetFromFolder ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LoadImageTextDataSetFromFolder" +icon: "circle" +mode: wide +translationSourceHash: 6c11c01f +translationFrom: built-in-nodes/LoadImageTextDataSetFromFolder.mdx, zh-CN/built-in-nodes/LoadImageTextDataSetFromFolder.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LoadImageTextDataSetFromFolder/en.md) + +このノードは、指定したフォルダーから画像と対応するテキストキャプション(説明文)を含むデータセットを読み込みます。ノードは画像ファイルを検索し、そのベース名と同じ `.txt` ファイルを自動的に探してキャプションとして使用します。また、サブフォルダーの名前に数字プレフィックス(例:`10_folder_name`)を付けることで、そのフォルダー内の画像を出力リスト内で指定回数だけ繰り返すという特殊なフォルダー構造もサポートしています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `folder` | COMBO | はい | *`folder_paths.get_input_subfolders()` から動的に読み込まれます* | 画像を読み込む元のフォルダーです。利用可能な選択肢は、ComfyUI の入力ディレクトリ内にあるサブディレクトリです。 | + +**注意:** このノードでは特定のファイル構造が期待されます。各画像ファイル(`.png`、`.jpg`、`.jpeg`、`.webp`)に対して、同じ名前の `.txt` ファイルをキャプションとして検索します。キャプションファイルが見つからない場合は、空文字列が使用されます。また、サブフォルダーの名前が数字とアンダースコアで始まる特殊な構造(例:`5_cats`)もサポートしており、そのサブフォルダー内のすべての画像が最終的な出力リスト内で指定された回数だけ繰り返されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `images` | IMAGE | 読み込まれた画像テンソルのリストです。 | +| `texts` | STRING | 各読み込まれた画像に対応するテキストキャプション(説明文)のリストです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LoadImageTextSetFromFolderNode.mdx b/ja/built-in-nodes/LoadImageTextSetFromFolderNode.mdx new file mode 100644 index 000000000..77102eaaa --- /dev/null +++ b/ja/built-in-nodes/LoadImageTextSetFromFolderNode.mdx @@ -0,0 +1,33 @@ +--- +title: "LoadImageTextSetFromFolderNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LoadImageTextSetFromFolderNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LoadImageTextSetFromFolderNode" +icon: "circle" +mode: wide +translationSourceHash: ed45d9da +translationFrom: built-in-nodes/LoadImageTextSetFromFolderNode.mdx, zh-CN/built-in-nodes/LoadImageTextSetFromFolderNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひ貢献してください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LoadImageTextSetFromFolderNode/en.md) + +訓練目的のために、指定されたディレクトリから一連の画像および対応するテキストキャプション(説明文)をバッチで読み込みます。このノードは、画像ファイルおよび関連するテキストキャプションファイルを自動的に検索し、指定されたリサイズ設定に従って画像を処理し、提供された CLIP モデルを用いてキャプションをエンコードします。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `folder` | STRING | はい | - | 画像を読み込むフォルダーのパス。 | +| `clip` | CLIP | はい | - | テキストをエンコードするために使用される CLIP モデル。 | +| `resize_method` | COMBO | いいえ | "None"
"Stretch"
"Crop"
"Pad" | 画像のリサイズに使用される手法(デフォルト: "None")。 | +| `width` | INT | いいえ | -1 ~ 10000 | 画像をリサイズする際の幅。-1 の場合は元の幅を使用(デフォルト: -1)。 | +| `height` | INT | いいえ | -1 ~ 10000 | 画像をリサイズする際の高さ。-1 の場合は元の高さを使用(デフォルト: -1)。 | + +**注意:** CLIP 入力は有効でなければならず、`None` であってはなりません。CLIP モデルがチェックポイントローダー・ノードから取得される場合、そのチェックポイントには有効な CLIP モデルまたはテキストエンコーダー・モデルが含まれていることを確認してください。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `IMAGE` | IMAGE | 読み込まれて処理された画像のバッチ。 | +| `CONDITIONING` | CONDITIONING | テキストキャプションからエンコードされた条件付けデータ。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LoadLatent.mdx b/ja/built-in-nodes/LoadLatent.mdx new file mode 100644 index 000000000..88ed19752 --- /dev/null +++ b/ja/built-in-nodes/LoadLatent.mdx @@ -0,0 +1,24 @@ +--- +title: "LoadLatent - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LoadLatent ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LoadLatent" +icon: "circle" +mode: wide +translationSourceHash: f3e16964 +translationFrom: built-in-nodes/LoadLatent.mdx, zh-CN/built-in-nodes/LoadLatent.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LoadLatent/en.md) + +LoadLatent ノードは、入力ディレクトリ内の `.latent` ファイルから、以前に保存された潜在表現(latent representation)を読み込みます。このノードはファイルから潜在テンソルデータを読み取り、他のノードで使用できるよう、必要に応じてスケーリング調整を適用したうえで潜在データを返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `latent` | STRING | はい | 入力ディレクトリ内のすべての `.latent` ファイル | 入力ディレクトリ内にある利用可能なファイルから、読み込む `.latent` ファイルを選択します | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `LATENT` | LATENT | 選択されたファイルから読み込まれた潜在表現データを返します | \ No newline at end of file diff --git a/ja/built-in-nodes/LoadTrainingDataset.mdx b/ja/built-in-nodes/LoadTrainingDataset.mdx new file mode 100644 index 000000000..8ddbf13e3 --- /dev/null +++ b/ja/built-in-nodes/LoadTrainingDataset.mdx @@ -0,0 +1,25 @@ +--- +title: "LoadTrainingDataset - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LoadTrainingDataset ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LoadTrainingDataset" +icon: "circle" +mode: wide +translationSourceHash: 586f0dd8 +translationFrom: built-in-nodes/LoadTrainingDataset.mdx, zh-CN/built-in-nodes/LoadTrainingDataset.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LoadTrainingDataset/en.md) + +このノードは、以前にディスクに保存されたエンコード済みの訓練データセットを読み込みます。ComfyUI の出力ディレクトリ内にある指定されたフォルダーからすべてのデータシャードファイルを検索・読み込み、統合された潜在ベクトル(latent vectors)および条件付けデータ(conditioning data)を返します。これらは訓練ワークフローで使用されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `folder_name` | STRING | いいえ | N/A | 保存済みデータセットを含むフォルダー名。ComfyUI の出力ディレクトリ内に配置されます(デフォルト値:`"training_dataset"`)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `latents` | LATENT | 潜在ベクトル辞書のリスト。各辞書には、テンソルを値とする `"samples"` キーが含まれます。 | +| `conditioning` | CONDITIONING | 条件付けデータのリストのリスト。各内側のリストには、対応するサンプルの条件付けデータが含まれます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LoadVideo.mdx b/ja/built-in-nodes/LoadVideo.mdx new file mode 100644 index 000000000..b1bd6e9da --- /dev/null +++ b/ja/built-in-nodes/LoadVideo.mdx @@ -0,0 +1,28 @@ +--- +title: "LoadVideo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LoadVideo ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LoadVideo" +icon: "circle" +mode: wide +translationSourceHash: 263c6271 +translationFrom: built-in-nodes/LoadVideo.mdx, zh-CN/built-in-nodes/LoadVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LoadVideo/en.md) + +Load Video ノードは、入力ディレクトリから動画ファイルを読み込み、ワークフロー内で処理可能な状態にします。指定された入力フォルダーから動画ファイルを読み取り、他の動画処理ノードに接続可能な動画データとして出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `file` | STRING | はい | 複数の選択肢が利用可能 | 入力ディレクトリから読み込む動画ファイル | + +**注意:** `file` パラメーターの利用可能な選択肢は、入力ディレクトリ内に存在する動画ファイルに基づいて動的に生成されます。対応しているコンテンツタイプの動画ファイルのみが表示されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `video` | VIDEO | 他の動画処理ノードへ渡すことができる、読み込まれた動画データ | \ No newline at end of file diff --git a/ja/built-in-nodes/LoraLoader.mdx b/ja/built-in-nodes/LoraLoader.mdx new file mode 100644 index 000000000..8f8662509 --- /dev/null +++ b/ja/built-in-nodes/LoraLoader.mdx @@ -0,0 +1,39 @@ +--- +title: "LoraLoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LoraLoader ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LoraLoader" +icon: "circle" +mode: wide +translationSourceHash: d8f475d1 +translationFrom: built-in-nodes/LoraLoader.mdx, zh-CN/built-in-nodes/LoraLoader.mdx +translationMismatches: + - "description" +--- +このノードは、LoRA フォルダー(サブフォルダーを含む)内に配置されたモデルを自動的に検出します。対応するモデルパスは `ComfyUI\models\loras` です。詳細については、「LoRA モデルのインストール」を参照してください。 + +LoRA Loader ノードは、主に LoRA モデルを読み込むために使用されます。LoRA モデルは、画像に特定のスタイル、コンテンツ、ディテールなどを付与する「フィルター」として考えることができます。 + +- 特定のアーティスティックなスタイル(例:水墨画)を適用する +- 特定のキャラクターの特徴(例:ゲーム内のキャラクター)を追加する +- 画像に特定のディテールを追加する + +上記のような機能は、すべて LoRA を用いて実現可能です。 + +複数の LoRA モデルを読み込む必要がある場合は、以下のように、複数のノードを直接連鎖(チェーン)接続することができます。 + +## 入力 + +| パラメーター | データ型 | 説明 | +| --- | --- | --- | +| `model` | MODEL | 通常、ベースモデルへ接続するために使用します | +| `clip` | CLIP | 通常、CLIP モデルへ接続するために使用します | +| `lora_name` | COMBO[STRING] | 使用する LoRA モデルの名称を選択します | +| `strength_model` | FLOAT | 値の範囲は -100.0 ~ 100.0 です。日常的な画像生成では、通常 0~1 の範囲を使用します。値が大きいほど、モデルに対する調整効果が強くなります | +| `strength_clip` | FLOAT | 値の範囲は -100.0 ~ 100.0 です。日常的な画像生成では、通常 0~1 の範囲を使用します。値が大きいほど、CLIP に対する調整効果が強くなります | + +## 出力 + +| パラメーター | データ型 | 説明 | +| --- | --- | --- | +| `model` | MODEL | LoRA の調整が適用されたモデル | +| `clip` | CLIP | LoRA の調整が適用された CLIP インスタンス | \ No newline at end of file diff --git a/ja/built-in-nodes/LoraLoaderBypass.mdx b/ja/built-in-nodes/LoraLoaderBypass.mdx new file mode 100644 index 000000000..6c81462b3 --- /dev/null +++ b/ja/built-in-nodes/LoraLoaderBypass.mdx @@ -0,0 +1,33 @@ +--- +title: "LoraLoaderBypass - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LoraLoaderBypass ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LoraLoaderBypass" +icon: "circle" +mode: wide +translationSourceHash: 59561a65 +translationFrom: built-in-nodes/LoraLoaderBypass.mdx, zh-CN/built-in-nodes/LoraLoaderBypass.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHubで編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LoraLoaderBypass/en.md) + +LoraLoaderBypass ノードは、LoRA(低ランク適応:Low-Rank Adaptation)を拡散モデルおよびCLIPモデルに、特別な「バイパス」モードで適用します。標準的なLoRAローダーとは異なり、この手法ではベースモデルの重みを永続的に変更しません。代わりに、モデルの通常の順伝播(フォワードパス)にLoRAの効果を加算することで出力を計算します。これは、学習時や、重みがオフロードされているモデルを扱う際に特に有用です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | LoRAを適用する拡散モデルです。 | +| `clip` | CLIP | はい | - | LoRAを適用するCLIPモデルです。 | +| `lora_name` | COMBO | はい | *利用可能なLoRAファイルの一覧* | 適用するLoRAファイルの名前です。選択肢は `loras` フォルダーから読み込まれます。 | +| `strength_model` | FLOAT | はい | -100.0 ~ 100.0 | 拡散モデルをどの程度変更するかを指定します。この値は負の数も可(デフォルト値:1.0)。 | +| `strength_clip` | FLOAT | はい | -100.0 ~ 100.0 | CLIPモデルをどの程度変更するかを指定します。この値は負の数も可(デフォルト値:1.0)。 | + +**注意:** `strength_model` および `strength_clip` の両方が 0 に設定された場合、ノードは処理を行わず、元の未変更の `model` および `clip` 入力をそのまま返します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `MODEL` | MODEL | バイパスモードでLoRAが適用された拡散モデルです。 | +| `CLIP` | CLIP | バイパスモードでLoRAが適用されたCLIPモデルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LoraLoaderBypassModelOnly.mdx b/ja/built-in-nodes/LoraLoaderBypassModelOnly.mdx new file mode 100644 index 000000000..dccc10e11 --- /dev/null +++ b/ja/built-in-nodes/LoraLoaderBypassModelOnly.mdx @@ -0,0 +1,28 @@ +--- +title: "LoraLoaderBypassModelOnly - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LoraLoaderBypassModelOnly ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LoraLoaderBypassModelOnly" +icon: "circle" +mode: wide +translationSourceHash: 012a8711 +translationFrom: built-in-nodes/LoraLoaderBypassModelOnly.mdx, zh-CN/built-in-nodes/LoraLoaderBypassModelOnly.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LoraLoaderBypassModelOnly/en.md) + +このノードは、モデルの動作を変更するために LoRA(低ランク適応:Low-Rank Adaptation)をモデルに適用しますが、その影響はモデル自体のコンポーネントにのみ及びます。指定された LoRA ファイルを読み込み、所定の強度でモデルの重みを調整します。一方、CLIP テキストエンコーダーなどの他のコンポーネントは変更されません。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | LoRA の調整を適用するベースモデルです。 | +| `lora_name` | STRING | はい | (利用可能な LoRA ファイルの一覧) | 読み込んで適用する LoRA ファイルの名前です。選択肢は `loras` ディレクトリ内のファイルから自動的に取得されます。 | +| `strength_model` | FLOAT | はい | -100.0 ~ 100.0 | LoRA がモデルの重みに与える影響の強さです。正の値では LoRA を適用し、負の値ではその逆効果を適用し、0 の場合は何の効果もありません(デフォルト値:1.0)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 重みに LoRA の調整が適用された、修正済みのモデルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LoraLoaderModelOnly.mdx b/ja/built-in-nodes/LoraLoaderModelOnly.mdx new file mode 100644 index 000000000..1efbaf0a8 --- /dev/null +++ b/ja/built-in-nodes/LoraLoaderModelOnly.mdx @@ -0,0 +1,27 @@ +--- +title: "LoraLoaderModelOnly - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の LoraLoaderModelOnly ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LoraLoaderModelOnly" +icon: "circle" +mode: wide +translationSourceHash: ee1af7e1 +translationFrom: built-in-nodes/LoraLoaderModelOnly.mdx, zh-CN/built-in-nodes/LoraLoaderModelOnly.mdx +--- + +このノードは、`ComfyUI/models/loras` フォルダー内に配置されたモデルを検出し、さらに `extra_model_paths.yaml` ファイルで設定された追加パス上のモデルも読み込みます。場合によっては、対応するフォルダー内のモデルファイルを読み込むために、**ComfyUI インターフェースを更新する**必要があります。 + +このノードは、CLIP モデルを必要とせずに LoRA モデルを読み込むことに特化しており、LoRA パラメーターに基づいて指定されたモデルを強化または修正することを目的としています。LoRA パラメーターを用いてモデルの適用強度を動的に調整可能であり、モデルの動作や機能に対するきめ細かな制御を実現します。 + +## 入力 + +| フィールド | Comfy データ型 | 説明 | +|----------------------|-------------------|----------------------------------------------------------------------------------------| +| `model` | `MODEL` | 変更の基盤となるベースモデル。LoRA の調整が適用されるモデルです。 | +| `lora_name` | `COMBO[STRING]` | 読み込む LoRA ファイルの名称。モデルに適用する LoRA の調整内容を指定します。 | +| `strength_model` | `FLOAT` | LoRA 調整の強度を決定します。数値が大きいほど、より強い変更が適用されます。 | + +## 出力 + +| フィールド | データ型 | 説明 | +|-------------|-----------|-----------------------------------------------------------------------------------| +| `model` | `MODEL` | LoRA 調整が適用された修正済みモデル。モデルの動作や機能の変化が反映されています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LoraModelLoader.mdx b/ja/built-in-nodes/LoraModelLoader.mdx new file mode 100644 index 000000000..375f7c9ce --- /dev/null +++ b/ja/built-in-nodes/LoraModelLoader.mdx @@ -0,0 +1,28 @@ +--- +title: "LoraModelLoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LoraModelLoader ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LoraModelLoader" +icon: "circle" +mode: wide +translationSourceHash: 2d17ee26 +translationFrom: built-in-nodes/LoraModelLoader.mdx, zh-CN/built-in-nodes/LoraModelLoader.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LoraModelLoader/en.md) + +LoraModelLoader ノードは、学習済みの LoRA(Low-Rank Adaptation:低ランク適応)重みを拡散モデルに適用します。このノードは、学習済み LoRA モデルから重みを読み込み、その影響強度を調整することでベースモデルを変更します。これにより、拡散モデルをゼロから再学習することなく、その動作をカスタマイズできます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | LoRA を適用する対象の拡散モデルです。 | +| `lora` | LORA_MODEL | はい | - | 拡散モデルに適用する LoRA モデルです。 | +| `strength_model` | FLOAT | はい | -100.0 ~ 100.0 | 拡散モデルを変更する強さを指定します。この値は負の数も可(デフォルト値:1.0)。 | + +**注意:** `strength_model` を 0 に設定した場合、ノードは LoRA の適用を行わず、元のモデルをそのまま返します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | LoRA 重みが適用された修正済み拡散モデルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LoraSave.mdx b/ja/built-in-nodes/LoraSave.mdx new file mode 100644 index 000000000..a6fb22032 --- /dev/null +++ b/ja/built-in-nodes/LoraSave.mdx @@ -0,0 +1,33 @@ +--- +title: "LoraSave - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LoraSave ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LoraSave" +icon: "circle" +mode: wide +translationSourceHash: c26377f0 +translationFrom: built-in-nodes/LoraSave.mdx, zh-CN/built-in-nodes/LoraSave.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LoraSave/en.md) + +LoraSave ノードは、モデルの差分から LoRA(Low-Rank Adaptation:低ランク適応)ファイルを抽出・保存します。このノードは、拡散モデルの差分、テキストエンコーダーの差分、またはその両方を処理でき、指定されたランクおよびタイプで LoRA 形式に変換します。生成された LoRA ファイルは、後続の利用のために出力ディレクトリに保存されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `filename_prefix` | STRING | はい | - | 出力ファイル名のプレフィックス(デフォルト: `"loras/ComfyUI_extracted_lora"`) | +| `rank` | INT | はい | 1–4096 | LoRA のランク値。ファイルサイズおよび複雑さを制御します(デフォルト: `8`) | +| `lora_type` | COMBO | はい | 複数の選択肢あり | 作成する LoRA の種類。さまざまなオプションが利用可能です | +| `bias_diff` | BOOLEAN | はい | - | LoRA 計算にバイアスの差分を含めるかどうか(デフォルト: `True`) | +| `model_diff` | MODEL | いいえ | - | LoRA へ変換する ModelSubtract の出力 | +| `text_encoder_diff` | CLIP | いいえ | - | LoRA へ変換する CLIPSubtract の出力 | + +**注意:** このノードが機能するには、`model_diff` または `text_encoder_diff` のいずれか少なくとも 1 つを指定する必要があります。両方とも省略された場合、ノードは一切の出力を生成しません。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| - | - | このノードは LoRA ファイルを出力ディレクトリに保存しますが、ワークフロー上ではデータを返しません | \ No newline at end of file diff --git a/ja/built-in-nodes/LossGraphNode.mdx b/ja/built-in-nodes/LossGraphNode.mdx new file mode 100644 index 000000000..95beca85f --- /dev/null +++ b/ja/built-in-nodes/LossGraphNode.mdx @@ -0,0 +1,27 @@ +--- +title: "LossGraphNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LossGraphNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LossGraphNode" +icon: "circle" +mode: wide +translationSourceHash: 7d94bc8f +translationFrom: built-in-nodes/LossGraphNode.mdx, zh-CN/built-in-nodes/LossGraphNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LossGraphNode/en.md) + +LossGraphNode は、訓練中の損失値(loss)の経時変化を可視化したグラフを生成し、画像ファイルとして保存します。このノードは訓練プロセスから損失データを取得し、訓練ステップに応じた損失の変化を折線グラフで表示します。生成されるグラフには軸ラベル、最小・最大損失値が含まれており、タイムスタンプ付きで一時出力ディレクトリに自動的に保存されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `loss` | LOSS | はい | 複数のオプションが利用可能 | グラフ化する損失値を含む損失データ(デフォルト:空の辞書) | +| `filename_prefix` | STRING | はい | - | 出力画像ファイル名のプレフィックス(デフォルト:`"loss_graph"`) | + +**注意:** `loss` パラメーターには、損失値を格納した `"loss"` キーを含む有効な損失辞書を指定する必要があります。本ノードは、損失値を自動的にスケーリングしてグラフのサイズに適合させ、訓練ステップに沿った損失の推移を示す折線グラフを生成します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `ui.images` | IMAGE | 一時ディレクトリに保存された生成済みの損失グラフ画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/LotusConditioning.mdx b/ja/built-in-nodes/LotusConditioning.mdx new file mode 100644 index 000000000..e97bacc41 --- /dev/null +++ b/ja/built-in-nodes/LotusConditioning.mdx @@ -0,0 +1,26 @@ +--- +title: "LotusConditioning - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における LotusConditioning ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LotusConditioning" +icon: "circle" +mode: wide +translationSourceHash: e841f0db +translationFrom: built-in-nodes/LotusConditioning.mdx, zh-CN/built-in-nodes/LotusConditioning.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見した場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LotusConditioning/en.md) + +LotusConditioning ノードは、Lotus モデル向けに事前に計算された条件付け埋め込み(conditioning embeddings)を提供します。このノードは、ヌル条件付け(null conditioning)を用いたフリーズされたエンコーダーを使用し、参照実装との互換性を確保するためにハードコードされたプロンプト埋め込みを返します。これにより、推論処理や大規模なテンソルファイルの読み込みを必要とせずに、同等の動作を実現します。このノードは、生成パイプラインで直接使用可能な固定の条件付けテンソルを出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| *入力なし* | - | - | - | このノードは、いかなる入力パラメーターも受け付けません。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `conditioning` | CONDITIONING | Lotus モデル向けに事前に計算された条件付け埋め込みで、固定のプロンプト埋め込みと空の辞書を含みます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LtxvApiImageToVideo.mdx b/ja/built-in-nodes/LtxvApiImageToVideo.mdx new file mode 100644 index 000000000..a2d18b618 --- /dev/null +++ b/ja/built-in-nodes/LtxvApiImageToVideo.mdx @@ -0,0 +1,38 @@ +--- +title: "LtxvApiImageToVideo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LtxvApiImageToVideo ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LtxvApiImageToVideo" +icon: "circle" +mode: wide +translationSourceHash: af16338a +translationFrom: built-in-nodes/LtxvApiImageToVideo.mdx, zh-CN/built-in-nodes/LtxvApiImageToVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LtxvApiImageToVideo/en.md) + +LTXV 画像から動画へ変換するノードは、単一の開始画像からプロフェッショナル品質の動画を生成します。このノードは外部 API を利用して、ユーザーが指定したテキストプロンプトに基づいて動画シーケンスを作成し、動画の再生時間、解像度、フレームレートをカスタマイズできます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 動画生成に使用される最初のフレーム(画像)。 | +| `model` | COMBO | はい | `"LTX-2 (Fast)"`
`"LTX-2 (Quality)"` | 動画生成に使用する AI モデル。「Fast」モデルは処理速度を最適化しており、「Quality」モデルは視覚的忠実度を優先します。 | +| `prompt` | STRING | はい | - | 生成される動画の内容および動きを制御するテキストによる説明文。 | +| `duration` | COMBO | はい | `6`
`8`
`10`
`12`
`14`
`16`
`18`
`20` | 動画の長さ(単位:秒、デフォルト値:8)。 | +| `resolution` | COMBO | はい | `"1920x1080"`
`"2560x1440"`
`"3840x2160"` | 生成される動画の出力解像度。 | +| `fps` | COMBO | はい | `25`
`50` | 動画のフレームレート(単位:フレーム/秒、デフォルト値:25)。 | +| `generate_audio` | BOOLEAN | いいえ | - | `true` の場合、生成された動画にはシーンに合った AI 生成音声が含まれます(デフォルト値:`False`)。 | + +**重要な制約事項:** + +* `image` 入力には、**正確に 1 枚の画像**のみを含める必要があります。 +* `prompt` は **1 文字以上 10,000 文字以下**である必要があります。 +* `duration` を **10 秒より長い値**に設定する場合、必ず **"LTX-2 (Fast)"** モデル、**"1920x1080"** 解像度、および **25 FPS** を組み合わせて使用する必要があります。この組み合わせは、長尺動画を生成するために必須です。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `video` | VIDEO | 生成された動画ファイル。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LtxvApiTextToVideo.mdx b/ja/built-in-nodes/LtxvApiTextToVideo.mdx new file mode 100644 index 000000000..1c95a1ccb --- /dev/null +++ b/ja/built-in-nodes/LtxvApiTextToVideo.mdx @@ -0,0 +1,36 @@ +--- +title: "LtxvApiTextToVideo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LtxvApiTextToVideo ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LtxvApiTextToVideo" +icon: "circle" +mode: wide +translationSourceHash: 00f6acc0 +translationFrom: built-in-nodes/LtxvApiTextToVideo.mdx, zh-CN/built-in-nodes/LtxvApiTextToVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LtxvApiTextToVideo/en.md) + +LTXV Text To Video ノードは、テキストによる説明からプロフェッショナル品質の動画を生成します。このノードは外部 API に接続して、再生時間、解像度、フレームレートをカスタマイズ可能な動画を作成します。また、動画に AI が生成した音声を追加することもできます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"LTX-2 (Fast)"`
`"LTX-2 (Quality)"`
`"LTX-2 (Turbo)"` | 動画生成に使用する AI モデルです。利用可能なモデルは、ソースコード内の `MODELS_MAP` からマッピングされています。 | +| `prompt` | STRING | はい | - | AI が動画生成に使用するテキストによる説明です。このフィールドでは複数行のテキストをサポートしています。 | +| `duration` | COMBO | はい | `6`
`8`
`10`
`12`
`14`
`16`
`18`
`20` | 生成される動画の長さ(単位:秒)。デフォルト値は 8 です。 | +| `resolution` | COMBO | はい | `"1920x1080"`
`"2560x1440"`
`"3840x2160"` | 出力動画のピクセルサイズ(幅 × 高さ)です。 | +| `fps` | COMBO | はい | `25`
`50` | 動画のフレームレート(単位:1 秒あたりのフレーム数)。デフォルト値は 25 です。 | +| `generate_audio` | BOOLEAN | いいえ | - | 有効にすると、生成された動画にはシーンに合った AI 生成音声が含まれます(デフォルト:False)。 | + +**重要な制約事項:** + +* `prompt` の文字数は、1 文字以上 10,000 文字以下である必要があります。 +* `duration` を 10 秒より大きい値に設定する場合、必ず `"LTX-2 (Fast)"` モデル、解像度 `"1920x1080"`、および `fps` を `25` に設定する必要があります。これは長尺動画を生成するために必須となる組み合わせです。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画ファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LumaConceptsNode.mdx b/ja/built-in-nodes/LumaConceptsNode.mdx new file mode 100644 index 000000000..225f20ddd --- /dev/null +++ b/ja/built-in-nodes/LumaConceptsNode.mdx @@ -0,0 +1,30 @@ +--- +title: "LumaConceptsNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LumaConceptsNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LumaConceptsNode" +icon: "circle" +mode: wide +translationSourceHash: 169452ca +translationFrom: built-in-nodes/LumaConceptsNode.mdx, zh-CN/built-in-nodes/LumaConceptsNode.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LumaConceptsNode/en.md) + +Luma 文から動画生成(Text-to-Video)および Luma 画像から動画生成(Image-to-Video)ノードで使用するための、1つ以上の「カメラ概念(Camera Concept)」を保持します。このノードでは、最大4つのカメラ概念を選択でき、必要に応じて既存の概念チェーンと組み合わせることも可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `concept1` | STRING | はい | 複数の選択肢あり
「None」オプションを含む | 利用可能な Luma 概念から選択する最初のカメラ概念 | +| `concept2` | STRING | はい | 複数の選択肢あり
「None」オプションを含む | 利用可能な Luma 概念から選択する2番目のカメラ概念 | +| `concept3` | STRING | はい | 複数の選択肢あり
「None」オプションを含む | 利用可能な Luma 概念から選択する3番目のカメラ概念 | +| `concept4` | STRING | はい | 複数の選択肢あり
「None」オプションを含む | 利用可能な Luma 概念から選択する4番目のカメラ概念 | +| `luma_concepts` | LUMA_CONCEPTS | いいえ | 該当なし | ここでの選択に追加するための、任意のカメラ概念 | + +**注意:** 4つの概念スロットすべてを使用しない場合、すべての概念パラメーター(`concept1` ~ `concept4`)を「None」に設定できます。このノードは、指定された `luma_concepts` を選択済みの概念と統合し、統合された概念チェーンを生成します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `luma_concepts` | LUMA_CONCEPTS | 選択されたすべての概念を含む統合カメラ概念チェーン | \ No newline at end of file diff --git a/ja/built-in-nodes/LumaImageModifyNode.mdx b/ja/built-in-nodes/LumaImageModifyNode.mdx new file mode 100644 index 000000000..b5961a689 --- /dev/null +++ b/ja/built-in-nodes/LumaImageModifyNode.mdx @@ -0,0 +1,30 @@ +--- +title: "LumaImageModifyNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LumaImageModifyNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LumaImageModifyNode" +icon: "circle" +mode: wide +translationSourceHash: c4264d65 +translationFrom: built-in-nodes/LumaImageModifyNode.mdx, zh-CN/built-in-nodes/LumaImageModifyNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LumaImageModifyNode/en.md) + +テキストプロンプトおよびアスペクト比に基づいて、画像を同期的に変更します。このノードは入力画像を受け取り、提供されたテキストプロンプトに従って画像を変換しますが、元の画像のアスペクト比は維持されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 変更対象の入力画像 | +| `prompt` | STRING | はい | - | 画像生成用のプロンプト(デフォルト: "") | +| `image_weight` | FLOAT | いいえ | 0.0–0.98 | 画像の重み;1.0 に近いほど、画像の変更量は小さくなります(デフォルト: 0.1) | +| `model` | MODEL | はい | 複数の選択肢あり | 画像変更に使用する Luma モデル | +| `seed` | INT | いいえ | 0–18446744073709551615 | ノードを再実行するかどうかを決定するシード値;実際の結果はシード値に関わらず非決定的です(デフォルト: 0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | Luma モデルによって生成された変更後の画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/LumaImageNode.mdx b/ja/built-in-nodes/LumaImageNode.mdx new file mode 100644 index 000000000..3332c6450 --- /dev/null +++ b/ja/built-in-nodes/LumaImageNode.mdx @@ -0,0 +1,40 @@ +--- +title: "LumaImageNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の LumaImageNode ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LumaImageNode" +icon: "circle" +mode: wide +translationSourceHash: 3fcdfe32 +translationFrom: built-in-nodes/LumaImageNode.mdx, zh-CN/built-in-nodes/LumaImageNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LumaImageNode/en.md) + +プロンプトとアスペクト比に基づいて、同期的に画像を生成します。このノードはテキストによる説明(プロンプト)を用いて画像を作成し、さまざまな参照入力を通じて画像のサイズやスタイルを制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | 画像生成のためのプロンプト(デフォルト:空文字列) | +| `model` | COMBO | はい | 複数の選択肢あり | 画像生成に使用するモデルの選択 | +| `aspect_ratio` | COMBO | はい | 複数の選択肢あり | 生成される画像のアスペクト比(デフォルト:16:9) | +| `seed` | INT | はい | 0 ~ 18446744073709551615 | ノードを再実行するかどうかを決定するシード値。ただし、実際の生成結果はシード値に関わらず非決定的です(デフォルト:0) | +| `style_image_weight` | FLOAT | いいえ | 0.0 ~ 1.0 | スタイル画像の重み。`style_image` が指定されていない場合は無視されます(デフォルト:1.0) | +| `image_luma_ref` | LUMA_REF | いいえ | - | 入力画像を用いて生成を制御するための Luma 参照ノード接続。最大 4 枚の画像を考慮できます | +| `style_image` | IMAGE | いいえ | - | スタイル参照画像。1 枚のみ使用されます | +| `character_image` | IMAGE | いいえ | - | キャラクター参照画像。複数枚のバッチを指定可能ですが、最大 4 枚までが考慮されます | + +**パラメーター制約:** + +- `image_luma_ref` パラメーターには最大 4 枚の参照画像を指定できます +- `character_image` パラメーターには最大 4 枚のキャラクター参照画像を指定できます +- `style_image` パラメーターには 1 枚のみのスタイル参照画像を指定できます +- `style_image_weight` パラメーターは、`style_image` が指定されている場合にのみ有効です + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | IMAGE | 入力パラメーターに基づいて生成された画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/LumaImageToVideoNode.mdx b/ja/built-in-nodes/LumaImageToVideoNode.mdx new file mode 100644 index 000000000..3e3832b55 --- /dev/null +++ b/ja/built-in-nodes/LumaImageToVideoNode.mdx @@ -0,0 +1,36 @@ +--- +title: "LumaImageToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LumaImageToVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LumaImageToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 8ba3d446 +translationFrom: built-in-nodes/LumaImageToVideoNode.mdx, zh-CN/built-in-nodes/LumaImageToVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LumaImageToVideoNode/en.md) + +プロンプト、入力画像、および出力サイズに基づいて、動画を同期的に生成します。このノードでは、テキストプロンプトおよびオプションの開始/終了画像を提供することで、動画の内容と構造を定義し、Luma API を用いて動画を作成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `prompt` | STRING | はい | - | 動画生成用のプロンプト(デフォルト:"") | +| `model` | COMBO | はい | 複数の選択肢あり | 利用可能な Luma モデルから動画生成モデルを選択します | +| `resolution` | COMBO | はい | 複数の選択肢あり | 生成される動画の出力解像度(デフォルト:540p) | +| `duration` | COMBO | はい | 複数の選択肢あり | 生成される動画の再生時間(長さ) | +| `loop` | BOOLEAN | はい | - | 生成された動画をループ再生するかどうか(デフォルト:False) | +| `seed` | INT | はい | 0 ~ 18446744073709551615 | ノードを再実行するかどうかを判定するためのシード値。ただし、実際の生成結果はシード値にかかわらず非決定的です(デフォルト:0) | +| `first_image` | IMAGE | いいえ | - | 生成される動画の最初のフレーム(任意) | +| `last_image` | IMAGE | いいえ | - | 生成される動画の最後のフレーム(任意) | +| `luma_concepts` | CUSTOM | いいえ | - | Luma Concepts ノードを介してカメラモーションを制御するためのカスタムカメラコンセプト(任意) | + +**注意:** `first_image` または `last_image` のいずれか少なくとも一方を指定する必要があります。両方とも未指定の場合、ノードは例外をスローします。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `output` | VIDEO | 生成された動画ファイル | \ No newline at end of file diff --git a/ja/built-in-nodes/LumaReferenceNode.mdx b/ja/built-in-nodes/LumaReferenceNode.mdx new file mode 100644 index 000000000..7f4612403 --- /dev/null +++ b/ja/built-in-nodes/LumaReferenceNode.mdx @@ -0,0 +1,26 @@ +--- +title: "LumaReferenceNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LumaReferenceNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LumaReferenceNode" +icon: "circle" +mode: wide +translationSourceHash: 3df7c7e6 +translationFrom: built-in-nodes/LumaReferenceNode.mdx, zh-CN/built-in-nodes/LumaReferenceNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LumaReferenceNode/en.md) + +このノードは、Luma 画像生成ノードで使用するための画像と重み値を保持します。これにより、他の Luma ノードに渡すことができる参照チェーン(参考連鎖)が作成され、画像生成に影響を与えます。このノードは、新しい参照チェーンを開始するか、既存のチェーンに追加するかのいずれかの動作を行います。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 参照として使用する画像。 | +| `weight` | FLOAT | はい | 0.0 - 1.0 | 画像参照の重み(デフォルト値:1.0)。 | +| `luma_ref` | LUMA_REF | いいえ | - | 追加対象となる既存の Luma 参照チェーン(任意)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `luma_ref` | LUMA_REF | 画像と重みを含む Luma 参照チェーン。 | \ No newline at end of file diff --git a/ja/built-in-nodes/LumaVideoNode.mdx b/ja/built-in-nodes/LumaVideoNode.mdx new file mode 100644 index 000000000..61ff3d47f --- /dev/null +++ b/ja/built-in-nodes/LumaVideoNode.mdx @@ -0,0 +1,35 @@ +--- +title: "LumaVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における LumaVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "LumaVideoNode" +icon: "circle" +mode: wide +translationSourceHash: c901d518 +translationFrom: built-in-nodes/LumaVideoNode.mdx, zh-CN/built-in-nodes/LumaVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/LumaVideoNode/en.md) + +プロンプトおよび出力設定に基づいて、動画を同期的に生成します。このノードはテキストによる説明と各種生成パラメーターを用いて動画コンテンツを作成し、生成処理が完了した時点で最終的な動画出力を提供します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | 動画生成用のプロンプト(デフォルト:空文字列) | +| `model` | COMBO | はい | 複数の選択肢あり | 使用する動画生成モデル | +| `aspect_ratio` | COMBO | はい | 複数の選択肢あり | 生成される動画のアスペクト比(デフォルト:16:9) | +| `resolution` | COMBO | はい | 複数の選択肢あり | 動画の出力解像度(デフォルト:540p) | +| `duration` | COMBO | はい | 複数の選択肢あり | 生成される動画の再生時間 | +| `loop` | BOOLEAN | はい | - | 動画をループ再生するかどうか(デフォルト:False) | +| `seed` | INT | はい | 0 ~ 18446744073709551615 | ノードを再実行するかを判定するためのシード値。ただし、実際の生成結果はシード値に関わらず非決定的です(デフォルト:0) | +| `luma_concepts` | CUSTOM | いいえ | - | Luma Concepts ノードを介してカメラの動きを制御するためのオプションの「カメラコンセプト」 | + +**注意:** `ray_1_6` モデルを使用する場合、`duration` および `resolution` パラメーターは自動的に `None` に設定され、生成処理には影響しません。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画ファイル | \ No newline at end of file diff --git a/ja/built-in-nodes/MagnificImageRelightNode.mdx b/ja/built-in-nodes/MagnificImageRelightNode.mdx new file mode 100644 index 000000000..34ca0418a --- /dev/null +++ b/ja/built-in-nodes/MagnificImageRelightNode.mdx @@ -0,0 +1,46 @@ +--- +title: "MagnificImageRelightNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における MagnificImageRelightNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MagnificImageRelightNode" +icon: "circle" +mode: wide +translationSourceHash: 61e61252 +translationFrom: built-in-nodes/MagnificImageRelightNode.mdx, zh-CN/built-in-nodes/MagnificImageRelightNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MagnificImageRelightNode/en.md) + +Magnific Image Relight ノードは、入力画像の照明(ライティング)を調整します。テキストプロンプトに基づいたスタイリッシュな照明を適用するか、オプションの参照画像から照明特性を転送することができます。このノードでは、最終出力の明るさ、コントラスト、全体的な雰囲気を微調整するためのさまざまな制御機能が提供されています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | N/A | ライティングを再調整する画像。正確に1枚の画像が必要です。最小サイズは 160×160 ピクセルです。アスペクト比は 1:3 ~ 3:1 の範囲である必要があります。 | +| `prompt` | STRING | いいえ | N/A | 照明に関する説明的なガイド。強調表記(1~1.4)をサポートします。デフォルトは空文字列です。 | +| `light_transfer_strength` | INT | はい | 0 ~ 100 | 光線転送の適用強度。デフォルト値:100。 | +| `style` | COMBO | はい | `"standard"`
`"darker_but_realistic"`
`"clean"`
`"smooth"`
`"brighter"`
`"contrasted_n_hdr"`
`"just_composition"` | スタイル化された出力に対する好みの設定。 | +| `interpolate_from_original` | BOOLEAN | はい | N/A | 生成の自由度を制限し、元の画像により近い結果を得るようにします。デフォルト値:False。 | +| `change_background` | BOOLEAN | はい | N/A | プロンプトまたは参照画像に基づいて背景を変更します。デフォルト値:True。 | +| `preserve_details` | BOOLEAN | はい | N/A | 元の画像のテクスチャや細部のディテールを維持します。デフォルト値:True。 | +| `advanced_settings` | DYNAMICCOMBO | はい | `"disabled"`
`"enabled"` | 高度なライティング制御のための微調整オプション。`"enabled"` に設定すると、追加のパラメーターが有効になります。 | +| `reference_image` | IMAGE | いいえ | N/A | 照明を転送するためのオプションの参照画像。指定する場合は、正確に1枚の画像が必要です。最小サイズは 160×160 ピクセルです。アスペクト比は 1:3 ~ 3:1 の範囲である必要があります。 | + +**高度な設定に関する注意事項:** `advanced_settings` を `"enabled"` に設定すると、以下のネストされたパラメーターが有効になります: + +* `whites`:画像の最も明るいトーンを調整します。範囲:0 ~ 100。デフォルト値:50。 +* `blacks`:画像の最も暗いトーンを調整します。範囲:0 ~ 100。デフォルト値:50。 +* `brightness`:全体的な明るさの調整。範囲:0 ~ 100。デフォルト値:50。 +* `contrast`:コントラストの調整。範囲:0 ~ 100。デフォルト値:50。 +* `saturation`:色の彩度の調整。範囲:0 ~ 100。デフォルト値:50。 +* `engine`:処理エンジンの選択。選択肢:`"automatic"`、`"balanced"`、`"cool"`、`"real"`、`"illusio"`、`"fairy"`、`"colorful_anime"`、`"hard_transform"`、`"softy"`。 +* `transfer_light_a`:光線転送の強度。選択肢:`"automatic"`、`"low"`、`"medium"`、`"normal"`、`"high"`、`"high_on_faces"`。 +* `transfer_light_b`:同様に光線転送の強度を調整します。前述のコントロールと組み合わせることで、多様なエフェクトを実現できます。選択肢:`"automatic"`、`"composition"`、`"straight"`、`"smooth_in"`、`"smooth_out"`、`"smooth_both"`、`"reverse_both"`、`"soft_in"`、`"soft_out"`、`"soft_mid"`、`"style_shift"`、`"strong_shift"`。 +* `fixed_generation`:同一の設定で一貫した出力を保証します。デフォルト値:True。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | ライティングを再調整した画像。 | \ No newline at end of file diff --git a/ja/built-in-nodes/MagnificImageSkinEnhancerNode.mdx b/ja/built-in-nodes/MagnificImageSkinEnhancerNode.mdx new file mode 100644 index 000000000..c9effb5e5 --- /dev/null +++ b/ja/built-in-nodes/MagnificImageSkinEnhancerNode.mdx @@ -0,0 +1,38 @@ +--- +title: "MagnificImageSkinEnhancerNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における MagnificImageSkinEnhancerNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MagnificImageSkinEnhancerNode" +icon: "circle" +mode: wide +translationSourceHash: 50a879e7 +translationFrom: built-in-nodes/MagnificImageSkinEnhancerNode.mdx, zh-CN/built-in-nodes/MagnificImageSkinEnhancerNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MagnificImageSkinEnhancerNode/en.md) + +Magnific Image Skin Enhancer ノードは、肖像画に対して専用の AI 処理を適用し、肌の見た目を向上させます。このノードでは、異なる強調目的に応じて3つのモードが提供されています。「creative」モードはアーティスティックな効果を実現するためのもの、「faithful」モードは元の外観を忠実に保持するためのもの、「flexible」モードは照明やリアリズムといった特定の要素をターゲットとした改善を行うためのものです。本ノードは画像を外部 API へアップロードして処理を行い、強調された結果を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 強調対象となる肖像画です。 | +| `sharpen` | INT | いいえ | 0 ~ 100 | シャープネスの強度レベル(デフォルト値:0)。 | +| `smart_grain` | INT | いいえ | 0 ~ 100 | スマートグレインの強度レベル(デフォルト値:2)。 | +| `mode` | COMBO | はい | `"creative"`
`"faithful"`
`"flexible"` | 使用する処理モードです。「`creative`」はアーティスティックな強調に、「`faithful`」は元の外観の保持に、「`flexible`」はターゲットを絞った最適化にそれぞれ使用します。 | +| `skin_detail` | INT | いいえ | 0 ~ 100 | 肌のディテール強調レベルです。この入力は `mode` を `"faithful"` に設定した場合のみ有効かつ必須となります(デフォルト値:80)。 | +| `optimized_for` | COMBO | いいえ | `"enhance_skin"`
`"improve_lighting"`
`"enhance_everything"`
`"transform_to_real"`
`"no_make_up"` | 強調の最適化対象です。この入力は `mode` を `"flexible"` に設定した場合のみ有効かつ必須となります。 | + +**制約条件:** + +* このノードは、正確に1枚の入力画像のみを受け付けます。 +* 入力画像の高さおよび幅は、いずれも最低160ピクセル以上である必要があります。 +* `skin_detail` パラメーターは、`mode` が `"faithful"` に設定されている場合にのみ有効です。 +* `optimized_for` パラメーターは、`mode` が `"flexible"` に設定されている場合にのみ有効です。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 強調された肖像画です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/MagnificImageStyleTransferNode.mdx b/ja/built-in-nodes/MagnificImageStyleTransferNode.mdx new file mode 100644 index 000000000..052b05c24 --- /dev/null +++ b/ja/built-in-nodes/MagnificImageStyleTransferNode.mdx @@ -0,0 +1,41 @@ +--- +title: "MagnificImageStyleTransferNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における MagnificImageStyleTransferNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MagnificImageStyleTransferNode" +icon: "circle" +mode: wide +translationSourceHash: adab3810 +translationFrom: built-in-nodes/MagnificImageStyleTransferNode.mdx, zh-CN/built-in-nodes/MagnificImageStyleTransferNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MagnificImageStyleTransferNode/en.md) + +このノードは、参照画像の視覚的スタイルを入力画像に適用します。外部の AI サービスを用いて画像を処理するため、スタイル変換の強さおよび元の画像の構造の保持度合いを制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | スタイル変換を適用する対象の画像です。 | +| `reference_image` | IMAGE | はい | - | スタイルを抽出するための参照画像です。 | +| `prompt` | STRING | いいえ | - | スタイル変換を補助するオプションのテキストプロンプトです。 | +| `style_strength` | INT | いいえ | 0 ~ 100 | スタイルの強さ(パーセント)です(デフォルト値:100)。 | +| `structure_strength` | INT | いいえ | 0 ~ 100 | 元の画像の構造を維持する強さです(デフォルト値:50)。 | +| `flavor` | COMBO | いいえ | "faithful"
"gen_z"
"psychedelia"
"detaily"
"clear"
"donotstyle"
"donotstyle_sharp" | スタイル変換のタイプです。 | +| `engine` | COMBO | いいえ | "balanced"
"definio"
"illusio"
"3d_cartoon"
"colorful_anime"
"caricature"
"real"
"super_real"
"softy" | 処理エンジンの選択です。 | +| `portrait_mode` | COMBO | いいえ | "disabled"
"enabled" | 顔部の強調処理を行うための人像モードを有効化します。 | +| `portrait_style` | COMBO | いいえ | "standard"
"pop"
"super_pop" | 人像画像に適用されるビジュアルスタイルです。この入力は、`portrait_mode` が "enabled" に設定されている場合にのみ利用可能です。 | +| `portrait_beautifier` | COMBO | いいえ | "none"
"beautify_face"
"beautify_face_max" | 人像画像における顔部の美肌処理の強さです。この入力は、`portrait_mode` が "enabled" に設定されている場合にのみ利用可能です。 | +| `fixed_generation` | BOOLEAN | いいえ | - | 無効にすると、各生成において一定のランダム性が導入され、より多様な結果が得られます(デフォルト値:True)。 | + +**制約条件:** + +* `image` および `reference_image` は、それぞれ**ちょうど 1 つずつ**指定する必要があります。 +* 両方の画像のアスペクト比は 1:3 から 3:1 の範囲内である必要があります。 +* 両方の画像の最小幅および最小高さは 160 ピクセル以上である必要があります。 +* `portrait_style` および `portrait_beautifier` パラメーターは、`portrait_mode` が "enabled" に設定されている場合にのみ有効となり、その際に必須となります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | スタイル変換を適用した後の結果画像です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/MagnificImageUpscalerCreativeNode.mdx b/ja/built-in-nodes/MagnificImageUpscalerCreativeNode.mdx new file mode 100644 index 000000000..158b39553 --- /dev/null +++ b/ja/built-in-nodes/MagnificImageUpscalerCreativeNode.mdx @@ -0,0 +1,42 @@ +--- +title: "MagnificImageUpscalerCreativeNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における MagnificImageUpscalerCreativeNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MagnificImageUpscalerCreativeNode" +icon: "circle" +mode: wide +translationSourceHash: 87751945 +translationFrom: built-in-nodes/MagnificImageUpscalerCreativeNode.mdx, zh-CN/built-in-nodes/MagnificImageUpscalerCreativeNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MagnificImageUpscalerCreativeNode/en.md) + +このノードは Magnific AI サービスを用いて、画像の解像度を向上(アップスケール)し、同時に創造的に強化します。テキストプロンプトを用いて強化の方向性を指示したり、最適化対象となる特定のスタイルを選択したり、細部の表現、元画像との類似度、スタイル化の強さなど、創造的処理のさまざまな側面を制御できます。ノードはユーザーが選択した倍率(2倍、4倍、8倍、16倍)でアップスケールされた画像を出力し、最大出力サイズは 2530 万ピクセル(25.3 MP)です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | アップスケールおよび創造的強化の対象となる入力画像です。 | +| `prompt` | STRING | いいえ | - | 画像の創造的強化をガイドするためのテキスト記述です。省略可能(デフォルト:空文字列)。 | +| `scale_factor` | COMBO | はい | `"2x"`
`"4x"`
`"8x"`
`"16x"` | 画像の寸法を拡大する倍率です。 | +| `optimized_for` | COMBO | はい | `"standard"`
`"soft_portraits"`
`"hard_portraits"`
`"art_n_illustration"`
`"videogame_assets"`
`"nature_n_landscapes"`
`"films_n_photography"`
`"3d_renders"`
`"science_fiction_n_horror"` | 強化処理を最適化するためのスタイルまたはコンテンツの種類です。 | +| `creativity` | INT | いいえ | -10 ~ 10 | 画像に適用される創造的解釈の程度を制御します(デフォルト:0)。 | +| `hdr` | INT | いいえ | -10 ~ 10 | 明瞭度およびディテールのレベルを制御します(デフォルト:0)。 | +| `resemblance` | INT | いいえ | -10 ~ 10 | 元画像との類似度のレベルを制御します(デフォルト:0)。 | +| `fractality` | INT | いいえ | -10 ~ 10 | プロンプトの影響力および1平方ピクセルあたりの複雑さ・精緻さの強さを制御します(デフォルト:0)。 | +| `engine` | COMBO | はい | `"automatic"`
`"magnific_illusio"`
`"magnific_sharpy"`
`"magnific_sparkle"` | 処理に使用する特定の AI エンジンです。 | +| `auto_downscale` | BOOLEAN | いいえ | - | 有効にすると、要求されたアップスケールによって最大許容出力サイズ(2530 万ピクセル)を超える場合、ノードが自動的に入力画像を縮小します(デフォルト:False)。 | + +**制約条件:** + +* 入力 `image` は、厳密に1枚の画像でなければなりません。 +* 入力画像の高さおよび幅は、それぞれ最低でも160ピクセルである必要があります。 +* 入力画像のアスペクト比は、1:3 から 3:1 の範囲内である必要があります。 +* 最終的な出力サイズ(入力画像の寸法 × `scale_factor`)は、25,300,000 ピクセルを超えてはなりません。`auto_downscale` が無効であり、この上限を超える場合、ノードはエラーを発生させます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 創造的に強化され、アップスケールされた出力画像です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/MagnificImageUpscalerPreciseV2Node.mdx b/ja/built-in-nodes/MagnificImageUpscalerPreciseV2Node.mdx new file mode 100644 index 000000000..ebd12fd2a --- /dev/null +++ b/ja/built-in-nodes/MagnificImageUpscalerPreciseV2Node.mdx @@ -0,0 +1,34 @@ +--- +title: "MagnificImageUpscalerPreciseV2Node - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における MagnificImageUpscalerPreciseV2Node ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MagnificImageUpscalerPreciseV2Node" +icon: "circle" +mode: wide +translationSourceHash: 209d1ce9 +translationFrom: built-in-nodes/MagnificImageUpscalerPreciseV2Node.mdx, zh-CN/built-in-nodes/MagnificImageUpscalerPreciseV2Node.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひ貢献してください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MagnificImageUpscalerPreciseV2Node/en.md) + +Magnific Image Upscale (Precise V2) ノードは、シャープネス、グライン(粒状感)、ディテール強調を精密に制御可能な高忠実度の画像アップスケーリングを実行します。本ノードは外部 API を介して画像を処理し、最大出力解像度として 10060×10060 ピクセルをサポートします。また、異なる処理スタイルを提供しており、要求された出力サイズが許容される最大解像度を超える場合、入力画像を自動的にダウンスケールすることも可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | アップスケール対象の入力画像です。正確に1枚の画像が必要です。最小寸法は 160×160 ピクセルです。アスペクト比は 1:3 から 3:1 の範囲内である必要があります。 | +| `scale_factor` | STRING | はい | `"2x"`
`"4x"`
`"8x"`
`"16x"` | 望ましいアップスケール倍率です。 | +| `flavor` | STRING | はい | `"sublime"`
`"photo"`
`"photo_denoiser"` | 処理スタイルです。「sublime」は汎用用途向け、「photo」は写真の最適化向け、「photo_denoiser」はノイズの多い写真向けです。 | +| `sharpen` | INT | いいえ | 0~100 | エッジの定義と全体的な鮮明さを高めるための画像シャープネス強度を制御します。数値が大きいほどシャープな結果になります。デフォルト値:7。 | +| `smart_grain` | INT | いいえ | 0~100 | アップスケール後の画像が過度に滑らかまたは不自然に見えないようにするための、知的グライン(粒状感)またはテクスチャー強調を追加します。デフォルト値:7。 | +| `ultra_detail` | INT | いいえ | 0~100 | アップスケーリング処理中に追加される微細なディテール、テクスチャー、マイクロディテールの量を制御します。デフォルト値:30。 | +| `auto_downscale` | BOOLEAN | いいえ | - | 有効にすると、計算された出力サイズが許容される最大解像度(10060×10060 ピクセル)を超える場合、ノードが自動的に入力画像をダウンスケールします。これによりエラーを防止できますが、画質に影響を及ぼす可能性があります。デフォルト値:False。 | + +**注意:** `auto_downscale` が無効であり、要求された出力サイズ(入力サイズ × `scale_factor`)が 10060×10060 ピクセルを超える場合、ノードはエラーを発生させます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | アップスケール後の結果画像です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Mahiro.mdx b/ja/built-in-nodes/Mahiro.mdx new file mode 100644 index 000000000..89116ae78 --- /dev/null +++ b/ja/built-in-nodes/Mahiro.mdx @@ -0,0 +1,24 @@ +--- +title: "Mahiro - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における Mahiro ノードの完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "Mahiro" +icon: "circle" +mode: wide +translationSourceHash: 3d4d7173 +translationFrom: built-in-nodes/Mahiro.mdx, zh-CN/built-in-nodes/Mahiro.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Mahiro/en.md) + +Mahiro ノードは、ガイドランス関数を変更し、正のプロンプトと負のプロンプトの差分ではなく、正のプロンプトの方向性により強く焦点を当てるようにします。このノードは、条件付きおよび非条件付きのデノイズ出力を正規化した上でそれらのコサイン類似度を用いたカスタムガイドランススケーリング手法を適用する、パッチ適用済みモデルを作成します。この実験的なノードは、生成プロセスを正のプロンプトが意図する方向へより強く誘導するのに役立ちます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | | 変更されたガイドランス関数を適用してパッチを当てる対象のモデル | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `patched_model` | MODEL | Mahiro ガイドランス関数が適用された修正済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/MakeTrainingDataset.mdx b/ja/built-in-nodes/MakeTrainingDataset.mdx new file mode 100644 index 000000000..ff2af80f2 --- /dev/null +++ b/ja/built-in-nodes/MakeTrainingDataset.mdx @@ -0,0 +1,32 @@ +--- +title: "MakeTrainingDataset - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の MakeTrainingDataset ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MakeTrainingDataset" +icon: "circle" +mode: wide +translationSourceHash: 6ea543f2 +translationFrom: built-in-nodes/MakeTrainingDataset.mdx, zh-CN/built-in-nodes/MakeTrainingDataset.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合や、改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MakeTrainingDataset/en.md) + +このノードは、画像とテキストのエンコーディングを通じて学習用データを準備します。画像のリストと対応するテキストキャプションのリストを受け取り、VAE モデルを用いて画像を潜在表現(latent representation)に変換し、CLIP モデルを用いてテキストを条件付けデータ(conditioning data)に変換します。結果として得られる潜在表現と条件付けデータのペアは、それぞれリスト形式で出力され、学習ワークフローで直ちに利用可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `images` | IMAGE | はい | N/A | エンコード対象の画像リスト。 | +| `vae` | VAE | はい | N/A | 画像を潜在表現にエンコードするための VAE モデル。 | +| `clip` | CLIP | はい | N/A | テキストを条件付けデータにエンコードするための CLIP モデル。 | +| `texts` | STRING | いいえ | N/A | テキストキャプションのリスト。長さは n(画像数と一致)、1(すべての画像に対して繰り返し使用)、または省略(空文字列を使用)のいずれかです。 | + +**パラメーター制約:** + +* `texts` リスト内の要素数は、0、1、または `images` リスト内の要素数と完全に一致しなければなりません。要素数が 0 の場合、すべての画像に対して空文字列が使用されます。要素数が 1 の場合、その単一のテキストがすべての画像に対して繰り返し使用されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `latents` | LATENT | 潜在表現を格納した辞書のリスト。 | +| `conditioning` | CONDITIONING | 条件付けデータのリストからなるリスト。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ManualSigmas.mdx b/ja/built-in-nodes/ManualSigmas.mdx new file mode 100644 index 000000000..e61eb3086 --- /dev/null +++ b/ja/built-in-nodes/ManualSigmas.mdx @@ -0,0 +1,24 @@ +--- +title: "ManualSigmas - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の ManualSigmas ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ManualSigmas" +icon: "circle" +mode: wide +translationSourceHash: b489d069 +translationFrom: built-in-nodes/ManualSigmas.mdx, zh-CN/built-in-nodes/ManualSigmas.mdx +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ManualSigmas/en.md) + +ManualSigmas ノードを使用すると、サンプリング処理用にカスタムのノイズレベル(シグマ)のシーケンスを手動で定義できます。数値のリストを文字列として入力すると、このノードがそれを他のサンプリングノードで利用可能なテンソルに変換します。これは、テストや特定のノイズスケジュールの作成に有用です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `sigmas` | STRING | はい | カンマまたは空白で区切られた任意の数値 | シグマ値を含む文字列です。ノードはこの文字列からすべての数値を抽出します。例:`"1, 0.5, 0.1"` や `"1 0.5 0.1"`。デフォルト値は `"1, 0.5"` です。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `sigmas` | SIGMAS | 入力文字列から抽出されたシグマ値のシーケンスを含むテンソルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/MarkdownNote.mdx b/ja/built-in-nodes/MarkdownNote.mdx new file mode 100644 index 000000000..151f11320 --- /dev/null +++ b/ja/built-in-nodes/MarkdownNote.mdx @@ -0,0 +1,16 @@ +--- +title: "MarkdownNote - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の MarkdownNote ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MarkdownNote" +icon: "circle" +mode: wide +translationSourceHash: cca4fa93 +translationFrom: built-in-nodes/MarkdownNote.mdx, zh-CN/built-in-nodes/MarkdownNote.mdx +--- +ワークフローに注釈を追加するためのノードです。テキストの書式設定には Markdown 構文がサポートされています。 + +## 入力 + +## 出力 + +このノードには出力がありません。 \ No newline at end of file diff --git a/ja/built-in-nodes/MaskComposite.mdx b/ja/built-in-nodes/MaskComposite.mdx new file mode 100644 index 000000000..c38c53b17 --- /dev/null +++ b/ja/built-in-nodes/MaskComposite.mdx @@ -0,0 +1,27 @@ +--- +title: "MaskComposite - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の MaskComposite ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MaskComposite" +icon: "circle" +mode: wide +translationSourceHash: 8888df12 +translationFrom: built-in-nodes/MaskComposite.mdx, zh-CN/built-in-nodes/MaskComposite.mdx +--- + +このノードは、加算、減算、論理演算などのさまざまな演算を用いて、2つのマスク入力を合成し、新しい変更済みマスクを生成することに特化しています。マスクデータの操作を抽象的に処理することで、複雑なマスキング効果を実現し、マスクを基盤とした画像編集および画像処理ワークフローにおいて重要な構成要素となります。 + +## 入力 + +| パラメーター | データ型 | 説明 | +| --------------- | ------------ | ------------------------------------------------------------------------------------------------------------------------------------------------- | +| `destination` | MASK | ソースマスクとの演算に基づいて変更される主マスクです。合成演算において中心的な役割を果たし、変更の基盤となります。 | +| `source` | MASK | 指定された演算を実行するためにターゲットマスクと併用される副マスクです。最終的な出力マスクに影響を与えます。 | +| `x` | INT | ソースマスクをターゲットマスクに適用する際の水平方向のオフセットで、合成結果の位置を制御します。 | +| `y` | INT | ソースマスクをターゲットマスクに適用する際の垂直方向のオフセットで、合成結果の位置を制御します。 | +| `operation` | COMBO[STRING] | ターゲットマスクとソースマスクの間に適用する演算の種類(例:`'add'`、`'subtract'`、または論理演算など)を指定し、合成効果の性質を決定します。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +| ------------ | ------------ | ---------------------------------------------------------------------------------------- | +| `mask` | MASK | ターゲットマスクとソースマスクの間に指定された演算を適用した結果のマスクで、合成処理の出力結果を表します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/MaskPreview.mdx b/ja/built-in-nodes/MaskPreview.mdx new file mode 100644 index 000000000..05b7bc516 --- /dev/null +++ b/ja/built-in-nodes/MaskPreview.mdx @@ -0,0 +1,27 @@ +--- +title: "MaskPreview - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の MaskPreview ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MaskPreview" +icon: "circle" +mode: wide +translationSourceHash: 985de5fe +translationFrom: built-in-nodes/MaskPreview.mdx, zh-CN/built-in-nodes/MaskPreview.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MaskPreview/en.md) + +MaskPreview ノードは、マスクを 3 チャネルの画像形式に変換し、一時ファイルとして保存することで、マスクの視覚的なプレビューを生成します。このノードはマスク入力を受け取り、画像表示に適した形式に再構成した後、ランダムなファイル名プレフィックスを付けて一時ディレクトリに結果を保存します。これにより、ユーザーはワークフロー実行中にマスクデータを視覚的に確認できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `mask` | MASK | はい | - | プレビュー表示および画像形式への変換対象となるマスクデータ | +| `filename_prefix` | STRING | いいえ | - | 出力ファイル名のプレフィックス(デフォルト: "ComfyUI") | +| `prompt` | PROMPT | いいえ | - | メタデータ用のプロンプト情報(自動的に提供されます) | +| `extra_pnginfo` | EXTRA_PNGINFO | いいえ | - | メタデータ用の追加 PNG 情報(自動的に提供されます) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `ui` | DICT | 表示用のプレビュー画像情報およびメタデータを含む | \ No newline at end of file diff --git a/ja/built-in-nodes/MaskToImage.mdx b/ja/built-in-nodes/MaskToImage.mdx new file mode 100644 index 000000000..e31c436df --- /dev/null +++ b/ja/built-in-nodes/MaskToImage.mdx @@ -0,0 +1,23 @@ +--- +title: "MaskToImage - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における MaskToImage ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MaskToImage" +icon: "circle" +mode: wide +translationSourceHash: 308b0c68 +translationFrom: built-in-nodes/MaskToImage.mdx, zh-CN/built-in-nodes/MaskToImage.mdx +--- + +`MaskToImage` ノードは、マスクを画像形式に変換するために設計されています。この変換により、マスクを画像として可視化したり、さらに処理したりすることが可能となり、マスクベースの操作と画像ベースのアプリケーションの間をつなぐ橋渡しが実現されます。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `mask` | `MASK` | マスク入力は変換プロセスにおいて不可欠であり、画像形式へと変換される元データとして機能します。この入力が、出力される画像の形状および内容を決定します。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `image` | `IMAGE` | 出力は入力マスクの画像表現であり、視覚的な確認や、その後の画像ベースの処理を可能にします。 | \ No newline at end of file diff --git a/ja/built-in-nodes/MergeImageLists.mdx b/ja/built-in-nodes/MergeImageLists.mdx new file mode 100644 index 000000000..47d3e86f9 --- /dev/null +++ b/ja/built-in-nodes/MergeImageLists.mdx @@ -0,0 +1,26 @@ +--- +title: "MergeImageLists - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における MergeImageLists ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MergeImageLists" +icon: "circle" +mode: wide +translationSourceHash: d93c1d62 +translationFrom: built-in-nodes/MergeImageLists.mdx, zh-CN/built-in-nodes/MergeImageLists.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MergeImageLists/en.md) + +「Merge Image Lists」ノードは、複数の独立した画像リストを単一の連続したリストに統合します。このノードは、接続された各入力からすべての画像を取得し、それらを受信順に連結することで動作します。これは、異なるソースから取得した画像を整理・バッチ処理し、その後の処理に備える際に非常に有用です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `images` | IMAGE | はい | - | 統合対象の画像リストです。この入力は複数の接続を受け付けられ、接続された各リストは最終的な出力リストへと連結されます。 | + +**注意:** このノードは複数の入力を受けるように設計されています。複数の画像リストを単一の `images` 入力ソケットに接続できます。ノードは、接続されたすべてのリストに含まれる画像を自動的に連結し、1つの出力リストとして生成します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `images` | IMAGE | すべての接続済み入力リストから取得した画像を含む、単一の統合済みリストです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/MergeTextLists.mdx b/ja/built-in-nodes/MergeTextLists.mdx new file mode 100644 index 000000000..a0e7ca380 --- /dev/null +++ b/ja/built-in-nodes/MergeTextLists.mdx @@ -0,0 +1,26 @@ +--- +title: "MergeTextLists - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における MergeTextLists ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MergeTextLists" +icon: "circle" +mode: wide +translationSourceHash: 8c24ebdb +translationFrom: built-in-nodes/MergeTextLists.mdx, zh-CN/built-in-nodes/MergeTextLists.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MergeTextLists/en.md) + +このノードは、複数のテキストリストを単一の統合されたリストにマージします。テキスト入力をリストとして受け取り、それらを連結するように設計されています。また、マージ後のリストに含まれるテキストの総数をログ出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `texts` | STRING | はい | 該当なし | マージ対象のテキストリストです。複数のリストをこの入力に接続でき、それらは1つのリストに連結されます。 | + +**注意:** このノードはグループ処理プロセス(`is_group_process = True`)として設定されており、メインの処理関数が実行される前に、複数のリスト入力を自動的に連結して処理します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `texts` | STRING | すべての入力テキストを含む単一のマージ済みリストです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/MeshyAnimateModelNode.mdx b/ja/built-in-nodes/MeshyAnimateModelNode.mdx new file mode 100644 index 000000000..0546685ff --- /dev/null +++ b/ja/built-in-nodes/MeshyAnimateModelNode.mdx @@ -0,0 +1,27 @@ +--- +title: "MeshyAnimateModelNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における MeshyAnimateModelNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MeshyAnimateModelNode" +icon: "circle" +mode: wide +translationSourceHash: 1cdb9f69 +translationFrom: built-in-nodes/MeshyAnimateModelNode.mdx, zh-CN/built-in-nodes/MeshyAnimateModelNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MeshyAnimateModelNode/en.md) + +このノードは、Meshy サービスを用いて既にリギング(ボーン設定)が完了した 3D キャラクターモデルに特定のアニメーションを適用します。以前のリギング操作から取得したタスク ID と、アニメーションライブラリから適用するアニメーションを選択するためのアクション ID を入力として受け取ります。その後、ノードはリクエストを処理し、GLB 形式および FBX 形式の両方でアニメーション付きの 3D モデルを出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `rig_task_id` | STRING | はい | なし | 以前に完了した Meshy キャラクターのリギング操作から得られる一意のタスク ID です。 | +| `action_id` | INT | はい | 0 ~ 696 | 適用するアニメーションアクションの ID 番号です。利用可能な値の一覧は、[https://docs.meshy.ai/en/api/animation-library](https://docs.meshy.ai/en/api/animation-library) をご覧ください。(デフォルト値:0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model_file` | STRING | アニメーション付きモデルの文字列識別子です。この出力は、後方互換性のためのみ提供されています。 | +| `GLB` | FILE3DGLB | GLB 形式のアニメーション付き 3D モデルファイルです。 | +| `FBX` | FILE3DFBX | FBX 形式のアニメーション付き 3D モデルファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/MeshyImageToModelNode.mdx b/ja/built-in-nodes/MeshyImageToModelNode.mdx new file mode 100644 index 000000000..acea04f0a --- /dev/null +++ b/ja/built-in-nodes/MeshyImageToModelNode.mdx @@ -0,0 +1,44 @@ +--- +title: "MeshyImageToModelNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における MeshyImageToModelNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MeshyImageToModelNode" +icon: "circle" +mode: wide +translationSourceHash: 0d50e274 +translationFrom: built-in-nodes/MeshyImageToModelNode.mdx, zh-CN/built-in-nodes/MeshyImageToModelNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひ貢献してください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MeshyImageToModelNode/en.md) + +「Meshy: Image to Model」ノードは Meshy API を使用して、単一の入力画像から 3D モデルを生成します。このノードは、ユーザーの画像をアップロードし、処理タスクを送信した後、生成された 3D モデルファイル(GLB および FBX 形式)と、参照用のタスク ID を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"latest"` | 生成に使用する AI モデルのバージョンを指定します。 | +| `image` | IMAGE | はい | - | 3D モデルに変換する入力画像です。 | +| `should_remesh` | DYNAMIC COMBO | はい | `"true"`
`"false"` | 生成されたメッシュを再メッシュ処理するかどうかを決定します。`"false"` に設定すると、ノードは未処理の三角形メッシュを返します。 | +| `topology` | COMBO | いいえ* | `"triangle"`
`"quad"` | 再メッシュ後のモデルの対象となるポリゴントポロジーです。この入力は、`should_remesh` が `"true"` に設定されている場合にのみ利用可能かつ必須となります。 | +| `target_polycount` | INT | いいえ* | 100 – 300000 | 再メッシュ後のモデルの対象ポリゴン数です。この入力は、`should_remesh` が `"true"` に設定されている場合にのみ利用可能かつ必須となります。デフォルト値は 300000 です。 | +| `symmetry_mode` | COMBO | はい | `"auto"`
`"on"`
`"off"` | 生成された 3D モデルに適用される対称性を制御します。 | +| `should_texture` | DYNAMIC COMBO | はい | `"true"`
`"false"` | モデルに対してテクスチャを生成するかどうかを決定します。`"false"` に設定すると、テクスチャ生成フェーズがスキップされ、テクスチャなしのメッシュが返されます。 | +| `enable_pbr` | BOOLEAN | いいえ* | - | `should_texture` が `"true"` の場合、このオプションにより、ベースカラーに加えて PBR マップ(メタリック、ラフネス、法線)が生成されます。デフォルト値は `False` です。 | +| `texture_prompt` | STRING | いいえ* | - | テクスチャ生成プロセスをガイドするためのテキストプロンプトです(最大 600 文字)。この入力は、`should_texture` が `"true"` に設定されている場合にのみ利用可能です。`texture_image` と同時に使用することはできません。 | +| `texture_image` | IMAGE | いいえ* | - | テクスチャ生成プロセスをガイドするための画像です。この入力は、`should_texture` が `"true"` に設定されている場合にのみ利用可能です。`texture_prompt` と同時に使用することはできません。 | +| `pose_mode` | COMBO | はい | `""`
`"A-pose"`
`"T-pose"` | 生成されるモデルのポーズモードを指定します。 | +| `seed` | INT | はい | 0 – 2147483647 | 生成プロセスのシード値です。結果はシード値に関わらず非決定的です。デフォルト値は 0 です。 | + +**パラメーター制約に関する注意事項:** + +* `topology` および `target_polycount` の入力は、`should_remesh` が `"true"` に設定されている場合にのみ必須です。 +* `enable_pbr`、`texture_prompt`、`texture_image` の入力は、`should_texture` が `"true"` に設定されている場合にのみ利用可能です。 +* `texture_prompt` と `texture_image` を同時に使用することはできません。`should_texture` が `"true"` の状態で両方の入力が提供された場合、ノードはエラーを発生させます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model_file` | STRING | 生成された GLB モデルのファイル名です。(下位互換性維持のため保持されています)。 | +| `meshy_task_id` | MESHY_TASK_ID | Meshy API タスクの固有識別子であり、参照やトラブルシューティングに使用できます。 | +| `GLB` | FILE3DGLB | GLB ファイル形式で生成された 3D モデルです。 | +| `FBX` | FILE3DFBX | FBX ファイル形式で生成された 3D モデルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/MeshyMultiImageToModelNode.mdx b/ja/built-in-nodes/MeshyMultiImageToModelNode.mdx new file mode 100644 index 000000000..b139e7304 --- /dev/null +++ b/ja/built-in-nodes/MeshyMultiImageToModelNode.mdx @@ -0,0 +1,47 @@ +--- +title: "MeshyMultiImageToModelNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における MeshyMultiImageToModelNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MeshyMultiImageToModelNode" +icon: "circle" +mode: wide +translationSourceHash: 0a572d88 +translationFrom: built-in-nodes/MeshyMultiImageToModelNode.mdx, zh-CN/built-in-nodes/MeshyMultiImageToModelNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MeshyMultiImageToModelNode/en.md) + +このノードは Meshy API を使用して、複数の入力画像から 3D モデルを生成します。指定された画像をアップロードし、処理タスクを送信した後、生成された 3D モデルファイル(GLB 形式および FBX 形式)と参照用のタスク ID を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +| :--- | :--- | :--- | :--- | :--- | +| `model` | COMBO | はい | `"latest"` | 使用する AI モデルのバージョンを指定します。 | +| `images` | IMAGE | はい | 2~4 枚の画像 | 3D モデル生成に使用される一連の画像です。2 枚以上 4 枚以下の画像を必ず指定してください。 | +| `should_remesh` | COMBO | はい | `"true"`
`"false"` | 生成されたメッシュを再メッシュ処理するかどうかを決定します。`"false"` に設定すると、ノードは未処理の三角形メッシュを返します。 | +| `topology` | COMBO | いいえ | `"triangle"`
`"quad"` | 再メッシュ後の出力におけるターゲット多角形タイプです。このパラメーターは、`should_remesh` が `"true"` に設定されている場合にのみ利用可能かつ必須となります。 | +| `target_polycount` | INT | いいえ | 100~300000 | 再メッシュ後のモデルにおけるターゲットポリゴン数(デフォルト値:300000)。このパラメーターは、`should_remesh` が `"true"` に設定されている場合にのみ利用可能です。 | +| `symmetry_mode` | COMBO | はい | `"auto"`
`"on"`
`"off"` | 生成されたモデルに対して対称性を適用するかどうかを制御します。 | +| `should_texture` | COMBO | はい | `"true"`
`"false"` | テクスチャを生成するかどうかを決定します。`"false"` に設定すると、テクスチャ生成フェーズがスキップされ、テクスチャなしのメッシュが返されます。 | +| `enable_pbr` | BOOLEAN | いいえ | `True` / `False` | `should_texture` が `"true"` の場合、このオプションはベースカラーに加えて PBR マップ(メタリック、ラフネス、法線)を生成します(デフォルト値:`False`)。 | +| `texture_prompt` | STRING | いいえ | - | テクスチャ生成プロセスをガイドするためのテキストプロンプト(最大 600 文字)。`texture_image` と同時に使用することはできません。このパラメーターは、`should_texture` が `"true"` に設定されている場合にのみ利用可能です。 | +| `texture_image` | IMAGE | いいえ | - | テクスチャ生成プロセスをガイドするための画像です。`texture_image` と `texture_prompt` のどちらか一方のみを同時に使用できます。このパラメーターは、`should_texture` が `"true"` に設定されている場合にのみ利用可能です。 | +| `pose_mode` | COMBO | はい | `""`
`"A-pose"`
`"T-pose"` | 生成されるモデルのポーズモードを指定します。 | +| `seed` | INT | はい | 0~2147483647 | 生成プロセスのシード値(デフォルト値:0)。結果はシード値に関係なく非決定的ですが、シード値を変更することでノードの再実行をトリガーできます。 | + +**パラメーター制約:** + +* `images` 入力には、必ず 2 枚以上 4 枚以下の画像を指定する必要があります。 +* `topology` および `target_polycount` パラメーターは、`should_remesh` が `"true"` に設定されている場合にのみ有効です。 +* `enable_pbr`、`texture_prompt`、`texture_image` パラメーターは、`should_texture` が `"true"` に設定されている場合にのみ有効です。 +* `texture_prompt` と `texture_image` を同時に使用することはできません。これらは相互に排他的です。 + +## 出力 + +| 出力名 | データ型 | 説明 | +| :--- | :--- | :--- | +| `model_file` | STRING | 生成された GLB モデルのファイル名です。この出力は下位互換性のために提供されています。 | +| `meshy_task_id` | MESHY_TASK_ID | Meshy API タスクの固有識別子です。 | +| `GLB` | FILE3DGLB | GLB 形式で生成された 3D モデルです。 | +| `FBX` | FILE3DFBX | FBX 形式で生成された 3D モデルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/MeshyRefineNode.mdx b/ja/built-in-nodes/MeshyRefineNode.mdx new file mode 100644 index 000000000..667d4a55a --- /dev/null +++ b/ja/built-in-nodes/MeshyRefineNode.mdx @@ -0,0 +1,35 @@ +--- +title: "MeshyRefineNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の MeshyRefineNode ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MeshyRefineNode" +icon: "circle" +mode: wide +translationSourceHash: 3e9a99c2 +translationFrom: built-in-nodes/MeshyRefineNode.mdx, zh-CN/built-in-nodes/MeshyRefineNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MeshyRefineNode/en.md) + +「Meshy: Refine Draft Model」ノードは、事前に生成された 3D 草稿モデルを受け取り、その品質を向上させます(オプションでテクスチャを追加可能)。このノードは Meshy API に対して精製タスクを送信し、処理が完了すると最終的な 3D モデルファイルを返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"latest"` | 精製に使用する AI モデルを指定します。現在は `"latest"` モデルのみ利用可能です。 | +| `meshy_task_id` | MESHY_TASK_ID | はい | - | 精製対象となる草稿モデルの固有タスク ID です。 | +| `enable_pbr` | BOOLEAN | いいえ | - | 基本色に加えて、PBR マップ(金属度、粗さ、法線)を生成します。注意:「Sculpture スタイル」を使用する際は `false` に設定してください。Sculpture スタイルでは独自の PBR マップが生成されるためです。(デフォルト値:`False`) | +| `texture_prompt` | STRING | いいえ | - | テクスチャ生成プロセスをガイドするテキストプロンプトを指定します。最大 600 文字です。「texture_image」と同時に使用することはできません。(デフォルト値:空文字列) | +| `texture_image` | IMAGE | いいえ | - | 「texture_image」と「texture_prompt」のいずれか一方のみを同時に使用できます。(任意) | + +**注意:** `texture_prompt` と `texture_image` の入力は相互に排他的です。同一の操作内で、テクスチャ生成のためにテキストプロンプトと画像の両方を指定することはできません。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model_file` | STRING | 生成された GLB モデルのファイル名です。(下位互換性維持のためのみ提供) | +| `meshy_task_id` | MESHY_TASK_ID | 提出された精製タスクの固有タスク ID です。 | +| `GLB` | FILE3DGLB | 最終的に精製された 3D モデル(GLB 形式)。 | +| `FBX` | FILE3DFBX | 最終的に精製された 3D モデル(FBX 形式)。 | \ No newline at end of file diff --git a/ja/built-in-nodes/MeshyRigModelNode.mdx b/ja/built-in-nodes/MeshyRigModelNode.mdx new file mode 100644 index 000000000..28a92bc57 --- /dev/null +++ b/ja/built-in-nodes/MeshyRigModelNode.mdx @@ -0,0 +1,33 @@ +--- +title: "MeshyRigModelNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における MeshyRigModelNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MeshyRigModelNode" +icon: "circle" +mode: wide +translationSourceHash: 5a92072a +translationFrom: built-in-nodes/MeshyRigModelNode.mdx, zh-CN/built-in-nodes/MeshyRigModelNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MeshyRigModelNode/en.md) + +「Meshy: Rig Model」ノードは、Meshy から提供された 3D モデルタスクを受け取り、リグ(骨格)が設定されたキャラクターモデルを生成します。このノードはモデルに対して自動的にスケルトン(骨格)を作成し、ポーズ設定やアニメーション制作が可能になります。出力されるリグ付きモデルは、GLB および FBX の両ファイル形式で提供されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `meshy_task_id` | STRING | はい | なし | リグを適用する対象となるモデルを生成した、以前の Meshy 操作(例:テキストから 3D へ、または画像から 3D へ)における一意のタスク ID。 | +| `height_meters` | FLOAT | はい | 0.1 ~ 15.0 | キャラクターモデルの概算高さ(単位:メートル)。スケーリングおよびリグの精度向上に役立ちます(デフォルト値:1.7)。 | +| `texture_image` | IMAGE | いいえ | なし | モデルの UV アンラップ済みベースカラー(アルベド)テクスチャ画像。 | + +**注意:** 現在の自動リグ処理は、テクスチャが適用されていないメッシュ、ヒューマノイドでないアセット、あるいは四肢および身体構造が明確でないヒューマノイドアセットには適していません。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model_file` | STRING | 下位互換性のためのレガシー出力であり、GLB 形式のモデルファイル名を含みます。 | +| `rig_task_id` | STRING | このリグ処理に対応する一意のタスク ID。結果を参照するために利用できます。 | +| `GLB` | FILE3DGLB | GLB ファイル形式で保存された、リグが設定された 3D キャラクターモデル。 | +| `FBX` | FILE3DFBX | FBX ファイル形式で保存された、リグが設定された 3D キャラクターモデル。 | \ No newline at end of file diff --git a/ja/built-in-nodes/MeshyTextToModelNode.mdx b/ja/built-in-nodes/MeshyTextToModelNode.mdx new file mode 100644 index 000000000..2ef48eac7 --- /dev/null +++ b/ja/built-in-nodes/MeshyTextToModelNode.mdx @@ -0,0 +1,37 @@ +--- +title: "MeshyTextToModelNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における MeshyTextToModelNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MeshyTextToModelNode" +icon: "circle" +mode: wide +translationSourceHash: f45d1a2f +translationFrom: built-in-nodes/MeshyTextToModelNode.mdx, zh-CN/built-in-nodes/MeshyTextToModelNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MeshyTextToModelNode/en.md) + +Meshy: Text to Model ノードは Meshy API を使用して、テキストによる説明から 3D モデルを生成します。このノードは、ユーザーが指定したプロンプトおよび設定を API に送信し、生成が完了するのを待って、結果として得られたモデルファイルをダウンロードします。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"latest"` | 使用する AI モデルのバージョンを指定します。現在は `"latest"` のみが利用可能です。 | +| `prompt` | STRING | はい | - | 生成したい 3D モデルのテキストによる説明です。文字数は 1~600 文字の間である必要があります。 | +| `style` | COMBO | はい | `"realistic"`
`"sculpture"` | 生成される 3D モデルのアーティスティックなスタイルです。 | +| `should_remesh` | DYNAMIC COMBO | はい | `"true"`
`"false"` | 生成されたメッシュを再処理(リメッシュ)するかどうかを制御します。`"false"` に設定すると、ノードは未処理の三角形メッシュを返します。`"true"` を選択すると、トポロジーおよびポリゴン数に関する追加パラメーターが表示されます。 | +| `topology` | COMBO | いいえ* | `"triangle"`
`"quad"` | リメッシュ後のモデルの対象となるポリゴンの種類です。このパラメーターは、`should_remesh` が `"true"` に設定されている場合にのみ表示され、かつ必須となります。 | +| `target_polycount` | INT | いいえ* | 100 ~ 300000 | リメッシュ後のモデルの対象ポリゴン数です。デフォルト値は 300000 です。このパラメーターは、`should_remesh` が `"true"` に設定されている場合にのみ表示され、かつ必須となります。 | +| `symmetry_mode` | COMBO | はい | `"auto"`
`"on"`
`"off"` | 生成されるモデルにおける対称性を制御します。 | +| `pose_mode` | COMBO | はい | `""`
`"A-pose"`
`"T-pose"` | 生成されるモデルのポーズモードを指定します。空文字列 (`""`) は、特定のポーズを要求しないことを意味します。 | +| `seed` | INT | はい | 0 ~ 2147483647 | 生成時のシード値です。この値を設定することでノードの再実行を制御できますが、シード値に関わらず結果は非決定的です。デフォルト値は 0 です。 | + +*注:`topology` および `target_polycount` パラメーターは「条件付き必須」です。これらは、`should_remesh` パラメーターが `"true"` に設定されている場合にのみ表示され、かつ設定が必須となります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model_file` | STRING | 生成された GLB 形式のモデルのファイル名です。この出力は下位互換性のために提供されています。 | +| `meshy_task_id` | MESHY_TASK_ID | Meshy API タスクの固有識別子です。 | +| `GLB` | FILE3DGLB | GLB 形式で生成された 3D モデルファイルです。 | +| `FBX` | FILE3DFBX | FBX 形式で生成された 3D モデルファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/MeshyTextureNode.mdx b/ja/built-in-nodes/MeshyTextureNode.mdx new file mode 100644 index 000000000..deb5576e6 --- /dev/null +++ b/ja/built-in-nodes/MeshyTextureNode.mdx @@ -0,0 +1,39 @@ +--- +title: "MeshyTextureNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における MeshyTextureNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MeshyTextureNode" +icon: "circle" +mode: wide +translationSourceHash: 8640e540 +translationFrom: built-in-nodes/MeshyTextureNode.mdx, zh-CN/built-in-nodes/MeshyTextureNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MeshyTextureNode/en.md) + +Meshy: Texture ノードは、AI によって生成されたテクスチャを 3D モデルに適用します。このノードは、以前の Meshy 3D 生成または変換ノードから取得したタスク ID を受け取り、テキストによる説明または参照画像のいずれかを用いて、モデルに対して新しいテクスチャを生成します。ノードの出力は、GLB 形式および FBX 形式のテクスチャ付き 3D モデルです。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"latest"` | テクスチャ生成に使用する AI モデルのバージョンです。現在は `"latest"` のみが利用可能です。 | +| `meshy_task_id` | MESHY_TASK_ID | はい | - | 以前の Meshy 3D 生成または変換タスクから得られる一意の識別子(タスク ID)です。この値により、テクスチャを適用するベースとなる 3D モデルが指定されます。 | +| `enable_original_uv` | BOOLEAN | いいえ | - | 有効化されている場合(デフォルト:`True`)、ノードはアップロードされたモデルの元の UV レイアウトを使用し、既存のテクスチャを保持します。モデルに元の UV が存在しない場合、出力品質が低下する可能性があります。 | +| `pbr` | BOOLEAN | いいえ | - | テクスチャ付きモデルに対して、物理ベース・レンダリング(PBR)マテリアル出力を有効化します(デフォルト:`False`)。 | +| `text_style_prompt` | STRING | いいえ | - | 対象オブジェクトの望ましいテクスチャスタイルを記述したテキストです。最大 600 文字までです。`image_style` と同時に使用することはできません。 | +| `image_style` | IMAGE | いいえ | - | テクスチャ生成プロセスをガイドするための 2D 参照画像です。`text_style_prompt` と同時に使用することはできません。 | + +**パラメーター制約:** + +* `text_style_prompt` または `image_style` のいずれか一方を必ず指定する必要がありますが、両方を同時に指定することはできません。 +* `text_style_prompt` は最大 600 文字までと制限されています。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model_file` | STRING | 生成された GLB モデルのファイル名です。この出力は下位互換性のために提供されています。 | +| `meshy_task_id` | MODEL_TASK_ID | このテクスチャ生成ジョブに対する一意のタスク識別子であり、結果を参照するために使用できます。 | +| `GLB` | FILE3DGLB | GLB ファイル形式で保存されたテクスチャ付き 3D モデルです。 | +| `FBX` | FILE3DFBX | FBX ファイル形式で保存されたテクスチャ付き 3D モデルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/MinimaxHailuoVideoNode.mdx b/ja/built-in-nodes/MinimaxHailuoVideoNode.mdx new file mode 100644 index 000000000..4b6525454 --- /dev/null +++ b/ja/built-in-nodes/MinimaxHailuoVideoNode.mdx @@ -0,0 +1,33 @@ +--- +title: "MinimaxHailuoVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における MinimaxHailuoVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MinimaxHailuoVideoNode" +icon: "circle" +mode: wide +translationSourceHash: b885d37d +translationFrom: built-in-nodes/MinimaxHailuoVideoNode.mdx, zh-CN/built-in-nodes/MinimaxHailuoVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MinimaxHailuoVideoNode/en.md) + +MiniMax Hailuo-02 モデルを用いて、テキストプロンプトから動画を生成します。必要に応じて、最初のフレームとして画像を指定することで、その画像から連続する動画を生成できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt_text` | STRING | はい | - | 動画生成を制御するためのテキストプロンプトです。 | +| `seed` | INT | いいえ | 0 ~ 18446744073709551615 | ノイズ生成に使用される乱数シード(デフォルト:0)。 | +| `first_frame_image` | IMAGE | いいえ | - | 動画生成時の最初のフレームとして使用するオプションの画像です。 | +| `prompt_optimizer` | BOOLEAN | いいえ | - | 必要に応じてプロンプトを最適化し、生成品質を向上させます(デフォルト:True)。 | +| `duration` | COMBO | いいえ | `6`
`10` | 出力動画の長さ(秒単位)です(デフォルト:6)。 | +| `resolution` | COMBO | いいえ | `"768P"`
`"1080P"` | 動画の表示解像度です。1080p は 1920×1080、768p は 1366×768 です(デフォルト:"768P")。 | + +**注意:** MiniMax-Hailuo-02 モデルと 1080P 解像度を併用する場合、動画の長さは 6 秒に制限されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画ファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/MinimaxImageToVideoNode.mdx b/ja/built-in-nodes/MinimaxImageToVideoNode.mdx new file mode 100644 index 000000000..195eb0032 --- /dev/null +++ b/ja/built-in-nodes/MinimaxImageToVideoNode.mdx @@ -0,0 +1,29 @@ +--- +title: "MinimaxImageToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における MinimaxImageToVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MinimaxImageToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 63cbaa40 +translationFrom: built-in-nodes/MinimaxImageToVideoNode.mdx, zh-CN/built-in-nodes/MinimaxImageToVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MinimaxImageToVideoNode/en.md) + +MiniMax の API を使用して、入力画像とプロンプトテキスト、および任意のパラメーターに基づき、動画を同期的に生成します。このノードは入力画像とテキスト記述を受け取り、動画シーケンスを作成します。また、複数のモデル選択肢および設定オプションが利用可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 動画生成の最初のフレームとして使用する画像 | +| `prompt_text` | STRING | はい | - | 動画生成をガイドするテキストプロンプト(デフォルト:空文字列) | +| `model` | COMBO | はい | "I2V-01-Director"
"I2V-01"
"I2V-01-live" | 動画生成に使用するモデル(デフォルト:"I2V-01") | +| `seed` | INT | いいえ | 0 ~ 18446744073709551615 | ノイズ生成に使用される乱数シード(デフォルト:0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画出力 | \ No newline at end of file diff --git a/ja/built-in-nodes/MinimaxSubjectToVideoNode.mdx b/ja/built-in-nodes/MinimaxSubjectToVideoNode.mdx new file mode 100644 index 000000000..33b9c51e7 --- /dev/null +++ b/ja/built-in-nodes/MinimaxSubjectToVideoNode.mdx @@ -0,0 +1,27 @@ +--- +title: "MinimaxSubjectToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における MinimaxSubjectToVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MinimaxSubjectToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: d0c9cc25 +translationFrom: built-in-nodes/MinimaxSubjectToVideoNode.mdx, zh-CN/built-in-nodes/MinimaxSubjectToVideoNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MinimaxSubjectToVideoNode/en.md) + +MiniMax の API を使用して、画像およびプロンプト(および任意のパラメーター)に基づき、同期的に動画を生成します。このノードは、被写体の画像とテキストによる説明を入力として受け取り、MiniMax の動画生成サービスを用いて動画を作成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `subject` | IMAGE | はい | - | 動画生成の参照元となる被写体の画像 | +| `prompt_text` | STRING | はい | - | 動画生成をガイドするテキストプロンプト(デフォルト:空文字列) | +| `model` | COMBO | いいえ | "S2V-01"
| 動画生成に使用するモデル(デフォルト:"S2V-01") | +| `seed` | INT | いいえ | 0 ~ 18446744073709551615 | ノイズ生成に使用される乱数シード(デフォルト:0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 入力された被写体画像およびプロンプトに基づいて生成された動画 | \ No newline at end of file diff --git a/ja/built-in-nodes/MinimaxTextToVideoNode.mdx b/ja/built-in-nodes/MinimaxTextToVideoNode.mdx new file mode 100644 index 000000000..abc6bdf02 --- /dev/null +++ b/ja/built-in-nodes/MinimaxTextToVideoNode.mdx @@ -0,0 +1,28 @@ +--- +title: "MinimaxTextToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における MinimaxTextToVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MinimaxTextToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 58c6a98a +translationFrom: built-in-nodes/MinimaxTextToVideoNode.mdx, zh-CN/built-in-nodes/MinimaxTextToVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MinimaxTextToVideoNode/en.md) + +このノードは、プロンプトおよび任意のパラメーターを用いて MiniMax の API を介して同期的に動画を生成します。MiniMax のテキストから動画を生成するサービスに接続することで、テキストによる説明から動画コンテンツを作成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt_text` | STRING | はい | - | 動画生成をガイドするためのテキストプロンプト | +| `model` | COMBO | いいえ | "T2V-01"
"T2V-01-Director" | 動画生成に使用するモデル(デフォルト: "T2V-01") | +| `seed` | INT | いいえ | 0 ~ 18446744073709551615 | ノイズ生成に使用される乱数シード(デフォルト: 0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 入力プロンプトに基づいて生成された動画 | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelComputeDtype.mdx b/ja/built-in-nodes/ModelComputeDtype.mdx new file mode 100644 index 000000000..df07c104f --- /dev/null +++ b/ja/built-in-nodes/ModelComputeDtype.mdx @@ -0,0 +1,25 @@ +--- +title: "ModelComputeDtype - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ModelComputeDtype ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelComputeDtype" +icon: "circle" +mode: wide +translationSourceHash: 4ad935ba +translationFrom: built-in-nodes/ModelComputeDtype.mdx, zh-CN/built-in-nodes/ModelComputeDtype.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelComputeDtype/en.md) + +ModelComputeDtype ノードは、推論中にモデルが使用する計算用データ型を変更する機能を提供します。このノードは入力モデルのコピーを作成し、指定されたデータ型設定を適用します。これにより、利用可能なハードウェアの能力に応じてメモリ使用量や処理性能を最適化できます。特に、異なる精度設定のデバッグやテストにおいて有用です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | 新しい計算用データ型を適用する対象となる入力モデル | +| `dtype` | STRING | はい | "default"
"fp32"
"fp16"
"bf16" | モデルに適用する計算用データ型 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 新しい計算用データ型が適用された修正済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelMergeAdd.mdx b/ja/built-in-nodes/ModelMergeAdd.mdx new file mode 100644 index 000000000..d44677c33 --- /dev/null +++ b/ja/built-in-nodes/ModelMergeAdd.mdx @@ -0,0 +1,24 @@ +--- +title: "ModelMergeAdd - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における ModelMergeAdd ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelMergeAdd" +icon: "circle" +mode: wide +translationSourceHash: 83ddf04d +translationFrom: built-in-nodes/ModelMergeAdd.mdx, zh-CN/built-in-nodes/ModelMergeAdd.mdx +--- + +ModelMergeAdd ノードは、あるモデルのキーパッチを別のモデルに加算することで、2つのモデルを統合する目的で設計されています。この処理では、まず最初のモデルがクローンされ、その後、2番目のモデルから抽出されたパッチが適用されます。これにより、両方のモデルが持つ特徴や動作を組み合わせることが可能になります。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `model1` | `MODEL` | クローンされる最初のモデルであり、2番目のモデルからのパッチが加算される対象です。統合処理における基盤となるモデルです。 | +| `model2` | `MODEL` | キーパッチが抽出され、1番目のモデルに加算される2番目のモデルです。統合後のモデルに追加的な特徴や動作を提供します。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `model` | `MODEL` | 2番目のモデルのキーパッチを1番目のモデルに加算することで得られる、2つのモデルの統合結果です。この統合済みモデルは、両方のモデルが持つ特徴や動作を統合しています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelMergeAuraflow.mdx b/ja/built-in-nodes/ModelMergeAuraflow.mdx new file mode 100644 index 000000000..c71ec33f7 --- /dev/null +++ b/ja/built-in-nodes/ModelMergeAuraflow.mdx @@ -0,0 +1,70 @@ +--- +title: "ModelMergeAuraflow - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ModelMergeAuraflow ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelMergeAuraflow" +icon: "circle" +mode: wide +translationSourceHash: 474db48e +translationFrom: built-in-nodes/ModelMergeAuraflow.mdx, zh-CN/built-in-nodes/ModelMergeAuraflow.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelMergeAuraflow/en.md) + +ModelMergeAuraflow ノードを使用すると、さまざまなモデル構成要素ごとに特定のブレンド重みを調整することで、2 つの異なるモデルを融合させることができます。このノードは、初期レイヤーから最終出力に至るまで、モデルの各部分がどのようにマージされるかを細かく制御する機能を提供します。特に、マージプロセスを精密に制御しながらカスタムモデルの組み合わせを作成する際に有効です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model1` | MODEL | はい | - | マージ対象となる最初のモデル | +| `model2` | MODEL | はい | - | マージ対象となる2番目のモデル | +| `init_x_linear.` | FLOAT | はい | 0.0 - 1.0 | 初期線形変換に対するブレンド重み(デフォルト:1.0) | +| `positional_encoding` | FLOAT | はい | 0.0 - 1.0 | 位置エンコーディング構成要素に対するブレンド重み(デフォルト:1.0) | +| `cond_seq_linear.` | FLOAT | はい | 0.0 - 1.0 | 条件付きシーケンス線形層に対するブレンド重み(デフォルト:1.0) | +| `register_tokens` | FLOAT | はい | 0.0 - 1.0 | トークン登録構成要素に対するブレンド重み(デフォルト:1.0) | +| `t_embedder.` | FLOAT | はい | 0.0 - 1.0 | 時間埋め込み(time embedding)構成要素に対するブレンド重み(デフォルト:1.0) | +| `double_layers.0.` | FLOAT | はい | 0.0 - 1.0 | ダブルレイヤーグループ 0 に対するブレンド重み(デフォルト:1.0) | +| `double_layers.1.` | FLOAT | はい | 0.0 - 1.0 | ダブルレイヤーグループ 1 に対するブレンド重み(デフォルト:1.0) | +| `double_layers.2.` | FLOAT | はい | 0.0 - 1.0 | ダブルレイヤーグループ 2 に対するブレンド重み(デフォルト:1.0) | +| `double_layers.3.` | FLOAT | はい | 0.0 - 1.0 | ダブルレイヤーグループ 3 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.0.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 0 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.1.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 1 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.2.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 2 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.3.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 3 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.4.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 4 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.5.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 5 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.6.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 6 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.7.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 7 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.8.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 8 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.9.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 9 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.10.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 10 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.11.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 11 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.12.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 12 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.13.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 13 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.14.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 14 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.15.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 15 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.16.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 16 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.17.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 17 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.18.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 18 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.19.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 19 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.20.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 20 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.21.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 21 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.22.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 22 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.23.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 23 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.24.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 24 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.25.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 25 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.26.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 26 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.27.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 27 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.28.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 28 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.29.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 29 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.30.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 30 に対するブレンド重み(デフォルト:1.0) | +| `single_layers.31.` | FLOAT | はい | 0.0 - 1.0 | シングルレイヤー 31 に対するブレンド重み(デフォルト:1.0) | +| `modF.` | FLOAT | はい | 0.0 - 1.0 | modF 構成要素に対するブレンド重み(デフォルト:1.0) | +| `final_linear.` | FLOAT | はい | 0.0 - 1.0 | 最終線形変換に対するブレンド重み(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 指定されたブレンド重みに基づき、2 つの入力モデルの特徴を統合したマージ済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelMergeBlocks.mdx b/ja/built-in-nodes/ModelMergeBlocks.mdx new file mode 100644 index 000000000..231c35c3f --- /dev/null +++ b/ja/built-in-nodes/ModelMergeBlocks.mdx @@ -0,0 +1,27 @@ +--- +title: "ModelMergeBlocks - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における ModelMergeBlocks ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelMergeBlocks" +icon: "circle" +mode: wide +translationSourceHash: 213687a8 +translationFrom: built-in-nodes/ModelMergeBlocks.mdx, zh-CN/built-in-nodes/ModelMergeBlocks.mdx +--- + +`ModelMergeBlocks` は、高度なモデル融合操作を目的として設計されたノードであり、モデルの異なる部分(層)ごとにカスタマイズ可能なブレンド比率を用いて、2つのモデルを統合することを可能にします。このノードは、指定されたパラメーターに基づき、2つのソースモデルからコンポーネントを段階的に選択・統合することで、ハイブリッドモデルの作成を支援します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `model1` | `MODEL` | 統合対象となる最初のモデルです。このモデルがベースモデルとなり、2番目のモデルから抽出されたパッチが適用されます。 | +| `model2` | `MODEL` | パッチを抽出し、指定されたブレンド比率に基づいて最初のモデルに適用する2番目のモデルです。 | +| `input` | `FLOAT` | モデルの入力層に対するブレンド比率を指定します。2番目のモデルの入力層が、最初のモデルにどの程度統合されるかを決定します。 | +| `middle` | `FLOAT` | モデルの中間層に対するブレンド比率を定義します。このパラメーターは、モデルの中間層の統合レベルを制御します。 | +| `out` | `FLOAT` | モデルの出力層に対するブレンド比率を決定します。2番目のモデルの出力層の寄与度を調整することで、最終的な出力に影響を与えます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `model` | `MODEL` | 結果として得られる統合済みモデルです。これは、指定されたブレンド比率に従ってパッチが適用された、2つの入力モデルのハイブリッドです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelMergeCosmos14B.mdx b/ja/built-in-nodes/ModelMergeCosmos14B.mdx new file mode 100644 index 000000000..a54a1d09c --- /dev/null +++ b/ja/built-in-nodes/ModelMergeCosmos14B.mdx @@ -0,0 +1,69 @@ +--- +title: "ModelMergeCosmos14B - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ModelMergeCosmos14B ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelMergeCosmos14B" +icon: "circle" +mode: wide +translationSourceHash: 8bbd0b42 +translationFrom: built-in-nodes/ModelMergeCosmos14B.mdx, zh-CN/built-in-nodes/ModelMergeCosmos14B.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelMergeCosmos14B/en.md) + +ModelMergeCosmos14B ノードは、Cosmos 14B モデルアーキテクチャ専用に設計されたブロック単位の手法を用いて、2つのAIモデルを統合します。各モデルブロックおよび埋め込み層に対して0.0~1.0の重み値を調整することで、2つのモデルの異なる構成要素を混合できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `model1` | MODEL | はい | - | 統合する最初のモデル | +| `model2` | MODEL | はい | - | 統合する2番目のモデル | +| `pos_embedder.` | FLOAT | はい | 0.0 - 1.0 | 位置埋め込み層の重み(デフォルト:1.0) | +| `extra_pos_embedder.` | FLOAT | はい | 0.0 - 1.0 | 追加位置埋め込み層の重み(デフォルト:1.0) | +| `x_embedder.` | FLOAT | はい | 0.0 - 1.0 | X埋め込み層の重み(デフォルト:1.0) | +| `t_embedder.` | FLOAT | はい | 0.0 - 1.0 | T埋め込み層の重み(デフォルト:1.0) | +| `affline_norm.` | FLOAT | はい | 0.0 - 1.0 | アフィン正規化の重み(デフォルト:1.0) | +| `blocks.block0.` | FLOAT | はい | 0.0 - 1.0 | ブロック0の重み(デフォルト:1.0) | +| `blocks.block1.` | FLOAT | はい | 0.0 - 1.0 | ブロック1の重み(デフォルト:1.0) | +| `blocks.block2.` | FLOAT | はい | 0.0 - 1.0 | ブロック2の重み(デフォルト:1.0) | +| `blocks.block3.` | FLOAT | はい | 0.0 - 1.0 | ブロック3の重み(デフォルト:1.0) | +| `blocks.block4.` | FLOAT | はい | 0.0 - 1.0 | ブロック4の重み(デフォルト:1.0) | +| `blocks.block5.` | FLOAT | はい | 0.0 - 1.0 | ブロック5の重み(デフォルト:1.0) | +| `blocks.block6.` | FLOAT | はい | 0.0 - 1.0 | ブロック6の重み(デフォルト:1.0) | +| `blocks.block7.` | FLOAT | はい | 0.0 - 1.0 | ブロック7の重み(デフォルト:1.0) | +| `blocks.block8.` | FLOAT | はい | 0.0 - 1.0 | ブロック8の重み(デフォルト:1.0) | +| `blocks.block9.` | FLOAT | はい | 0.0 - 1.0 | ブロック9の重み(デフォルト:1.0) | +| `blocks.block10.` | FLOAT | はい | 0.0 - 1.0 | ブロック10の重み(デフォルト:1.0) | +| `blocks.block11.` | FLOAT | はい | 0.0 - 1.0 | ブロック11の重み(デフォルト:1.0) | +| `blocks.block12.` | FLOAT | はい | 0.0 - 1.0 | ブロック12の重み(デフォルト:1.0) | +| `blocks.block13.` | FLOAT | はい | 0.0 - 1.0 | ブロック13の重み(デフォルト:1.0) | +| `blocks.block14.` | FLOAT | はい | 0.0 - 1.0 | ブロック14の重み(デフォルト:1.0) | +| `blocks.block15.` | FLOAT | はい | 0.0 - 1.0 | ブロック15の重み(デフォルト:1.0) | +| `blocks.block16.` | FLOAT | はい | 0.0 - 1.0 | ブロック16の重み(デフォルト:1.0) | +| `blocks.block17.` | FLOAT | はい | 0.0 - 1.0 | ブロック17の重み(デフォルト:1.0) | +| `blocks.block18.` | FLOAT | はい | 0.0 - 1.0 | ブロック18の重み(デフォルト:1.0) | +| `blocks.block19.` | FLOAT | はい | 0.0 - 1.0 | ブロック19の重み(デフォルト:1.0) | +| `blocks.block20.` | FLOAT | はい | 0.0 - 1.0 | ブロック20の重み(デフォルト:1.0) | +| `blocks.block21.` | FLOAT | はい | 0.0 - 1.0 | ブロック21の重み(デフォルト:1.0) | +| `blocks.block22.` | FLOAT | はい | 0.0 - 1.0 | ブロック22の重み(デフォルト:1.0) | +| `blocks.block23.` | FLOAT | はい | 0.0 - 1.0 | ブロック23の重み(デフォルト:1.0) | +| `blocks.block24.` | FLOAT | はい | 0.0 - 1.0 | ブロック24の重み(デフォルト:1.0) | +| `blocks.block25.` | FLOAT | はい | 0.0 - 1.0 | ブロック25の重み(デフォルト:1.0) | +| `blocks.block26.` | FLOAT | はい | 0.0 - 1.0 | ブロック26の重み(デフォルト:1.0) | +| `blocks.block27.` | FLOAT | はい | 0.0 - 1.0 | ブロック27の重み(デフォルト:1.0) | +| `blocks.block28.` | FLOAT | はい | 0.0 - 1.0 | ブロック28の重み(デフォルト:1.0) | +| `blocks.block29.` | FLOAT | はい | 0.0 - 1.0 | ブロック29の重み(デフォルト:1.0) | +| `blocks.block30.` | FLOAT | はい | 0.0 - 1.0 | ブロック30の重み(デフォルト:1.0) | +| `blocks.block31.` | FLOAT | はい | 0.0 - 1.0 | ブロック31の重み(デフォルト:1.0) | +| `blocks.block32.` | FLOAT | はい | 0.0 - 1.0 | ブロック32の重み(デフォルト:1.0) | +| `blocks.block33.` | FLOAT | はい | 0.0 - 1.0 | ブロック33の重み(デフォルト:1.0) | +| `blocks.block34.` | FLOAT | はい | 0.0 - 1.0 | ブロック34の重み(デフォルト:1.0) | +| `blocks.block35.` | FLOAT | はい | 0.0 - 1.0 | ブロック35の重み(デフォルト:1.0) | +| `final_layer.` | FLOAT | はい | 0.0 - 1.0 | 最終層の重み(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `model` | MODEL | 2つの入力モデルの特徴を統合した融合モデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelMergeCosmos7B.mdx b/ja/built-in-nodes/ModelMergeCosmos7B.mdx new file mode 100644 index 000000000..22849a642 --- /dev/null +++ b/ja/built-in-nodes/ModelMergeCosmos7B.mdx @@ -0,0 +1,61 @@ +--- +title: "ModelMergeCosmos7B - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ModelMergeCosmos7B ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelMergeCosmos7B" +icon: "circle" +mode: wide +translationSourceHash: a0dacd33 +translationFrom: built-in-nodes/ModelMergeCosmos7B.mdx, zh-CN/built-in-nodes/ModelMergeCosmos7B.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelMergeCosmos7B/en.md) + +ModelMergeCosmos7B ノードは、特定のコンポーネントに対して重み付きブレンドを適用することで、2つのAIモデルを統合します。位置エンベッダー、トランスフォーマーブロック、最終層など、各モデルの異なる構成要素に対して個別の重みを調整することにより、モデルの各部分を細かく制御して融合できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `model1` | MODEL | はい | - | 統合する最初のモデル | +| `model2` | MODEL | はい | - | 統合する2番目のモデル | +| `pos_embedder.` | FLOAT | はい | 0.0 - 1.0 | 位置エンベッダー・コンポーネントの重み(デフォルト:1.0) | +| `extra_pos_embedder.` | FLOAT | はい | 0.0 - 1.0 | 追加位置エンベッダー・コンポーネントの重み(デフォルト:1.0) | +| `x_embedder.` | FLOAT | はい | 0.0 - 1.0 | x エンベッダー・コンポーネントの重み(デフォルト:1.0) | +| `t_embedder.` | FLOAT | はい | 0.0 - 1.0 | t エンベッダー・コンポーネントの重み(デフォルト:1.0) | +| `affline_norm.` | FLOAT | はい | 0.0 - 1.0 | アフィン正規化コンポーネントの重み(デフォルト:1.0) | +| `blocks.block0.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 0 の重み(デフォルト:1.0) | +| `blocks.block1.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 1 の重み(デフォルト:1.0) | +| `blocks.block2.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 2 の重み(デフォルト:1.0) | +| `blocks.block3.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 3 の重み(デフォルト:1.0) | +| `blocks.block4.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 4 の重み(デフォルト:1.0) | +| `blocks.block5.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 5 の重み(デフォルト:1.0) | +| `blocks.block6.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 6 の重み(デフォルト:1.0) | +| `blocks.block7.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 7 の重み(デフォルト:1.0) | +| `blocks.block8.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 8 の重み(デフォルト:1.0) | +| `blocks.block9.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 9 の重み(デフォルト:1.0) | +| `blocks.block10.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 10 の重み(デフォルト:1.0) | +| `blocks.block11.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 11 の重み(デフォルト:1.0) | +| `blocks.block12.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 12 の重み(デフォルト:1.0) | +| `blocks.block13.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 13 の重み(デフォルト:1.0) | +| `blocks.block14.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 14 の重み(デフォルト:1.0) | +| `blocks.block15.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 15 の重み(デフォルト:1.0) | +| `blocks.block16.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 16 の重み(デフォルト:1.0) | +| `blocks.block17.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 17 の重み(デフォルト:1.0) | +| `blocks.block18.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 18 の重み(デフォルト:1.0) | +| `blocks.block19.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 19 の重み(デフォルト:1.0) | +| `blocks.block20.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 20 の重み(デフォルト:1.0) | +| `blocks.block21.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 21 の重み(デフォルト:1.0) | +| `blocks.block22.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 22 の重み(デフォルト:1.0) | +| `blocks.block23.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 23 の重み(デフォルト:1.0) | +| `blocks.block24.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 24 の重み(デフォルト:1.0) | +| `blocks.block25.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 25 の重み(デフォルト:1.0) | +| `blocks.block26.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 26 の重み(デフォルト:1.0) | +| `blocks.block27.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 27 の重み(デフォルト:1.0) | +| `final_layer.` | FLOAT | はい | 0.0 - 1.0 | 最終層コンポーネントの重み(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `model` | MODEL | 2つの入力モデルの特徴を統合したマージ済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelMergeCosmosPredict2_14B.mdx b/ja/built-in-nodes/ModelMergeCosmosPredict2_14B.mdx new file mode 100644 index 000000000..d74fef7fa --- /dev/null +++ b/ja/built-in-nodes/ModelMergeCosmosPredict2_14B.mdx @@ -0,0 +1,70 @@ +--- +title: "ModelMergeCosmosPredict2_14B - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ModelMergeCosmosPredict2_14B ノードの完全なドキュメントです。入力、出力、パラメータおよび使用方法について学びましょう。" +sidebarTitle: "ModelMergeCosmosPredict2_14B" +icon: "circle" +mode: wide +translationSourceHash: bb1c33d8 +translationFrom: built-in-nodes/ModelMergeCosmosPredict2_14B.mdx, zh-CN/built-in-nodes/ModelMergeCosmosPredict2_14B.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひ貢献してください! [GitHubで編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelMergeCosmosPredict2_14B/en.md) + +ModelMergeCosmosPredict2_14B ノードを使用すると、異なるモデルコンポーネントの影響度を調整することで、2つのAIモデルをマージできます。このノードは、第2のモデルの各コンポーネントが最終的なマージ済みモデルにどの程度寄与するかを細かく制御でき、特定のモデル層およびコンポーネントに対してブレンド重み(混合重み)を設定します。 + +## 入力 + +| パラメータ | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model1` | MODEL | はい | - | マージ対象のベースモデル | +| `model2` | MODEL | はい | - | ベースモデルにマージされるサブモデル | +| `pos_embedder.` | FLOAT | はい | 0.0 - 1.0 | 位置埋め込み層(Position Embedder)のブレンド重み(デフォルト:1.0) | +| `x_embedder.` | FLOAT | はい | 0.0 - 1.0 | 入力埋め込み層(Input Embedder)のブレンド重み(デフォルト:1.0) | +| `t_embedder.` | FLOAT | はい | 0.0 - 1.0 | 時間埋め込み層(Time Embedder)のブレンド重み(デフォルト:1.0) | +| `t_embedding_norm.` | FLOAT | はい | 0.0 - 1.0 | 時間埋め込み正規化層(Time Embedding Normalization)のブレンド重み(デフォルト:1.0) | +| `blocks.0.` | FLOAT | はい | 0.0 - 1.0 | ブロック0のブレンド重み(デフォルト:1.0) | +| `blocks.1.` | FLOAT | はい | 0.0 - 1.0 | ブロック1のブレンド重み(デフォルト:1.0) | +| `blocks.2.` | FLOAT | はい | 0.0 - 1.0 | ブロック2のブレンド重み(デフォルト:1.0) | +| `blocks.3.` | FLOAT | はい | 0.0 - 1.0 | ブロック3のブレンド重み(デフォルト:1.0) | +| `blocks.4.` | FLOAT | はい | 0.0 - 1.0 | ブロック4のブレンド重み(デフォルト:1.0) | +| `blocks.5.` | FLOAT | はい | 0.0 - 1.0 | ブロック5のブレンド重み(デフォルト:1.0) | +| `blocks.6.` | FLOAT | はい | 0.0 - 1.0 | ブロック6のブレンド重み(デフォルト:1.0) | +| `blocks.7.` | FLOAT | はい | 0.0 - 1.0 | ブロック7のブレンド重み(デフォルト:1.0) | +| `blocks.8.` | FLOAT | はい | 0.0 - 1.0 | ブロック8のブレンド重み(デフォルト:1.0) | +| `blocks.9.` | FLOAT | はい | 0.0 - 1.0 | ブロック9のブレンド重み(デフォルト:1.0) | +| `blocks.10.` | FLOAT | はい | 0.0 - 1.0 | ブロック10のブレンド重み(デフォルト:1.0) | +| `blocks.11.` | FLOAT | はい | 0.0 - 1.0 | ブロック11のブレンド重み(デフォルト:1.0) | +| `blocks.12.` | FLOAT | はい | 0.0 - 1.0 | ブロック12のブレンド重み(デフォルト:1.0) | +| `blocks.13.` | FLOAT | はい | 0.0 - 1.0 | ブロック13のブレンド重み(デフォルト:1.0) | +| `blocks.14.` | FLOAT | はい | 0.0 - 1.0 | ブロック14のブレンド重み(デフォルト:1.0) | +| `blocks.15.` | FLOAT | はい | 0.0 - 1.0 | ブロック15のブレンド重み(デフォルト:1.0) | +| `blocks.16.` | FLOAT | はい | 0.0 - 1.0 | ブロック16のブレンド重み(デフォルト:1.0) | +| `blocks.17.` | FLOAT | はい | 0.0 - 1.0 | ブロック17のブレンド重み(デフォルト:1.0) | +| `blocks.18.` | FLOAT | はい | 0.0 - 1.0 | ブロック18のブレンド重み(デフォルト:1.0) | +| `blocks.19.` | FLOAT | はい | 0.0 - 1.0 | ブロック19のブレンド重み(デフォルト:1.0) | +| `blocks.20.` | FLOAT | はい | 0.0 - 1.0 | ブロック20のブレンド重み(デフォルト:1.0) | +| `blocks.21.` | FLOAT | はい | 0.0 - 1.0 | ブロック21のブレンド重み(デフォルト:1.0) | +| `blocks.22.` | FLOAT | はい | 0.0 - 1.0 | ブロック22のブレンド重み(デフォルト:1.0) | +| `blocks.23.` | FLOAT | はい | 0.0 - 1.0 | ブロック23のブレンド重み(デフォルト:1.0) | +| `blocks.24.` | FLOAT | はい | 0.0 - 1.0 | ブロック24のブレンド重み(デフォルト:1.0) | +| `blocks.25.` | FLOAT | はい | 0.0 - 1.0 | ブロック25のブレンド重み(デフォルト:1.0) | +| `blocks.26.` | FLOAT | はい | 0.0 - 1.0 | ブロック26のブレンド重み(デフォルト:1.0) | +| `blocks.27.` | FLOAT | はい | 0.0 - 1.0 | ブロック27のブレンド重み(デフォルト:1.0) | +| `blocks.28.` | FLOAT | はい | 0.0 - 1.0 | ブロック28のブレンド重み(デフォルト:1.0) | +| `blocks.29.` | FLOAT | はい | 0.0 - 1.0 | ブロック29のブレンド重み(デフォルト:1.0) | +| `blocks.30.` | FLOAT | はい | 0.0 - 1.0 | ブロック30のブレンド重み(デフォルト:1.0) | +| `blocks.31.` | FLOAT | はい | 0.0 - 1.0 | ブロック31のブレンド重み(デフォルト:1.0) | +| `blocks.32.` | FLOAT | はい | 0.0 - 1.0 | ブロック32のブレンド重み(デフォルト:1.0) | +| `blocks.33.` | FLOAT | はい | 0.0 - 1.0 | ブロック33のブレンド重み(デフォルト:1.0) | +| `blocks.34.` | FLOAT | はい | 0.0 - 1.0 | ブロック34のブレンド重み(デフォルト:1.0) | +| `blocks.35.` | FLOAT | はい | 0.0 - 1.0 | ブロック35のブレンド重み(デフォルト:1.0) | +| `final_layer.` | FLOAT | はい | 0.0 - 1.0 | 最終層(Final Layer)のブレンド重み(デフォルト:1.0) | + +**注:** すべてのブレンド重みパラメータは 0.0 ~ 1.0 の値を受け付けます。0.0 はその特定コンポーネントにおいて `model2` の寄与が全くないことを意味し、1.0 はその特定コンポーネントにおいて `model2` の寄与が完全であることを意味します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 2つの入力モデルの特徴を統合したマージ済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelMergeCosmosPredict2_2B.mdx b/ja/built-in-nodes/ModelMergeCosmosPredict2_2B.mdx new file mode 100644 index 000000000..7687ca8b9 --- /dev/null +++ b/ja/built-in-nodes/ModelMergeCosmosPredict2_2B.mdx @@ -0,0 +1,60 @@ +--- +title: "ModelMergeCosmosPredict2_2B - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ModelMergeCosmosPredict2_2B ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelMergeCosmosPredict2_2B" +icon: "circle" +mode: wide +translationSourceHash: d8ac98fb +translationFrom: built-in-nodes/ModelMergeCosmosPredict2_2B.mdx, zh-CN/built-in-nodes/ModelMergeCosmosPredict2_2B.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelMergeCosmosPredict2_2B/en.md) + +ModelMergeCosmosPredict2_2B ノードは、ブロック単位のアプローチを用いて2つの拡散モデルを統合するノードであり、位置埋め込み層(position embedder)、時間埋め込み層(time embedder)、Transformerブロック、最終層など、モデルのさまざまな構成要素に対して細かい制御が可能です。このノードでは、これらの各コンポーネントに対する補間重みを調整することで、2つのモデルの特定の部分を任意の比率で混合できます。これにより、それぞれのモデルから抽出される異なるアーキテクチャ構成要素が、最終的な統合モデルにどの程度寄与するかを精密に制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `model1` | MODEL | はい | - | 統合対象の最初のモデル | +| `model2` | MODEL | はい | - | 統合対象の2番目のモデル | +| `pos_embedder.` | FLOAT | はい | 0.0 - 1.0 | 位置埋め込み層の補間重み(デフォルト:1.0) | +| `x_embedder.` | FLOAT | はい | 0.0 - 1.0 | 入力埋め込み層の補間重み(デフォルト:1.0) | +| `t_embedder.` | FLOAT | はい | 0.0 - 1.0 | 時間埋め込み層の補間重み(デフォルト:1.0) | +| `t_embedding_norm.` | FLOAT | はい | 0.0 - 1.0 | 時間埋め込み正規化の補間重み(デフォルト:1.0) | +| `blocks.0.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック0の補間重み(デフォルト:1.0) | +| `blocks.1.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック1の補間重み(デフォルト:1.0) | +| `blocks.2.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック2の補間重み(デフォルト:1.0) | +| `blocks.3.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック3の補間重み(デフォルト:1.0) | +| `blocks.4.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック4の補間重み(デフォルト:1.0) | +| `blocks.5.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック5の補間重み(デフォルト:1.0) | +| `blocks.6.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック6の補間重み(デフォルト:1.0) | +| `blocks.7.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック7の補間重み(デフォルト:1.0) | +| `blocks.8.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック8の補間重み(デフォルト:1.0) | +| `blocks.9.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック9の補間重み(デフォルト:1.0) | +| `blocks.10.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック10の補間重み(デフォルト:1.0) | +| `blocks.11.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック11の補間重み(デフォルト:1.0) | +| `blocks.12.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック12の補間重み(デフォルト:1.0) | +| `blocks.13.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック13の補間重み(デフォルト:1.0) | +| `blocks.14.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック14の補間重み(デフォルト:1.0) | +| `blocks.15.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック15の補間重み(デフォルト:1.0) | +| `blocks.16.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック16の補間重み(デフォルト:1.0) | +| `blocks.17.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック17の補間重み(デフォルト:1.0) | +| `blocks.18.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック18の補間重み(デフォルト:1.0) | +| `blocks.19.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック19の補間重み(デフォルト:1.0) | +| `blocks.20.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック20の補間重み(デフォルト:1.0) | +| `blocks.21.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック21の補間重み(デフォルト:1.0) | +| `blocks.22.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック22の補間重み(デフォルト:1.0) | +| `blocks.23.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック23の補間重み(デフォルト:1.0) | +| `blocks.24.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック24の補間重み(デフォルト:1.0) | +| `blocks.25.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック25の補間重み(デフォルト:1.0) | +| `blocks.26.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック26の補間重み(デフォルト:1.0) | +| `blocks.27.` | FLOAT | はい | 0.0 - 1.0 | Transformerブロック27の補間重み(デフォルト:1.0) | +| `final_layer.` | FLOAT | はい | 0.0 - 1.0 | 最終層の補間重み(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `model` | MODEL | 2つの入力モデルの特徴を統合したマージ済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelMergeFlux1.mdx b/ja/built-in-nodes/ModelMergeFlux1.mdx new file mode 100644 index 000000000..b686ae4ab --- /dev/null +++ b/ja/built-in-nodes/ModelMergeFlux1.mdx @@ -0,0 +1,90 @@ +--- +title: "ModelMergeFlux1 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ModelMergeFlux1 ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelMergeFlux1" +icon: "circle" +mode: wide +translationSourceHash: 375c548d +translationFrom: built-in-nodes/ModelMergeFlux1.mdx, zh-CN/built-in-nodes/ModelMergeFlux1.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelMergeFlux1/en.md) + +ModelMergeFlux1 ノードは、重み付き補間(ウェイト付き線形補間)を用いて、2つの拡散モデルの構成要素を統合するノードです。画像処理ブロック、時間埋め込み層、ガイド機構、ベクトル入力、テキストエンコーダー、および各種トランスフォーマーブロックなど、モデルの異なる部分に対して細かい制御が可能です。これにより、2つのソースモデルからカスタマイズされた特徴を持つハイブリッドモデルを作成できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `model1` | MODEL | はい | - | 統合する最初のソースモデル | +| `model2` | MODEL | はい | - | 統合する2番目のソースモデル | +| `img_in.` | FLOAT | はい | 0.0 ~ 1.0 | 画像入力の補間ウェイト(デフォルト:1.0) | +| `time_in.` | FLOAT | はい | 0.0 ~ 1.0 | 時間埋め込みの補間ウェイト(デフォルト:1.0) | +| `guidance_in` | FLOAT | はい | 0.0 ~ 1.0 | ガイド機構の補間ウェイト(デフォルト:1.0) | +| `vector_in.` | FLOAT | はい | 0.0 ~ 1.0 | ベクトル入力の補間ウェイト(デフォルト:1.0) | +| `txt_in.` | FLOAT | はい | 0.0 ~ 1.0 | テキストエンコーダーの補間ウェイト(デフォルト:1.0) | +| `double_blocks.0.` | FLOAT | はい | 0.0 ~ 1.0 | ダブルブロック 0 の補間ウェイト(デフォルト:1.0) | +| `double_blocks.1.` | FLOAT | はい | 0.0 ~ 1.0 | ダブルブロック 1 の補間ウェイト(デフォルト:1.0) | +| `double_blocks.2.` | FLOAT | はい | 0.0 ~ 1.0 | ダブルブロック 2 の補間ウェイト(デフォルト:1.0) | +| `double_blocks.3.` | FLOAT | はい | 0.0 ~ 1.0 | ダブルブロック 3 の補間ウェイト(デフォルト:1.0) | +| `double_blocks.4.` | FLOAT | はい | 0.0 ~ 1.0 | ダブルブロック 4 の補間ウェイト(デフォルト:1.0) | +| `double_blocks.5.` | FLOAT | はい | 0.0 ~ 1.0 | ダブルブロック 5 の補間ウェイト(デフォルト:1.0) | +| `double_blocks.6.` | FLOAT | はい | 0.0 ~ 1.0 | ダブルブロック 6 の補間ウェイト(デフォルト:1.0) | +| `double_blocks.7.` | FLOAT | はい | 0.0 ~ 1.0 | ダブルブロック 7 の補間ウェイト(デフォルト:1.0) | +| `double_blocks.8.` | FLOAT | はい | 0.0 ~ 1.0 | ダブルブロック 8 の補間ウェイト(デフォルト:1.0) | +| `double_blocks.9.` | FLOAT | はい | 0.0 ~ 1.0 | ダブルブロック 9 の補間ウェイト(デフォルト:1.0) | +| `double_blocks.10.` | FLOAT | はい | 0.0 ~ 1.0 | ダブルブロック 10 の補間ウェイト(デフォルト:1.0) | +| `double_blocks.11.` | FLOAT | はい | 0.0 ~ 1.0 | ダブルブロック 11 の補間ウェイト(デフォルト:1.0) | +| `double_blocks.12.` | FLOAT | はい | 0.0 ~ 1.0 | ダブルブロック 12 の補間ウェイト(デフォルト:1.0) | +| `double_blocks.13.` | FLOAT | はい | 0.0 ~ 1.0 | ダブルブロック 13 の補間ウェイト(デフォルト:1.0) | +| `double_blocks.14.` | FLOAT | はい | 0.0 ~ 1.0 | ダブルブロック 14 の補間ウェイト(デフォルト:1.0) | +| `double_blocks.15.` | FLOAT | はい | 0.0 ~ 1.0 | ダブルブロック 15 の補間ウェイト(デフォルト:1.0) | +| `double_blocks.16.` | FLOAT | はい | 0.0 ~ 1.0 | ダブルブロック 16 の補間ウェイト(デフォルト:1.0) | +| `double_blocks.17.` | FLOAT | はい | 0.0 ~ 1.0 | ダブルブロック 17 の補間ウェイト(デフォルト:1.0) | +| `double_blocks.18.` | FLOAT | はい | 0.0 ~ 1.0 | ダブルブロック 18 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.0.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 0 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.1.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 1 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.2.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 2 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.3.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 3 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.4.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 4 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.5.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 5 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.6.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 6 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.7.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 7 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.8.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 8 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.9.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 9 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.10.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 10 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.11.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 11 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.12.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 12 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.13.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 13 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.14.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 14 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.15.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 15 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.16.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 16 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.17.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 17 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.18.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 18 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.19.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 19 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.20.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 20 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.21.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 21 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.22.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 22 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.23.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 23 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.24.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 24 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.25.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 25 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.26.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 26 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.27.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 27 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.28.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 28 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.29.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 29 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.30.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 30 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.31.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 31 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.32.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 32 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.33.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 33 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.34.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 34 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.35.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 35 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.36.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 36 の補間ウェイト(デフォルト:1.0) | +| `single_blocks.37.` | FLOAT | はい | 0.0 ~ 1.0 | シングルブロック 37 の補間ウェイト(デフォルト:1.0) | +| `final_layer.` | FLOAT | はい | 0.0 ~ 1.0 | 最終層の補間ウェイト(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `model` | MODEL | 2つの入力モデルの特徴を統合したマージ済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelMergeLTXV.mdx b/ja/built-in-nodes/ModelMergeLTXV.mdx new file mode 100644 index 000000000..4e574cc9e --- /dev/null +++ b/ja/built-in-nodes/ModelMergeLTXV.mdx @@ -0,0 +1,60 @@ +--- +title: "ModelMergeLTXV - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ModelMergeLTXV ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelMergeLTXV" +icon: "circle" +mode: wide +translationSourceHash: 13075257 +translationFrom: built-in-nodes/ModelMergeLTXV.mdx, zh-CN/built-in-nodes/ModelMergeLTXV.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案がありましたら、ぜひ貢献してください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelMergeLTXV/en.md) + +ModelMergeLTXV ノードは、LTXV モデルアーキテクチャ専用に設計された高度なモデル統合処理を実行します。このノードでは、トランスフォーマーブロック、投影層、その他の特殊化されたモジュールなど、さまざまなモデル構成要素に対して補間重みを調整することで、2つの異なるモデルを融合させることができます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model1` | MODEL | はい | - | 統合する最初のモデル | +| `model2` | MODEL | はい | - | 統合する2番目のモデル | +| `patchify_proj.` | FLOAT | はい | 0.0 - 1.0 | パッチ化投影層の補間重み(デフォルト:1.0) | +| `adaln_single.` | FLOAT | はい | 0.0 - 1.0 | アダプティブ層正規化(単一層)の補間重み(デフォルト:1.0) | +| `caption_projection.` | FLOAT | はい | 0.0 - 1.0 | キャプション投影層の補間重み(デフォルト:1.0) | +| `transformer_blocks.0.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 0 の補間重み(デフォルト:1.0) | +| `transformer_blocks.1.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 1 の補間重み(デフォルト:1.0) | +| `transformer_blocks.2.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 2 の補間重み(デフォルト:1.0) | +| `transformer_blocks.3.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 3 の補間重み(デフォルト:1.0) | +| `transformer_blocks.4.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 4 の補間重み(デフォルト:1.0) | +| `transformer_blocks.5.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 5 の補間重み(デフォルト:1.0) | +| `transformer_blocks.6.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 6 の補間重み(デフォルト:1.0) | +| `transformer_blocks.7.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 7 の補間重み(デフォルト:1.0) | +| `transformer_blocks.8.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 8 の補間重み(デフォルト:1.0) | +| `transformer_blocks.9.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 9 の補間重み(デフォルト:1.0) | +| `transformer_blocks.10.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 10 の補間重み(デフォルト:1.0) | +| `transformer_blocks.11.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 11 の補間重み(デフォルト:1.0) | +| `transformer_blocks.12.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 12 の補間重み(デフォルト:1.0) | +| `transformer_blocks.13.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 13 の補間重み(デフォルト:1.0) | +| `transformer_blocks.14.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 14 の補間重み(デフォルト:1.0) | +| `transformer_blocks.15.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 15 の補間重み(デフォルト:1.0) | +| `transformer_blocks.16.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 16 の補間重み(デフォルト:1.0) | +| `transformer_blocks.17.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 17 の補間重み(デフォルト:1.0) | +| `transformer_blocks.18.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 18 の補間重み(デフォルト:1.0) | +| `transformer_blocks.19.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 19 の補間重み(デフォルト:1.0) | +| `transformer_blocks.20.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 20 の補間重み(デフォルト:1.0) | +| `transformer_blocks.21.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 21 の補間重み(デフォルト:1.0) | +| `transformer_blocks.22.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 22 の補間重み(デフォルト:1.0) | +| `transformer_blocks.23.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 23 の補間重み(デフォルト:1.0) | +| `transformer_blocks.24.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 24 の補間重み(デフォルト:1.0) | +| `transformer_blocks.25.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 25 の補間重み(デフォルト:1.0) | +| `transformer_blocks.26.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 26 の補間重み(デフォルト:1.0) | +| `transformer_blocks.27.` | FLOAT | はい | 0.0 - 1.0 | トランスフォーマーブロック 27 の補間重み(デフォルト:1.0) | +| `scale_shift_table` | FLOAT | はい | 0.0 - 1.0 | スケール・シフトテーブルの補間重み(デフォルト:1.0) | +| `proj_out.` | FLOAT | はい | 0.0 - 1.0 | 投影出力層の補間重み(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 指定された補間重みに基づき、2つの入力モデルの特徴を統合した融合モデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelMergeMochiPreview.mdx b/ja/built-in-nodes/ModelMergeMochiPreview.mdx new file mode 100644 index 000000000..0a97628bc --- /dev/null +++ b/ja/built-in-nodes/ModelMergeMochiPreview.mdx @@ -0,0 +1,80 @@ +--- +title: "ModelMergeMochiPreview - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ModelMergeMochiPreview ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelMergeMochiPreview" +icon: "circle" +mode: wide +translationSourceHash: 5f756b9e +translationFrom: built-in-nodes/ModelMergeMochiPreview.mdx, zh-CN/built-in-nodes/ModelMergeMochiPreview.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください![GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelMergeMochiPreview/en.md) + +このノードは、ブロック単位のアプローチを用いて2つのAIモデルを統合し、位置エンコーディング(位置周波数)、埋め込み層、個々のTransformerブロックなど、さまざまなモデル構成要素に対して細かい制御を可能にします。ユーザーは、これらの特定の構成要素に対する補間重みを調整することで、モデル同士を混合できます。統合処理では、指定された重み値に基づき、2つの入力モデルのアーキテクチャおよびパラメーターが組み合わされます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model1` | MODEL | はい | - | 統合対象となる最初のモデル | +| `model2` | MODEL | はい | - | 統合対象となる2番目のモデル | +| `pos_frequencies.` | FLOAT | はい | 0.0 - 1.0 | 位置周波数の補間重み(デフォルト:1.0) | +| `t_embedder.` | FLOAT | はい | 0.0 - 1.0 | 時間埋め込み層(time embedder)の補間重み(デフォルト:1.0) | +| `t5_y_embedder.` | FLOAT | はい | 0.0 - 1.0 | T5-Y 埋め込み層の補間重み(デフォルト:1.0) | +| `t5_yproj.` | FLOAT | はい | 0.0 - 1.0 | T5-Y 投影層の補間重み(デフォルト:1.0) | +| `blocks.0.` | FLOAT | はい | 0.0 - 1.0 | ブロック0の補間重み(デフォルト:1.0) | +| `blocks.1.` | FLOAT | はい | 0.0 - 1.0 | ブロック1の補間重み(デフォルト:1.0) | +| `blocks.2.` | FLOAT | はい | 0.0 - 1.0 | ブロック2の補間重み(デフォルト:1.0) | +| `blocks.3.` | FLOAT | はい | 0.0 - 1.0 | ブロック3の補間重み(デフォルト:1.0) | +| `blocks.4.` | FLOAT | はい | 0.0 - 1.0 | ブロック4の補間重み(デフォルト:1.0) | +| `blocks.5.` | FLOAT | はい | 0.0 - 1.0 | ブロック5の補間重み(デフォルト:1.0) | +| `blocks.6.` | FLOAT | はい | 0.0 - 1.0 | ブロック6の補間重み(デフォルト:1.0) | +| `blocks.7.` | FLOAT | はい | 0.0 - 1.0 | ブロック7の補間重み(デフォルト:1.0) | +| `blocks.8.` | FLOAT | はい | 0.0 - 1.0 | ブロック8の補間重み(デフォルト:1.0) | +| `blocks.9.` | FLOAT | はい | 0.0 - 1.0 | ブロック9の補間重み(デフォルト:1.0) | +| `blocks.10.` | FLOAT | はい | 0.0 - 1.0 | ブロック10の補間重み(デフォルト:1.0) | +| `blocks.11.` | FLOAT | はい | 0.0 - 1.0 | ブロック11の補間重み(デフォルト:1.0) | +| `blocks.12.` | FLOAT | はい | 0.0 - 1.0 | ブロック12の補間重み(デフォルト:1.0) | +| `blocks.13.` | FLOAT | はい | 0.0 - 1.0 | ブロック13の補間重み(デフォルト:1.0) | +| `blocks.14.` | FLOAT | はい | 0.0 - 1.0 | ブロック14の補間重み(デフォルト:1.0) | +| `blocks.15.` | FLOAT | はい | 0.0 - 1.0 | ブロック15の補間重み(デフォルト:1.0) | +| `blocks.16.` | FLOAT | はい | 0.0 - 1.0 | ブロック16の補間重み(デフォルト:1.0) | +| `blocks.17.` | FLOAT | はい | 0.0 - 1.0 | ブロック17の補間重み(デフォルト:1.0) | +| `blocks.18.` | FLOAT | はい | 0.0 - 1.0 | ブロック18の補間重み(デフォルト:1.0) | +| `blocks.19.` | FLOAT | はい | 0.0 - 1.0 | ブロック19の補間重み(デフォルト:1.0) | +| `blocks.20.` | FLOAT | はい | 0.0 - 1.0 | ブロック20の補間重み(デフォルト:1.0) | +| `blocks.21.` | FLOAT | はい | 0.0 - 1.0 | ブロック21の補間重み(デフォルト:1.0) | +| `blocks.22.` | FLOAT | はい | 0.0 - 1.0 | ブロック22の補間重み(デフォルト:1.0) | +| `blocks.23.` | FLOAT | はい | 0.0 - 1.0 | ブロック23の補間重み(デフォルト:1.0) | +| `blocks.24.` | FLOAT | はい | 0.0 - 1.0 | ブロック24の補間重み(デフォルト:1.0) | +| `blocks.25.` | FLOAT | はい | 0.0 - 1.0 | ブロック25の補間重み(デフォルト:1.0) | +| `blocks.26.` | FLOAT | はい | 0.0 - 1.0 | ブロック26の補間重み(デフォルト:1.0) | +| `blocks.27.` | FLOAT | はい | 0.0 - 1.0 | ブロック27の補間重み(デフォルト:1.0) | +| `blocks.28.` | FLOAT | はい | 0.0 - 1.0 | ブロック28の補間重み(デフォルト:1.0) | +| `blocks.29.` | FLOAT | はい | 0.0 - 1.0 | ブロック29の補間重み(デフォルト:1.0) | +| `blocks.30.` | FLOAT | はい | 0.0 - 1.0 | ブロック30の補間重み(デフォルト:1.0) | +| `blocks.31.` | FLOAT | はい | 0.0 - 1.0 | ブロック31の補間重み(デフォルト:1.0) | +| `blocks.32.` | FLOAT | はい | 0.0 - 1.0 | ブロック32の補間重み(デフォルト:1.0) | +| `blocks.33.` | FLOAT | はい | 0.0 - 1.0 | ブロック33の補間重み(デフォルト:1.0) | +| `blocks.34.` | FLOAT | はい | 0.0 - 1.0 | ブロック34の補間重み(デフォルト:1.0) | +| `blocks.35.` | FLOAT | はい | 0.0 - 1.0 | ブロック35の補間重み(デフォルト:1.0) | +| `blocks.36.` | FLOAT | はい | 0.0 - 1.0 | ブロック36の補間重み(デフォルト:1.0) | +| `blocks.37.` | FLOAT | はい | 0.0 - 1.0 | ブロック37の補間重み(デフォルト:1.0) | +| `blocks.38.` | FLOAT | はい | 0.0 - 1.0 | ブロック38の補間重み(デフォルト:1.0) | +| `blocks.39.` | FLOAT | はい | 0.0 - 1.0 | ブロック39の補間重み(デフォルト:1.0) | +| `blocks.40.` | FLOAT | はい | 0.0 - 1.0 | ブロック40の補間重み(デフォルト:1.0) | +| `blocks.41.` | FLOAT | はい | 0.0 - 1.0 | ブロック41の補間重み(デフォルト:1.0) | +| `blocks.42.` | FLOAT | はい | 0.0 - 1.0 | ブロック42の補間重み(デフォルト:1.0) | +| `blocks.43.` | FLOAT | はい | 0.0 - 1.0 | ブロック43の補間重み(デフォルト:1.0) | +| `blocks.44.` | FLOAT | はい | 0.0 - 1.0 | ブロック44の補間重み(デフォルト:1.0) | +| `blocks.45.` | FLOAT | はい | 0.0 - 1.0 | ブロック45の補間重み(デフォルト:1.0) | +| `blocks.46.` | FLOAT | はい | 0.0 - 1.0 | ブロック46の補間重み(デフォルト:1.0) | +| `blocks.47.` | FLOAT | はい | 0.0 - 1.0 | ブロック47の補間重み(デフォルト:1.0) | +| `final_layer.` | FLOAT | はい | 0.0 - 1.0 | 最終層の補間重み(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 指定された重みに基づき、2つの入力モデルの特徴を統合した融合モデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelMergeQwenImage.mdx b/ja/built-in-nodes/ModelMergeQwenImage.mdx new file mode 100644 index 000000000..ef1645e5d --- /dev/null +++ b/ja/built-in-nodes/ModelMergeQwenImage.mdx @@ -0,0 +1,34 @@ +--- +title: "ModelMergeQwenImage - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ModelMergeQwenImage ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelMergeQwenImage" +icon: "circle" +mode: wide +translationSourceHash: a64edbf8 +translationFrom: built-in-nodes/ModelMergeQwenImage.mdx, zh-CN/built-in-nodes/ModelMergeQwenImage.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelMergeQwenImage/en.md) + +ModelMergeQwenImage ノードは、2つのAIモデルを、調整可能な重みでそれらのコンポーネントを組み合わせることによりマージします。これにより、Qwen画像モデルの特定の部分(Transformerブロック、位置エンベッディング、テキスト処理コンポーネントなど)を混合することが可能です。また、各モデルがマージ結果の異なるセクションに与える影響度を制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model1` | MODEL | はい | - | マージする最初のモデル(デフォルト:なし) | +| `model2` | MODEL | はい | - | マージする2番目のモデル(デフォルト:なし) | +| `pos_embeds.` | FLOAT | はい | 0.0 ~ 1.0 | 位置エンベッディングの混合における重み(デフォルト:1.0) | +| `img_in.` | FLOAT | はい | 0.0 ~ 1.0 | 画像入力処理の混合における重み(デフォルト:1.0) | +| `txt_norm.` | FLOAT | はい | 0.0 ~ 1.0 | テキスト正規化の混合における重み(デフォルト:1.0) | +| `txt_in.` | FLOAT | はい | 0.0 ~ 1.0 | テキスト入力処理の混合における重み(デフォルト:1.0) | +| `time_text_embed.` | FLOAT | はい | 0.0 ~ 1.0 | 時間およびテキストエンベッディングの混合における重み(デフォルト:1.0) | +| `transformer_blocks.0.` ~ `transformer_blocks.59.` | FLOAT | はい | 0.0 ~ 1.0 | 各Transformerブロックの混合における重み(デフォルト:1.0) | +| `proj_out.` | FLOAT | はい | 0.0 ~ 1.0 | 出力プロジェクションの混合における重み(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 指定された重みで2つの入力モデルのコンポーネントを統合した、マージ済みのモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelMergeSD1.mdx b/ja/built-in-nodes/ModelMergeSD1.mdx new file mode 100644 index 000000000..7bb48f010 --- /dev/null +++ b/ja/built-in-nodes/ModelMergeSD1.mdx @@ -0,0 +1,57 @@ +--- +title: "ModelMergeSD1 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ModelMergeSD1 ノードに関する完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "ModelMergeSD1" +icon: "circle" +mode: wide +translationSourceHash: 5465d99f +translationFrom: built-in-nodes/ModelMergeSD1.mdx, zh-CN/built-in-nodes/ModelMergeSD1.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelMergeSD1/en.md) + +ModelMergeSD1 ノードは、異なるモデルコンポーネントの影響度を調整することで、2つの Stable Diffusion 1.x モデルを融合させる機能を提供します。このノードでは、タイムエンベッディング(時間埋め込み)、ラベルエンベッディング(ラベル埋め込み)、およびすべての入力ブロック、中間ブロック、出力ブロックそれぞれに対して個別に制御が可能であり、特定のユースケースに応じた微調整可能なモデル融合を実現します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model1` | MODEL | はい | - | 融合する最初のモデル | +| `model2` | MODEL | はい | - | 融合する2番目のモデル | +| `time_embed.` | FLOAT | はい | 0.0 - 1.0 | タイムエンベッディング層の融合重み(デフォルト:1.0) | +| `label_emb.` | FLOAT | はい | 0.0 - 1.0 | ラベルエンベッディング層の融合重み(デフォルト:1.0) | +| `input_blocks.0.` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 0 の融合重み(デフォルト:1.0) | +| `input_blocks.1.` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 1 の融合重み(デフォルト:1.0) | +| `input_blocks.2.` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 2 の融合重み(デフォルト:1.0) | +| `input_blocks.3.` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 3 の融合重み(デフォルト:1.0) | +| `input_blocks.4.` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 4 の融合重み(デフォルト:1.0) | +| `input_blocks.5.` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 5 の融合重み(デフォルト:1.0) | +| `input_blocks.6.` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 6 の融合重み(デフォルト:1.0) | +| `input_blocks.7.` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 7 の融合重み(デフォルト:1.0) | +| `input_blocks.8.` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 8 の融合重み(デフォルト:1.0) | +| `input_blocks.9.` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 9 の融合重み(デフォルト:1.0) | +| `input_blocks.10.` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 10 の融合重み(デフォルト:1.0) | +| `input_blocks.11.` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 11 の融合重み(デフォルト:1.0) | +| `middle_block.0.` | FLOAT | はい | 0.0 - 1.0 | 中間ブロック 0 の融合重み(デフォルト:1.0) | +| `middle_block.1.` | FLOAT | はい | 0.0 - 1.0 | 中間ブロック 1 の融合重み(デフォルト:1.0) | +| `middle_block.2.` | FLOAT | はい | 0.0 - 1.0 | 中間ブロック 2 の融合重み(デフォルト:1.0) | +| `output_blocks.0.` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 0 の融合重み(デフォルト:1.0) | +| `output_blocks.1.` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 1 の融合重み(デフォルト:1.0) | +| `output_blocks.2.` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 2 の融合重み(デフォルト:1.0) | +| `output_blocks.3.` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 3 の融合重み(デフォルト:1.0) | +| `output_blocks.4.` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 4 の融合重み(デフォルト:1.0) | +| `output_blocks.5.` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 5 の融合重み(デフォルト:1.0) | +| `output_blocks.6.` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 6 の融合重み(デフォルト:1.0) | +| `output_blocks.7.` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 7 の融合重み(デフォルト:1.0) | +| `output_blocks.8.` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 8 の融合重み(デフォルト:1.0) | +| `output_blocks.9.` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 9 の融合重み(デフォルト:1.0) | +| `output_blocks.10.` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 10 の融合重み(デフォルト:1.0) | +| `output_blocks.11.` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 11 の融合重み(デフォルト:1.0) | +| `out.` | FLOAT | はい | 0.0 - 1.0 | 出力層の融合重み(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `MODEL` | MODEL | 2つの入力モデルの特徴を統合した融合モデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelMergeSD35_Large.mdx b/ja/built-in-nodes/ModelMergeSD35_Large.mdx new file mode 100644 index 000000000..da0b07b12 --- /dev/null +++ b/ja/built-in-nodes/ModelMergeSD35_Large.mdx @@ -0,0 +1,73 @@ +--- +title: "ModelMergeSD35_Large - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ModelMergeSD35_Large ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelMergeSD35_Large" +icon: "circle" +mode: wide +translationSourceHash: 174be26d +translationFrom: built-in-nodes/ModelMergeSD35_Large.mdx, zh-CN/built-in-nodes/ModelMergeSD35_Large.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHubで編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelMergeSD35_Large/en.md) + +ModelMergeSD35_Large ノードを使用すると、異なるモデルコンポーネントの影響度を調整することで、2つの Stable Diffusion 3.5 Large モデルを融合させることができます。このノードでは、埋め込み層(embedding layers)から結合ブロック(joint blocks)、最終層(final layer)に至るまで、第2のモデルの各コンポーネントが最終的な融合モデルにどれだけ寄与するかを精密に制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model1` | MODEL | はい | - | 統合の基盤となるベースモデル | +| `model2` | MODEL | はい | - | そのコンポーネントがベースモデルに融合される補助モデル | +| `pos_embed.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の位置埋め込み(position embedding)のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `x_embedder.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の x 埋め込み器(x embedder)のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `context_embedder.` | FLOAT | はい | 0.0 ~ 1.0 | model2 のコンテキスト埋め込み器(context embedder)のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `y_embedder.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の y 埋め込み器(y embedder)のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `t_embedder.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の t 埋め込み器(t embedder)のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.0.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 0 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.1.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 1 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.2.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 2 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.3.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 3 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.4.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 4 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.5.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 5 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.6.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 6 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.7.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 7 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.8.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 8 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.9.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 9 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.10.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 10 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.11.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 11 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.12.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 12 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.13.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 13 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.14.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 14 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.15.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 15 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.16.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 16 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.17.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 17 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.18.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 18 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.19.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 19 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.20.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 20 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.21.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 21 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.22.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 22 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.23.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 23 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.24.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 24 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.25.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 25 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.26.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 26 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.27.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 27 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.28.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 28 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.29.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 29 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.30.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 30 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.31.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 31 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.32.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 32 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.33.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 33 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.34.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 34 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.35.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 35 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.36.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 36 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `joint_blocks.37.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の結合ブロック 37 のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | +| `final_layer.` | FLOAT | はい | 0.0 ~ 1.0 | model2 の最終層のうち、融合モデルに取り込まれる割合を制御します(デフォルト:1.0) | + +**注意:** すべてのブレンドパラメーターは 0.0 ~ 1.0 の値を受け付けます。0.0 は当該コンポーネントにおいて model2 の寄与がないことを意味し、1.0 は当該コンポーネントにおいて model2 を完全に使用することを意味します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 指定されたブレンドパラメーターに基づき、2つの入力モデルの特徴を統合した結果の融合モデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelMergeSD3_2B.mdx b/ja/built-in-nodes/ModelMergeSD3_2B.mdx new file mode 100644 index 000000000..14c10ea4d --- /dev/null +++ b/ja/built-in-nodes/ModelMergeSD3_2B.mdx @@ -0,0 +1,57 @@ +--- +title: "ModelMergeSD3_2B - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ModelMergeSD3_2B ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelMergeSD3_2B" +icon: "circle" +mode: wide +translationSourceHash: 2b73c9d1 +translationFrom: built-in-nodes/ModelMergeSD3_2B.mdx, zh-CN/built-in-nodes/ModelMergeSD3_2B.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelMergeSD3_2B/en.md) + +ModelMergeSD3_2B ノードを使用すると、2つの Stable Diffusion 3 2B モデルのコンポーネントを調整可能な重みでブレンドすることで、それらをマージできます。このノードは、埋め込み層(embedding layers)およびトランスフォーマー・ブロック(transformer blocks)に対して個別に制御を提供するため、専門的な生成タスク向けに微調整されたモデルの組み合わせが可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model1` | MODEL | はい | - | マージする最初のモデル | +| `model2` | MODEL | はい | - | マージする2番目のモデル | +| `pos_embed.` | FLOAT | はい | 0.0 - 1.0 | 位置埋め込み(position embedding)の補間重み(デフォルト:1.0) | +| `x_embedder.` | FLOAT | はい | 0.0 - 1.0 | 入力埋め込み(input embedding)の補間重み(デフォルト:1.0) | +| `context_embedder.` | FLOAT | はい | 0.0 - 1.0 | コンテキスト埋め込み(context embedding)の補間重み(デフォルト:1.0) | +| `y_embedder.` | FLOAT | はい | 0.0 - 1.0 | Y 埋め込み(Y embedding)の補間重み(デフォルト:1.0) | +| `t_embedder.` | FLOAT | はい | 0.0 - 1.0 | 時間埋め込み(time embedding)の補間重み(デフォルト:1.0) | +| `joint_blocks.0.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 0 の補間重み(デフォルト:1.0) | +| `joint_blocks.1.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 1 の補間重み(デフォルト:1.0) | +| `joint_blocks.2.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 2 の補間重み(デフォルト:1.0) | +| `joint_blocks.3.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 3 の補間重み(デフォルト:1.0) | +| `joint_blocks.4.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 4 の補間重み(デフォルト:1.0) | +| `joint_blocks.5.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 5 の補間重み(デフォルト:1.0) | +| `joint_blocks.6.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 6 の補間重み(デフォルト:1.0) | +| `joint_blocks.7.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 7 の補間重み(デフォルト:1.0) | +| `joint_blocks.8.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 8 の補間重み(デフォルト:1.0) | +| `joint_blocks.9.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 9 の補間重み(デフォルト:1.0) | +| `joint_blocks.10.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 10 の補間重み(デフォルト:1.0) | +| `joint_blocks.11.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 11 の補間重み(デフォルト:1.0) | +| `joint_blocks.12.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 12 の補間重み(デフォルト:1.0) | +| `joint_blocks.13.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 13 の補間重み(デフォルト:1.0) | +| `joint_blocks.14.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 14 の補間重み(デフォルト:1.0) | +| `joint_blocks.15.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 15 の補間重み(デフォルト:1.0) | +| `joint_blocks.16.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 16 の補間重み(デフォルト:1.0) | +| `joint_blocks.17.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 17 の補間重み(デフォルト:1.0) | +| `joint_blocks.18.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 18 の補間重み(デフォルト:1.0) | +| `joint_blocks.19.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 19 の補間重み(デフォルト:1.0) | +| `joint_blocks.20.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 20 の補間重み(デフォルト:1.0) | +| `joint_blocks.21.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 21 の補間重み(デフォルト:1.0) | +| `joint_blocks.22.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 22 の補間重み(デフォルト:1.0) | +| `joint_blocks.23.` | FLOAT | はい | 0.0 - 1.0 | ジョイント・ブロック 23 の補間重み(デフォルト:1.0) | +| `final_layer.` | FLOAT | はい | 0.0 - 1.0 | 最終層(final layer)の補間重み(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 2つの入力モデルの特徴を統合したマージ済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelMergeSDXL.mdx b/ja/built-in-nodes/ModelMergeSDXL.mdx new file mode 100644 index 000000000..ff87a5ddc --- /dev/null +++ b/ja/built-in-nodes/ModelMergeSDXL.mdx @@ -0,0 +1,51 @@ +--- +title: "ModelMergeSDXL - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ModelMergeSDXL ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelMergeSDXL" +icon: "circle" +mode: wide +translationSourceHash: 2ba66782 +translationFrom: built-in-nodes/ModelMergeSDXL.mdx, zh-CN/built-in-nodes/ModelMergeSDXL.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelMergeSDXL/en.md) + +ModelMergeSDXL ノードを使用すると、アーキテクチャ内の異なる部分における各モデルの影響度を調整することで、2つの SDXL モデルを融合させることができます。時間埋め込み(time embedding)、ラベル埋め込み(label embedding)、およびモデル構造内のさまざまなブロックに対して、それぞれのモデルがどの程度寄与するかを制御できます。これにより、両方の入力モデルの特性を組み合わせたハイブリッドモデルが作成されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model1` | MODEL | はい | - | マージする最初の SDXL モデル | +| `model2` | MODEL | はい | - | マージする2番目の SDXL モデル | +| `time_embed.` | FLOAT | はい | 0.0 - 1.0 | 時間埋め込み層のブレンド重み(デフォルト:1.0) | +| `label_emb.` | FLOAT | はい | 0.0 - 1.0 | ラベル埋め込み層のブレンド重み(デフォルト:1.0) | +| `input_blocks.0` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 0 のブレンド重み(デフォルト:1.0) | +| `input_blocks.1` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 1 のブレンド重み(デフォルト:1.0) | +| `input_blocks.2` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 2 のブレンド重み(デフォルト:1.0) | +| `input_blocks.3` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 3 のブレンド重み(デフォルト:1.0) | +| `input_blocks.4` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 4 のブレンド重み(デフォルト:1.0) | +| `input_blocks.5` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 5 のブレンド重み(デフォルト:1.0) | +| `input_blocks.6` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 6 のブレンド重み(デフォルト:1.0) | +| `input_blocks.7` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 7 のブレンド重み(デフォルト:1.0) | +| `input_blocks.8` | FLOAT | はい | 0.0 - 1.0 | 入力ブロック 8 のブレンド重み(デフォルト:1.0) | +| `middle_block.0` | FLOAT | はい | 0.0 - 1.0 | 中間ブロック 0 のブレンド重み(デフォルト:1.0) | +| `middle_block.1` | FLOAT | はい | 0.0 - 1.0 | 中間ブロック 1 のブレンド重み(デフォルト:1.0) | +| `middle_block.2` | FLOAT | はい | 0.0 - 1.0 | 中間ブロック 2 のブレンド重み(デフォルト:1.0) | +| `output_blocks.0` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 0 のブレンド重み(デフォルト:1.0) | +| `output_blocks.1` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 1 のブレンド重み(デフォルト:1.0) | +| `output_blocks.2` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 2 のブレンド重み(デフォルト:1.0) | +| `output_blocks.3` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 3 のブレンド重み(デフォルト:1.0) | +| `output_blocks.4` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 4 のブレンド重み(デフォルト:1.0) | +| `output_blocks.5` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 5 のブレンド重み(デフォルト:1.0) | +| `output_blocks.6` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 6 のブレンド重み(デフォルト:1.0) | +| `output_blocks.7` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 7 のブレンド重み(デフォルト:1.0) | +| `output_blocks.8` | FLOAT | はい | 0.0 - 1.0 | 出力ブロック 8 のブレンド重み(デフォルト:1.0) | +| `out.` | FLOAT | はい | 0.0 - 1.0 | 出力層のブレンド重み(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 2つの入力モデルの特性を統合した SDXL モデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelMergeSimple.mdx b/ja/built-in-nodes/ModelMergeSimple.mdx new file mode 100644 index 000000000..b07b6e48e --- /dev/null +++ b/ja/built-in-nodes/ModelMergeSimple.mdx @@ -0,0 +1,26 @@ +--- +title: "ModelMergeSimple - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ModelMergeSimple ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelMergeSimple" +icon: "circle" +mode: wide +translationSourceHash: 126b2be4 +translationFrom: built-in-nodes/ModelMergeSimple.mdx, zh-CN/built-in-nodes/ModelMergeSimple.mdx +--- +ModelMergeSimple ノードは、指定された比率に基づいて2つのモデルのパラメーターをブレンドすることで、それらを統合するように設計されています。このノードにより、両方の入力モデルの長所や特徴を組み合わせたハイブリッドモデルを作成できます。 + +`ratio` パラメーターは、2つのモデル間のブレンド比率を決定します。この値が 1 の場合、出力モデルは 100% `model1` となり、値が 0 の場合、出力モデルは 100% `model2` となります。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `model1` | `MODEL` | 統合される最初のモデルです。これはベースモデルとして機能し、2番目のモデルのパッチがこの上に適用されます。 | +| `model2` | `MODEL` | そのパッチが最初のモデルに適用される2番目のモデルで、指定された比率の影響を受けます。 | +| `ratio` | `FLOAT` | この値が 1 の場合、出力モデルは 100% `model1` となり、値が 0 の場合、出力モデルは 100% `model2` となります。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `model` | MODEL | 指定された比率に従って、両方の入力モデルの要素を統合した結果の統合モデルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelMergeSubtract.mdx b/ja/built-in-nodes/ModelMergeSubtract.mdx new file mode 100644 index 000000000..f8c47396d --- /dev/null +++ b/ja/built-in-nodes/ModelMergeSubtract.mdx @@ -0,0 +1,25 @@ +--- +title: "ModelMergeSubtract - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ModelMergeSubtract ノードの完全なドキュメントです。入力、出力、パラメータおよび使用方法について学びましょう。" +sidebarTitle: "ModelMergeSubtract" +icon: "circle" +mode: wide +translationSourceHash: 7bda6a47 +translationFrom: built-in-nodes/ModelMergeSubtract.mdx, zh-CN/built-in-nodes/ModelMergeSubtract.mdx +--- + +このノードは、高度なモデル融合操作を目的として設計されており、特に指定された乗数に基づいて、あるモデルのパラメータを別のモデルから減算します。これにより、あるモデルのパラメータが他のモデルに与える影響を調整することで、モデルの動作をカスタマイズし、新しいハイブリッドモデルの作成を容易にします。 + +## 入力 + +| パラメータ | データ型 | 説明 | +|----------------|-----------|------| +| `model1` | `MODEL` | パラメータが減算される基盤となるモデルです。 | +| `model2` | `MODEL` | そのパラメータが基盤モデルから減算されるモデルです。 | +| `multiplier` | `FLOAT` | 基盤モデルのパラメータに対する減算効果をスケーリングする浮動小数点値です。 | + +## 出力 + +| パラメータ | データ型 | 説明 | +|------------|-----------|------| +| `model` | `MODEL` | あるモデルのパラメータを減算し、乗数でスケーリングした結果得られるモデルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelMergeWAN2_1.mdx b/ja/built-in-nodes/ModelMergeWAN2_1.mdx new file mode 100644 index 000000000..ff24dc094 --- /dev/null +++ b/ja/built-in-nodes/ModelMergeWAN2_1.mdx @@ -0,0 +1,75 @@ +--- +title: "ModelMergeWAN2_1 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ModelMergeWAN2_1 ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelMergeWAN2_1" +icon: "circle" +mode: wide +translationSourceHash: 03a54ffe +translationFrom: built-in-nodes/ModelMergeWAN2_1.mdx, zh-CN/built-in-nodes/ModelMergeWAN2_1.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelMergeWAN2_1/en.md) + +ModelMergeWAN2_1 ノードは、重み付き平均を用いて 2 つのモデルのコンポーネントをブレンドすることで、それらを統合します。このノードは、30 個のブロックを持つ 1.3B モデルや、40 個のブロックを持つ 14B モデルなど、さまざまな規模のモデルをサポートしており、画像から動画へ変換するモデル(image-to-video モデル)に対しては、追加の画像埋め込み(image embedding)コンポーネントを特別に処理します。各モデルのコンポーネントには個別に重みを設定でき、これにより 2 つの入力モデル間のブレンド比率を制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model1` | MODEL | はい | - | 統合する最初のモデル | +| `model2` | MODEL | はい | - | 統合する 2 番目のモデル | +| `patch_embedding.` | FLOAT | はい | 0.0 - 1.0 | パッチ埋め込み(patch embedding)コンポーネントの重み(デフォルト:1.0) | +| `time_embedding.` | FLOAT | はい | 0.0 - 1.0 | 時間埋め込み(time embedding)コンポーネントの重み(デフォルト:1.0) | +| `time_projection.` | FLOAT | はい | 0.0 - 1.0 | 時間射影(time projection)コンポーネントの重み(デフォルト:1.0) | +| `text_embedding.` | FLOAT | はい | 0.0 - 1.0 | テキスト埋め込み(text embedding)コンポーネントの重み(デフォルト:1.0) | +| `img_emb.` | FLOAT | はい | 0.0 - 1.0 | 画像埋め込み(image embedding)コンポーネントの重み(画像から動画へ変換するモデルで使用)(デフォルト:1.0) | +| `blocks.0.` | FLOAT | はい | 0.0 - 1.0 | ブロック 0 の重み(デフォルト:1.0) | +| `blocks.1.` | FLOAT | はい | 0.0 - 1.0 | ブロック 1 の重み(デフォルト:1.0) | +| `blocks.2.` | FLOAT | はい | 0.0 - 1.0 | ブロック 2 の重み(デフォルト:1.0) | +| `blocks.3.` | FLOAT | はい | 0.0 - 1.0 | ブロック 3 の重み(デフォルト:1.0) | +| `blocks.4.` | FLOAT | はい | 0.0 - 1.0 | ブロック 4 の重み(デフォルト:1.0) | +| `blocks.5.` | FLOAT | はい | 0.0 - 1.0 | ブロック 5 の重み(デフォルト:1.0) | +| `blocks.6.` | FLOAT | はい | 0.0 - 1.0 | ブロック 6 の重み(デフォルト:1.0) | +| `blocks.7.` | FLOAT | はい | 0.0 - 1.0 | ブロック 7 の重み(デフォルト:1.0) | +| `blocks.8.` | FLOAT | はい | 0.0 - 1.0 | ブロック 8 の重み(デフォルト:1.0) | +| `blocks.9.` | FLOAT | はい | 0.0 - 1.0 | ブロック 9 の重み(デフォルト:1.0) | +| `blocks.10.` | FLOAT | はい | 0.0 - 1.0 | ブロック 10 の重み(デフォルト:1.0) | +| `blocks.11.` | FLOAT | はい | 0.0 - 1.0 | ブロック 11 の重み(デフォルト:1.0) | +| `blocks.12.` | FLOAT | はい | 0.0 - 1.0 | ブロック 12 の重み(デフォルト:1.0) | +| `blocks.13.` | FLOAT | はい | 0.0 - 1.0 | ブロック 13 の重み(デフォルト:1.0) | +| `blocks.14.` | FLOAT | はい | 0.0 - 1.0 | ブロック 14 の重み(デフォルト:1.0) | +| `blocks.15.` | FLOAT | はい | 0.0 - 1.0 | ブロック 15 の重み(デフォルト:1.0) | +| `blocks.16.` | FLOAT | はい | 0.0 - 1.0 | ブロック 16 の重み(デフォルト:1.0) | +| `blocks.17.` | FLOAT | はい | 0.0 - 1.0 | ブロック 17 の重み(デフォルト:1.0) | +| `blocks.18.` | FLOAT | はい | 0.0 - 1.0 | ブロック 18 の重み(デフォルト:1.0) | +| `blocks.19.` | FLOAT | はい | 0.0 - 1.0 | ブロック 19 の重み(デフォルト:1.0) | +| `blocks.20.` | FLOAT | はい | 0.0 - 1.0 | ブロック 20 の重み(デフォルト:1.0) | +| `blocks.21.` | FLOAT | はい | 0.0 - 1.0 | ブロック 21 の重み(デフォルト:1.0) | +| `blocks.22.` | FLOAT | はい | 0.0 - 1.0 | ブロック 22 の重み(デフォルト:1.0) | +| `blocks.23.` | FLOAT | はい | 0.0 - 1.0 | ブロック 23 の重み(デフォルト:1.0) | +| `blocks.24.` | FLOAT | はい | 0.0 - 1.0 | ブロック 24 の重み(デフォルト:1.0) | +| `blocks.25.` | FLOAT | はい | 0.0 - 1.0 | ブロック 25 の重み(デフォルト:1.0) | +| `blocks.26.` | FLOAT | はい | 0.0 - 1.0 | ブロック 26 の重み(デフォルト:1.0) | +| `blocks.27.` | FLOAT | はい | 0.0 - 1.0 | ブロック 27 の重み(デフォルト:1.0) | +| `blocks.28.` | FLOAT | はい | 0.0 - 1.0 | ブロック 28 の重み(デフォルト:1.0) | +| `blocks.29.` | FLOAT | はい | 0.0 - 1.0 | ブロック 29 の重み(デフォルト:1.0) | +| `blocks.30.` | FLOAT | はい | 0.0 - 1.0 | ブロック 30 の重み(デフォルト:1.0) | +| `blocks.31.` | FLOAT | はい | 0.0 - 1.0 | ブロック 31 の重み(デフォルト:1.0) | +| `blocks.32.` | FLOAT | はい | 0.0 - 1.0 | ブロック 32 の重み(デフォルト:1.0) | +| `blocks.33.` | FLOAT | はい | 0.0 - 1.0 | ブロック 33 の重み(デフォルト:1.0) | +| `blocks.34.` | FLOAT | はい | 0.0 - 1.0 | ブロック 34 の重み(デフォルト:1.0) | +| `blocks.35.` | FLOAT | はい | 0.0 - 1.0 | ブロック 35 の重み(デフォルト:1.0) | +| `blocks.36.` | FLOAT | はい | 0.0 - 1.0 | ブロック 36 の重み(デフォルト:1.0) | +| `blocks.37.` | FLOAT | はい | 0.0 - 1.0 | ブロック 37 の重み(デフォルト:1.0) | +| `blocks.38.` | FLOAT | はい | 0.0 - 1.0 | ブロック 38 の重み(デフォルト:1.0) | +| `blocks.39.` | FLOAT | はい | 0.0 - 1.0 | ブロック 39 の重み(デフォルト:1.0) | +| `head.` | FLOAT | はい | 0.0 - 1.0 | ヘッド(head)コンポーネントの重み(デフォルト:1.0) | + +**注意:** すべての重みパラメーターは 0.0 ~ 1.0 の範囲で、ステップ幅は 0.01 です。このノードは最大 40 個のブロックをサポートしており、異なるモデルサイズに対応しています。具体的には、1.3B モデルでは 30 個のブロックが使用され、14B モデルでは 40 個のブロックが使用されます。`img_emb.` パラメーターは、画像から動画へ変換するモデル専用です。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 指定された重みに基づき、2 つの入力モデルのコンポーネントを統合して得られる融合モデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelPatchLoader.mdx b/ja/built-in-nodes/ModelPatchLoader.mdx new file mode 100644 index 000000000..faa1e6e01 --- /dev/null +++ b/ja/built-in-nodes/ModelPatchLoader.mdx @@ -0,0 +1,24 @@ +--- +title: "ModelPatchLoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ModelPatchLoader ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelPatchLoader" +icon: "circle" +mode: wide +translationSourceHash: 99fbe2b9 +translationFrom: built-in-nodes/ModelPatchLoader.mdx, zh-CN/built-in-nodes/ModelPatchLoader.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelPatchLoader/en.md) + +ModelPatchLoader ノードは、`model_patches` フォルダーから専用のモデルパッチを読み込みます。このノードはパッチファイルの種類を自動的に検出し、対応するモデルアーキテクチャを読み込んだ後、それを `ModelPatcher` でラップしてワークフロー内で利用できるようにします。このノードは、ControlNet ブロックや特徴量埋め込み器(feature embedder)モデルなど、さまざまなタイプのパッチをサポートしています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `name` | STRING | はい | `model_patches` フォルダー内のすべての利用可能なモデルパッチファイル | `model_patches` ディレクトリから読み込むモデルパッチのファイル名 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `MODEL_PATCH` | MODEL_PATCH | ワークフロー内で使用するために `ModelPatcher` でラップされた、読み込まれたモデルパッチ | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelSamplingAuraFlow.mdx b/ja/built-in-nodes/ModelSamplingAuraFlow.mdx new file mode 100644 index 000000000..0888bfd31 --- /dev/null +++ b/ja/built-in-nodes/ModelSamplingAuraFlow.mdx @@ -0,0 +1,27 @@ +--- +title: "ModelSamplingAuraFlow - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における ModelSamplingAuraFlow ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelSamplingAuraFlow" +icon: "circle" +mode: wide +translationSourceHash: 74932e09 +translationFrom: built-in-nodes/ModelSamplingAuraFlow.mdx, zh-CN/built-in-nodes/ModelSamplingAuraFlow.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelSamplingAuraFlow/en.md) + +ModelSamplingAuraFlow ノードは、拡散モデルに専用のサンプリング設定を適用するノードであり、特に AuraFlow モデルアーキテクチャ向けに設計されています。このノードは、サンプリング分布を調整するための「シフト(偏移)」パラメーターを適用することにより、モデルのサンプリング動作を変更します。本ノードは SD3 モデルのサンプリングフレームワークを継承しており、サンプリングプロセスに対してきめ細かな制御を提供します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | AuraFlow サンプリング設定を適用する対象の拡散モデル | +| `shift` | FLOAT | はい | 0.0 - 100.0 | サンプリング分布に適用するシフト値(デフォルト:1.73) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | AuraFlow サンプリング設定が適用された修正済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelSamplingContinuousEDM.mdx b/ja/built-in-nodes/ModelSamplingContinuousEDM.mdx new file mode 100644 index 000000000..2d5b46389 --- /dev/null +++ b/ja/built-in-nodes/ModelSamplingContinuousEDM.mdx @@ -0,0 +1,28 @@ +--- +title: "ModelSamplingContinuousEDM - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ModelSamplingContinuousEDM ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelSamplingContinuousEDM" +icon: "circle" +mode: wide +translationSourceHash: 7969979d +translationFrom: built-in-nodes/ModelSamplingContinuousEDM.mdx, zh-CN/built-in-nodes/ModelSamplingContinuousEDM.mdx +translationMismatches: + - "description" +--- + +このノードは、連続型 EDM(Energy-based Diffusion Models:エネルギー基盤の拡散モデル)サンプリング技術を統合することで、モデルのサンプリング性能を向上させることを目的としています。これにより、モデルのサンプリング処理におけるノイズレベルを動的に調整可能となり、生成品質および多様性に対するより精緻な制御が可能になります。 + +## 入力 + +| パラメーター | データ型 | Python dtype | 説明 | +|----------------|--------------|----------------------|------| +| `model` | `MODEL` | `torch.nn.Module` | 連続型 EDM サンプリング機能を付与する対象のモデルです。高度なサンプリング手法を適用するための基盤となります。 | +| `sampling` | COMBO[STRING] | `str` | 適用するサンプリング方式を指定します。「eps」(イプシロンサンプリング)または「v_prediction」(速度予測)のいずれかを選択でき、サンプリング中のモデル挙動に影響を与えます。 | +| `sigma_max` | `FLOAT` | `float` | ノイズレベルの最大シグマ値です。サンプリング時のノイズ注入プロセスにおける上限を制御できます。 | +| `sigma_min` | `FLOAT` | `float` | ノイズレベルの最小シグマ値です。ノイズ注入の下限を設定し、モデルのサンプリング精度に影響を与えます。 | + +## 出力 + +| パラメーター | データ型 | Python dtype | 説明 | +|------------|--------------|----------------------|------| +| `model` | MODEL | `torch.nn.Module` | 連続型 EDM サンプリング機能を統合した強化済みモデルです。今後の生成タスクでそのまま利用可能です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelSamplingContinuousV.mdx b/ja/built-in-nodes/ModelSamplingContinuousV.mdx new file mode 100644 index 000000000..6b273a692 --- /dev/null +++ b/ja/built-in-nodes/ModelSamplingContinuousV.mdx @@ -0,0 +1,29 @@ +--- +title: "ModelSamplingContinuousV - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ModelSamplingContinuousV ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelSamplingContinuousV" +icon: "circle" +mode: wide +translationSourceHash: c88d9bff +translationFrom: built-in-nodes/ModelSamplingContinuousV.mdx, zh-CN/built-in-nodes/ModelSamplingContinuousV.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelSamplingContinuousV/en.md) + +ModelSamplingContinuousV ノードは、連続 V-prediction(V予測)サンプリングパラメーターを適用することで、モデルのサンプリング動作を変更します。このノードは入力モデルのクローンを作成し、高度なサンプリング制御を実現するためにカスタムのシグマ(sigma)範囲設定で構成します。これにより、ユーザーは特定の最小および最大シグマ値を用いてサンプリングプロセスを微調整できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `model` | MODEL | はい | - | 連続 V-prediction サンプリングを適用して変更する入力モデル | +| `sampling` | STRING | はい | `"v_prediction"` | 適用するサンプリング手法(現時点では V-prediction のみ対応) | +| `sigma_max` | FLOAT | はい | 0.0 – 1000.0 | サンプリングにおける最大シグマ値(デフォルト:500.0) | +| `sigma_min` | FLOAT | はい | 0.0 – 1000.0 | サンプリングにおける最小シグマ値(デフォルト:0.03) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `model` | MODEL | 連続 V-prediction サンプリングが適用された変更済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelSamplingDiscrete.mdx b/ja/built-in-nodes/ModelSamplingDiscrete.mdx new file mode 100644 index 000000000..76c37dd32 --- /dev/null +++ b/ja/built-in-nodes/ModelSamplingDiscrete.mdx @@ -0,0 +1,25 @@ +--- +title: "ModelSamplingDiscrete - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ModelSamplingDiscrete ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelSamplingDiscrete" +icon: "circle" +mode: wide +translationSourceHash: 1a93d541 +translationFrom: built-in-nodes/ModelSamplingDiscrete.mdx, zh-CN/built-in-nodes/ModelSamplingDiscrete.mdx +--- + +このノードは、離散的(ディスクリート)なサンプリング戦略を適用することにより、モデルのサンプリング動作を変更するように設計されています。epsilon、v_prediction、lcm、x0 などの異なるサンプリング手法を選択可能であり、オプションでゼロショットノイズ比(zsnr)設定に基づいてモデルのノイズ低減戦略を調整できます。 + +## 入力 + +| パラメーター | データ型 | Python の dtype | 説明 | +|------------|----------|---------------------|------| +| `model` | MODEL | `torch.nn.Module` | 離散的サンプリング戦略を適用する対象のモデルです。このパラメーターは、変更を加える基盤となるモデルを定義するため、非常に重要です。 | +| `sampling` | COMBO[STRING] | `str` | モデルに適用する離散的サンプリング手法を指定します。選択した手法によって、モデルがサンプルを生成する方法が変わり、さまざまなサンプリング戦略を提供します。 | +| `zsnr` | `BOOLEAN` | `bool` | ブール型のフラグで、有効化するとゼロショットノイズ比に基づいてモデルのノイズ低減戦略を調整します。これにより、生成されるサンプルの品質や特性に影響を与えることがあります。 | + +## 出力 + +| パラメーター | データ型 | Python の dtype | 説明 | +|------------|----------|---------------------|------| +| `model` | MODEL | `torch.nn.Module` | 離散的サンプリング戦略を適用済みの変更後のモデルです。このモデルは、指定された手法および調整を用いてサンプルを生成できるようになります。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelSamplingFlux.mdx b/ja/built-in-nodes/ModelSamplingFlux.mdx new file mode 100644 index 000000000..a1a9e48d6 --- /dev/null +++ b/ja/built-in-nodes/ModelSamplingFlux.mdx @@ -0,0 +1,28 @@ +--- +title: "ModelSamplingFlux - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ModelSamplingFlux ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelSamplingFlux" +icon: "circle" +mode: wide +translationSourceHash: 8b50e681 +translationFrom: built-in-nodes/ModelSamplingFlux.mdx, zh-CN/built-in-nodes/ModelSamplingFlux.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelSamplingFlux/en.md) + +ModelSamplingFlux ノードは、画像の寸法に基づいてシフト(偏移)パラメーターを計算することで、指定されたモデルに Flux モデルのサンプリングを適用します。このノードは、指定された幅、高さ、およびシフト(偏移)パラメーターに応じてモデルの動作を調整する専用のサンプリング設定を作成し、新しいサンプリング設定が適用された修正済みモデルを返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | Flux サンプリングを適用するモデル | +| `max_shift` | FLOAT | はい | 0.0 - 100.0 | サンプリング計算における最大シフト値(デフォルト:1.15) | +| `base_shift` | FLOAT | はい | 0.0 - 100.0 | サンプリング計算における基礎シフト値(デフォルト:0.5) | +| `width` | INT | はい | 16 - MAX_RESOLUTION | 対象画像の幅(ピクセル単位、デフォルト:1024) | +| `height` | INT | はい | 16 - MAX_RESOLUTION | 対象画像の高さ(ピクセル単位、デフォルト:1024) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | Flux サンプリング設定が適用された修正済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelSamplingLTXV.mdx b/ja/built-in-nodes/ModelSamplingLTXV.mdx new file mode 100644 index 000000000..59d992c59 --- /dev/null +++ b/ja/built-in-nodes/ModelSamplingLTXV.mdx @@ -0,0 +1,29 @@ +--- +title: "ModelSamplingLTXV - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ModelSamplingLTXV ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelSamplingLTXV" +icon: "circle" +mode: wide +translationSourceHash: 56a67b89 +translationFrom: built-in-nodes/ModelSamplingLTXV.mdx, zh-CN/built-in-nodes/ModelSamplingLTXV.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelSamplingLTXV/en.md) + +ModelSamplingLTXV ノードは、トークン数に基づいてモデルに高度なサンプリングパラメーターを適用します。このノードでは、入力潜時変数(latent)内のトークン数に応じて、基底シフト値と最大シフト値の間で線形補間を行い、シフト値を算出します。その後、専用のモデルサンプリング設定を作成し、それを入力モデルに適用します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | サンプリングパラメーターを適用する対象の入力モデル | +| `max_shift` | FLOAT | いいえ | 0.0 ~ 100.0 | 計算に使用される最大シフト値(デフォルト:2.05) | +| `base_shift` | FLOAT | いいえ | 0.0 ~ 100.0 | 計算に使用される基底シフト値(デフォルト:0.95) | +| `latent` | LATENT | いいえ | - | シフト値計算に必要なトークン数を決定するためのオプションの潜時変数(latent)入力 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | サンプリングパラメーターが適用された修正済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelSamplingSD3.mdx b/ja/built-in-nodes/ModelSamplingSD3.mdx new file mode 100644 index 000000000..f95c56892 --- /dev/null +++ b/ja/built-in-nodes/ModelSamplingSD3.mdx @@ -0,0 +1,27 @@ +--- +title: "ModelSamplingSD3 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ModelSamplingSD3 ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelSamplingSD3" +icon: "circle" +mode: wide +translationSourceHash: 84e07b05 +translationFrom: built-in-nodes/ModelSamplingSD3.mdx, zh-CN/built-in-nodes/ModelSamplingSD3.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelSamplingSD3/en.md) + +ModelSamplingSD3 ノードは、Stable Diffusion 3 のサンプリングパラメーターをモデルに適用します。このノードは、サンプリング分布の特性を制御する「シフト(偏移)」パラメーターを調整することで、モデルのサンプリング動作を変更します。また、指定されたサンプリング設定を適用した入力モデルの変更済みコピーを作成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | SD3 サンプリングパラメーターを適用する入力モデル | +| `shift` | FLOAT | はい | 0.0 ~ 100.0 | サンプリングのシフト(偏移)パラメーターを制御します(デフォルト値:3.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | SD3 サンプリングパラメーターが適用された変更済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelSamplingStableCascade.mdx b/ja/built-in-nodes/ModelSamplingStableCascade.mdx new file mode 100644 index 000000000..b9f093603 --- /dev/null +++ b/ja/built-in-nodes/ModelSamplingStableCascade.mdx @@ -0,0 +1,25 @@ +--- +title: "ModelSamplingStableCascade - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における ModelSamplingStableCascade ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelSamplingStableCascade" +icon: "circle" +mode: wide +translationSourceHash: 91aa17b7 +translationFrom: built-in-nodes/ModelSamplingStableCascade.mdx, zh-CN/built-in-nodes/ModelSamplingStableCascade.mdx +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelSamplingStableCascade/en.md) + +ModelSamplingStableCascade ノードは、シフト値を用いてサンプリングパラメーターを調整することで、モデルに安定したカスケード(段階的)サンプリングを適用します。このノードは、安定したカスケード生成向けにカスタマイズされたサンプリング設定を備えた、入力モデルの変更版を作成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | 安定したカスケードサンプリングを適用する対象の入力モデル | +| `shift` | FLOAT | はい | 0.0 - 100.0 | サンプリングパラメーターに適用するシフト値(デフォルト: 2.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 安定したカスケードサンプリングが適用された修正済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/ModelSave.mdx b/ja/built-in-nodes/ModelSave.mdx new file mode 100644 index 000000000..76a8b68b1 --- /dev/null +++ b/ja/built-in-nodes/ModelSave.mdx @@ -0,0 +1,27 @@ +--- +title: "ModelSave - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ModelSave ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ModelSave" +icon: "circle" +mode: wide +translationSourceHash: f191fcdc +translationFrom: built-in-nodes/ModelSave.mdx, zh-CN/built-in-nodes/ModelSave.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ModelSave/en.md) + +ModelSave ノードは、学習済みまたは修正済みのモデルをコンピューターのストレージに保存します。このノードはモデルを入力として受け取り、指定したファイル名でファイルに書き出します。これにより、作業成果を保存し、今後のプロジェクトでモデルを再利用することが可能になります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | ディスクに保存するモデル | +| `filename_prefix` | STRING | はい | - | 保存されるモデルファイルのファイル名およびパスのプレフィックス(デフォルト値:`"diffusion_models/ComfyUI"`) | +| `prompt` | PROMPT | いいえ | - | ワークフローのプロンプト情報(自動的に提供されます) | +| `extra_pnginfo` | EXTRA_PNGINFO | いいえ | - | 追加のワークフローメタデータ(自動的に提供されます) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| *なし* | - | このノードは任意の出力値を返しません | \ No newline at end of file diff --git a/ja/built-in-nodes/MoonvalleyImg2VideoNode.mdx b/ja/built-in-nodes/MoonvalleyImg2VideoNode.mdx new file mode 100644 index 000000000..a369b0104 --- /dev/null +++ b/ja/built-in-nodes/MoonvalleyImg2VideoNode.mdx @@ -0,0 +1,37 @@ +--- +title: "MoonvalleyImg2VideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における MoonvalleyImg2VideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MoonvalleyImg2VideoNode" +icon: "circle" +mode: wide +translationSourceHash: ff5b8aba +translationFrom: built-in-nodes/MoonvalleyImg2VideoNode.mdx, zh-CN/built-in-nodes/MoonvalleyImg2VideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MoonvalleyImg2VideoNode/en.md) + +Moonvalley Marey 画像から動画へ変換するノードは、Moonvalley API を使用して参照画像を動画に変換します。このノードは入力画像とテキストプロンプトを受け取り、指定された解像度、品質設定、およびクリエイティブな制御に基づいて動画を生成します。ノードは、画像のアップロードから動画の生成・ダウンロードに至るまでの全工程を自動的に処理します。 + +## 入力パラメーター + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 動画生成に使用される参照画像 | +| `prompt` | STRING | はい | - | 動画生成のためのテキスト説明(複数行入力可) | +| `negative_prompt` | STRING | いいえ | - | 不要な要素を除外するためのネガティブプロンプト(デフォルト:広範なネガティブプロンプトリスト) | +| `resolution` | COMBO | いいえ | "16:9 (1920 x 1080)"
"9:16 (1080 x 1920)"
"1:1 (1152 x 1152)"
"4:3 (1536 x 1152)"
"3:4 (1152 x 1536)" | 出力動画の解像度(デフォルト:"16:9 (1920 x 1080)") | +| `prompt_adherence` | FLOAT | いいえ | 1.0 - 20.0 | 生成制御のためのガイドスケール(デフォルト:4.5、ステップ:1.0) | +| `seed` | INT | いいえ | 0 - 4294967295 | ランダムシード値(デフォルト:9、「生成後制御」が有効化された状態) | +| `steps` | INT | いいえ | 1 - 100 | デノイズステップ数(デフォルト:33、ステップ:1) | + +**制約条件:** + +- 入力画像のサイズは、300×300 ピクセル以上、かつ許容される最大高さ/幅以下である必要があります。 +- プロンプトおよびネガティブプロンプトのテキスト長は、Moonvalley Marey の最大プロンプト長に制限されます。 + +## 出力パラメーター + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画出力 | \ No newline at end of file diff --git a/ja/built-in-nodes/MoonvalleyTxt2VideoNode.mdx b/ja/built-in-nodes/MoonvalleyTxt2VideoNode.mdx new file mode 100644 index 000000000..768461c10 --- /dev/null +++ b/ja/built-in-nodes/MoonvalleyTxt2VideoNode.mdx @@ -0,0 +1,31 @@ +--- +title: "MoonvalleyTxt2VideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における MoonvalleyTxt2VideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MoonvalleyTxt2VideoNode" +icon: "circle" +mode: wide +translationSourceHash: de76b616 +translationFrom: built-in-nodes/MoonvalleyTxt2VideoNode.mdx, zh-CN/built-in-nodes/MoonvalleyTxt2VideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MoonvalleyTxt2VideoNode/en.md) + +Moonvalley Marey 文から動画を生成するノードは、Moonvalley API を使用してテキストによる説明から動画コンテンツを生成します。このノードはテキストプロンプトを受け取り、解像度、品質、スタイルなどのカスタマイズ可能な設定に基づいて動画に変換します。ノードは、生成リクエストの送信から最終的な動画出力のダウンロードに至るまでの全工程を処理します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | 生成する動画コンテンツのテキストによる説明 | +| `negative_prompt` | STRING | いいえ | - | ネガティブプロンプト(デフォルト:合成物、シーンカット、アーティファクト、ノイズなど、多数の除外要素を含む詳細なリスト) | +| `resolution` | STRING | いいえ | "16:9 (1920 x 1080)"
"9:16 (1080 x 1920)"
"1:1 (1152 x 1152)"
"4:3 (1536 x 1152)"
"3:4 (1152 x 1536)"
"21:9 (2560 x 1080)" | 出力動画の解像度(デフォルト:"16:9 (1920 x 1080)") | +| `prompt_adherence` | FLOAT | いいえ | 1.0–20.0 | 生成制御のためのガイドスケール(デフォルト:4.0) | +| `seed` | INT | いいえ | 0–4294967295 | ランダムシード値(デフォルト:9) | +| `steps` | INT | いいえ | 1–100 | 推論ステップ数(デフォルト:33) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `video` | VIDEO | テキストプロンプトに基づいて生成された動画出力 | \ No newline at end of file diff --git a/ja/built-in-nodes/MoonvalleyVideo2VideoNode.mdx b/ja/built-in-nodes/MoonvalleyVideo2VideoNode.mdx new file mode 100644 index 000000000..858157c08 --- /dev/null +++ b/ja/built-in-nodes/MoonvalleyVideo2VideoNode.mdx @@ -0,0 +1,32 @@ +--- +title: "MoonvalleyVideo2VideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における MoonvalleyVideo2VideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "MoonvalleyVideo2VideoNode" +icon: "circle" +mode: wide +translationSourceHash: b7e47a4d +translationFrom: built-in-nodes/MoonvalleyVideo2VideoNode.mdx, zh-CN/built-in-nodes/MoonvalleyVideo2VideoNode.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHubで編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/MoonvalleyVideo2VideoNode/en.md) + +Moonvalley Marey 動画から動画へ(Video to Video)ノードは、テキストによる説明に基づいて入力動画を新しい動画に変換します。このノードは Moonvalley API を利用し、指定したプロンプトに合致する動画を生成するとともに、元の動画の動き(モーション)やポーズの特徴を保持します。テキストプロンプトおよび各種生成パラメーターを用いることで、出力動画のスタイルやコンテンツを制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | 生成する動画の内容を記述する(複数行入力可) | +| `negative_prompt` | STRING | いいえ | - | ネガティブプロンプトのテキスト(デフォルト:多数のネガティブ記述子を含むリスト) | +| `seed` | INT | はい | 0–4294967295 | 乱数シード値(デフォルト:9) | +| `video` | VIDEO | はい | - | 出力動画の生成に使用される参照動画です。長さは最低でも5秒である必要があります。5秒を超える動画は自動的に切り捨てられます。MP4形式のみ対応しています。 | +| `control_type` | COMBO | いいえ | "Motion Transfer"
"Pose Transfer" | 制御タイプの選択(デフォルト:"Motion Transfer") | +| `motion_intensity` | INT | いいえ | 0–100 | `control_type` が「Motion Transfer」の場合にのみ使用されます(デフォルト:100) | +| `steps` | INT | はい | 1–100 | 推論ステップ数(デフォルト:33) | + +**注意:** `motion_intensity` パラメーターは、`control_type` が「Motion Transfer」に設定されている場合にのみ適用されます。「Pose Transfer」を使用する際には、このパラメーターは無視されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画出力 | \ No newline at end of file diff --git a/ja/built-in-nodes/Morphology.mdx b/ja/built-in-nodes/Morphology.mdx new file mode 100644 index 000000000..0f8bcff5d --- /dev/null +++ b/ja/built-in-nodes/Morphology.mdx @@ -0,0 +1,26 @@ +--- +title: "Morphology - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の Morphology ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Morphology" +icon: "circle" +mode: wide +translationSourceHash: ab1cd063 +translationFrom: built-in-nodes/Morphology.mdx, zh-CN/built-in-nodes/Morphology.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Morphology/en.md) + +Morphology ノードは、画像に対してさまざまな形態学的演算(モルフォロジー演算)を適用します。これは、画像内の形状を処理・解析するために用いられる数学的演算です。このノードでは、カスタマイズ可能なカーネルサイズを用いて、腐食(erosion)、膨張(dilation)、開演算(opening)、閉演算(closing)、勾配(gradient)、ボトムハット(bottom_hat)、トップハット(top_hat)などの演算を実行できます。カーネルサイズは、これらの演算の効果の強さを制御します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 処理対象の入力画像 | +| `operation` | STRING | はい | `"erode"`
`"dilate"`
`"open"`
`"close"`
`"gradient"`
`"bottom_hat"`
`"top_hat"` | 適用する形態学的演算の種類 | +| `kernel_size` | INT | いいえ | 3–999 | 構造要素カーネルのサイズ(デフォルト値:3) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 形態学的演算を適用した後の処理済み画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/NAGuidance.mdx b/ja/built-in-nodes/NAGuidance.mdx new file mode 100644 index 000000000..b16c7888c --- /dev/null +++ b/ja/built-in-nodes/NAGuidance.mdx @@ -0,0 +1,29 @@ +--- +title: "NAGuidance - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の NAGuidance ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "NAGuidance" +icon: "circle" +mode: wide +translationSourceHash: 7ad5244c +translationFrom: built-in-nodes/NAGuidance.mdx, zh-CN/built-in-nodes/NAGuidance.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/NAGuidance/en.md) + +NAGuidance ノードは、モデルに「正規化注意力ガイド(Normalized Attention Guidance)」を適用します。この手法では、サンプリング処理中にモデルの注意力機構を変更し、生成プロセスを望ましくない概念から遠ざけることで、蒸留モデル(distilled models)や「Schnell」モデルでもネガティブプロンプトを活用できるようにします。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | 正規化注意力ガイドを適用する対象のモデルです。 | +| `nag_scale` | FLOAT | はい | 0.0 – 50.0 | ガイダンスの強度係数です。値が大きいほど、生成結果はネガティブプロンプトからより強く逸脱します。(デフォルト:5.0) | +| `nag_alpha` | FLOAT | はい | 0.0 – 1.0 | 正規化注意力のブレンド係数です。値が 1.0 の場合、元の注意力を完全に置き換えます。値が 0.0 の場合、一切の効果はありません。(デフォルト:0.5) | +| `nag_tau` | FLOAT | はい | 1.0 – 10.0 | 正規化比率を制限するために用いられるスケーリング係数です。(デフォルト:1.5) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 正規化注意力ガイドが有効化された、パッチ適用済みのモデルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/NormalizeImages.mdx b/ja/built-in-nodes/NormalizeImages.mdx new file mode 100644 index 000000000..2db9c43c8 --- /dev/null +++ b/ja/built-in-nodes/NormalizeImages.mdx @@ -0,0 +1,26 @@ +--- +title: "NormalizeImages - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の NormalizeImages ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "NormalizeImages" +icon: "circle" +mode: wide +translationSourceHash: 858b6538 +translationFrom: built-in-nodes/NormalizeImages.mdx, zh-CN/built-in-nodes/NormalizeImages.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/NormalizeImages/en.md) + +このノードは、数学的な正規化(ノーマライゼーション)処理を用いて入力画像のピクセル値を調整します。具体的には、各ピクセルから指定された平均値を減算し、その後その結果を指定された標準偏差で除算します。これは、他の機械学習モデルへ画像データを入力する前に実施される一般的な前処理ステップです。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 正規化対象の入力画像です。 | +| `mean` | FLOAT | いいえ | 0.0 - 1.0 | 画像のピクセルから減算する平均値(デフォルト: 0.5)。 | +| `std` | FLOAT | いいえ | 0.001 - 1.0 | 画像のピクセルを除算する際の標準偏差(デフォルト: 0.5)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 正規化処理を適用した後の結果画像です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/NormalizeVideoLatentStart.mdx b/ja/built-in-nodes/NormalizeVideoLatentStart.mdx new file mode 100644 index 000000000..7f6bc0806 --- /dev/null +++ b/ja/built-in-nodes/NormalizeVideoLatentStart.mdx @@ -0,0 +1,30 @@ +--- +title: "NormalizeVideoLatentStart - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の NormalizeVideoLatentStart ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "NormalizeVideoLatentStart" +icon: "circle" +mode: wide +translationSourceHash: cde7c5f4 +translationFrom: built-in-nodes/NormalizeVideoLatentStart.mdx, zh-CN/built-in-nodes/NormalizeVideoLatentStart.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/NormalizeVideoLatentStart/en.md) + +このノードは、動画の潜在表現(latent)の最初の数フレームを調整し、その後続するフレームに見た目を近づけます。具体的には、動画の後半にある一連の参照フレームから平均値と変動量(ばらつき)を算出し、その統計的特徴を開始フレームに適用します。これにより、動画の冒頭における視覚的な遷移がより滑らかで一貫性のあるものになります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `latent` | LATENT | はい | - | 処理対象となる動画の潜在表現です。 | +| `start_frame_count` | INT | いいえ | 1 ~ 16384 | 開始位置から数えて正規化する潜在フレームの数(デフォルト:4)。 | +| `reference_frame_count` | INT | いいえ | 1 ~ 16384 | 開始フレーム以降で参照として用いる潜在フレームの数(デフォルト:5)。 | + +**注意:** `reference_frame_count` は、開始フレーム以降に利用可能なフレーム数に自動的に制限されます。動画の潜在表現が 1 フレームのみの場合、正規化処理は実行されず、元の潜在表現がそのまま返されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `latent` | LATENT | 開始フレームが正規化された、処理済みの動画潜在表現です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Note.mdx b/ja/built-in-nodes/Note.mdx new file mode 100644 index 000000000..e25a1df75 --- /dev/null +++ b/ja/built-in-nodes/Note.mdx @@ -0,0 +1,16 @@ +--- +title: "Note - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の Note ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Note" +icon: "circle" +mode: wide +translationSourceHash: c6545e7e +translationFrom: built-in-nodes/Note.mdx, zh-CN/built-in-nodes/Note.mdx +--- +ワークフローに注釈を追加するためのノードです。 + +## 入力 + +## 出力 + +このノードには出力がありません。 \ No newline at end of file diff --git a/ja/built-in-nodes/OpenAIChatConfig.mdx b/ja/built-in-nodes/OpenAIChatConfig.mdx new file mode 100644 index 000000000..8e9b029e5 --- /dev/null +++ b/ja/built-in-nodes/OpenAIChatConfig.mdx @@ -0,0 +1,28 @@ +--- +title: "OpenAIChatConfig - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における OpenAIChatConfig ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "OpenAIChatConfig" +icon: "circle" +mode: wide +translationSourceHash: 80573542 +translationFrom: built-in-nodes/OpenAIChatConfig.mdx, zh-CN/built-in-nodes/OpenAIChatConfig.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案があれば、ぜひ貢献してください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/OpenAIChatConfig/en.md) + +OpenAIChatConfig ノードは、OpenAI Chat ノード向けに追加の設定オプションを指定するためのノードです。このノードでは、モデルが応答を生成する際の動作を制御する高度な設定(例:切り捨て戦略、出力トークン数の上限、カスタム指示文など)を提供します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `truncation` | COMBO | はい | `"auto"`
`"disabled"` | モデル応答に対して適用する切り捨て戦略です。「auto」:今回の応答およびそれ以前の会話履歴のコンテキストが、モデルのコンテキストウィンドウサイズを超える場合、モデルは会話の途中にある入力項目を削除することで応答を切り捨て、コンテキストウィンドウ内に収めます。「disabled」:モデルの応答がコンテキストウィンドウサイズを超える場合、リクエストは 400 エラーで失敗します(デフォルト値:`"auto"`) | +| `max_output_tokens` | INT | いいえ | 16–16384 | 応答として生成可能なトークン数の上限値(可視化される出力トークンを含む)です(デフォルト値:4096) | +| `instructions` | STRING | いいえ | - | モデル応答に対する追加の指示文です(複数行入力に対応) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `OPENAI_CHAT_CONFIG` | OPENAI_CHAT_CONFIG | OpenAI Chat ノードで使用するための、指定された設定を含む設定オブジェクトです | \ No newline at end of file diff --git a/ja/built-in-nodes/OpenAIChatNode.mdx b/ja/built-in-nodes/OpenAIChatNode.mdx new file mode 100644 index 000000000..58a9f3d07 --- /dev/null +++ b/ja/built-in-nodes/OpenAIChatNode.mdx @@ -0,0 +1,29 @@ +--- +title: "OpenAIChatNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における OpenAIChatNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "OpenAIChatNode" +icon: "circle" +mode: wide +translationSourceHash: 9552fe3e +translationFrom: built-in-nodes/OpenAIChatNode.mdx, zh-CN/built-in-nodes/OpenAIChatNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/OpenAIChatNode/en.md) + +このノードは、OpenAI モデルを用いてテキスト応答を生成します。テキストプロンプトを送信し、生成された応答を受信することで、AI モデルとの対話が可能です。本ノードは、以前の会話履歴(コンテキスト)を記憶して複数回にわたる対話(マルチターン対話)をサポートしており、画像やファイルを追加のコンテキストとしてモデルに与えることもできます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | モデルへのテキスト入力。応答を生成するために使用されます(デフォルト:空) | +| `persist_context` | BOOLEAN | はい | - | マルチターン対話において、呼び出し間でチャットコンテキストを保持するかどうか(デフォルト:True) | +| `model` | COMBO | はい | 利用可能な複数の OpenAI モデル | 応答生成に使用する OpenAI モデル | +| `images` | IMAGE | いいえ | - | モデルのコンテキストとして使用する任意の画像。複数の画像を含める場合は、「Batch Images」ノードをご利用ください(デフォルト:None) | +| `files` | OPENAI_INPUT_FILES | いいえ | - | モデルのコンテキストとして使用する任意のファイル。「OpenAI Chat Input Files」ノードからの入力を受け付けます(デフォルト:None) | +| `advanced_options` | OPENAI_CHAT_CONFIG | いいえ | - | モデルの任意の設定。「OpenAI Chat Advanced Options」ノードからの入力を受け付けます(デフォルト:None) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output_text` | STRING | OpenAI モデルによって生成されたテキスト応答 | \ No newline at end of file diff --git a/ja/built-in-nodes/OpenAIDalle2.mdx b/ja/built-in-nodes/OpenAIDalle2.mdx new file mode 100644 index 000000000..974fa0cf5 --- /dev/null +++ b/ja/built-in-nodes/OpenAIDalle2.mdx @@ -0,0 +1,39 @@ +--- +title: "OpenAIDalle2 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の OpenAIDalle2 ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "OpenAIDalle2" +icon: "circle" +mode: wide +translationSourceHash: e7df50a0 +translationFrom: built-in-nodes/OpenAIDalle2.mdx, zh-CN/built-in-nodes/OpenAIDalle2.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/OpenAIDalle2/en.md) + +```markdown +OpenAI の DALL·E 2 エンドポイントを用いて、同期的に画像を生成します。 + +## 動作原理 + +このノードは OpenAI の DALL·E 2 API に接続し、テキストによる説明に基づいて画像を生成します。テキストプロンプトを指定すると、ノードはそのプロンプトを OpenAI のサーバーに送信し、サーバーが対応する画像を生成して ComfyUI へ返します。このノードは、以下の 2 つのモードで動作可能です: +・標準的な画像生成モード(テキストプロンプトのみを使用) +・画像編集モード(画像とマスクの両方を指定した場合) +編集モードでは、マスクを用いて元の画像のどの部分を変更するかを指定し、他の領域はそのまま保持します。 + +## 入力 + +| パラメーター | データ型 | 入力タイプ | デフォルト値 | 範囲 | 説明 | +|-----------|-----------|------------|---------|-------|-------------| +| `prompt` | STRING | 必須 | "" | - | DALL·E 用のテキストプロンプト | +| `seed` | INT | 任意 | 0 | 0 ~ 2147483647 | バックエンドでは現時点で未実装です | +| `size` | COMBO | 任意 | "1024x1024" | "256x256", "512x512", "1024x1024" | 生成画像のサイズ | +| `n` | INT | 任意 | 1 | 1 ~ 8 | 生成する画像の枚数 | +| `image` | IMAGE | 任意 | None | - | 画像編集用のオプションの参照画像 | +| `mask` | MASK | 任意 | None | - | インペインティング(修復)用のオプションのマスク(白い領域が置き換えられます) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `IMAGE` | IMAGE | DALL·E 2 によって生成または編集された画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/OpenAIDalle3.mdx b/ja/built-in-nodes/OpenAIDalle3.mdx new file mode 100644 index 000000000..ab02d9e5d --- /dev/null +++ b/ja/built-in-nodes/OpenAIDalle3.mdx @@ -0,0 +1,30 @@ +--- +title: "OpenAIDalle3 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の OpenAIDalle3 ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "OpenAIDalle3" +icon: "circle" +mode: wide +translationSourceHash: 14b7264b +translationFrom: built-in-nodes/OpenAIDalle3.mdx, zh-CN/built-in-nodes/OpenAIDalle3.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/OpenAIDalle3/en.md) + +OpenAI の DALL·E 3 エンドポイントを用いて、画像を同期的に生成します。このノードはテキストプロンプトを受け取り、OpenAI の DALL·E 3 モデルを用いて対応する画像を作成します。画像の品質、スタイル、サイズを指定できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `prompt` | STRING | はい | - | DALL·E 用のテキストプロンプト(デフォルト:"") | +| `seed` | INT | いいえ | 0 ~ 2147483647 | バックエンドではまだ実装されていません(デフォルト:0) | +| `quality` | COMBO | いいえ | "standard"
"hd" | 画像品質(デフォルト:"standard") | +| `style` | COMBO | いいえ | "natural"
"vivid" | "vivid" を選択すると、モデルが超リアルでドラマチックな画像を生成する傾向があります。"natural" を選択すると、より自然で、あまり超リアルでない画像が生成されます。(デフォルト:"natural") | +| `size` | COMBO | いいえ | "1024x1024"
"1024x1792"
"1792x1024" | 画像サイズ(デフォルト:"1024x1024") | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `IMAGE` | IMAGE | DALL·E 3 によって生成された画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/OpenAIGPTImage1.mdx b/ja/built-in-nodes/OpenAIGPTImage1.mdx new file mode 100644 index 000000000..9c0eb01f2 --- /dev/null +++ b/ja/built-in-nodes/OpenAIGPTImage1.mdx @@ -0,0 +1,40 @@ +--- +title: "OpenAIGPTImage1 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の OpenAIGPTImage1 ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "OpenAIGPTImage1" +icon: "circle" +mode: wide +translationSourceHash: 6578457d +translationFrom: built-in-nodes/OpenAIGPTImage1.mdx, zh-CN/built-in-nodes/OpenAIGPTImage1.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/OpenAIGPTImage1/en.md) + +OpenAI の GPT Image 1 エンドポイントを用いて、同期的に画像を生成します。このノードは、テキストプロンプトから新しい画像を作成するほか、入力画像と任意のマスクを指定することで既存の画像を編集することもできます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | GPT Image 1 用のテキストプロンプト(デフォルト:"") | +| `seed` | INT | いいえ | 0 ~ 2147483647 | 生成時の乱数シード(デフォルト:0)— バックエンドではまだ実装されていません | +| `quality` | COMBO | いいえ | "low"
"medium"
"high" | 画像品質。コストおよび生成時間に影響します(デフォルト:"low") | +| `background` | COMBO | いいえ | "opaque"
"transparent" | 背景付きまたは背景なしの画像を返す(デフォルト:"opaque") | +| `size` | COMBO | いいえ | "auto"
"1024x1024"
"1024x1536"
"1536x1024" | 画像サイズ(デフォルト:"auto") | +| `n` | INT | いいえ | 1 ~ 8 | 生成する画像の枚数(デフォルト:1) | +| `image` | IMAGE | いいえ | - | 画像編集用のオプションの参照画像(デフォルト:None) | +| `mask` | MASK | いいえ | - | 洞埋め(inpainting)用のオプションのマスク(白領域が置き換えられます)(デフォルト:None) | + +**パラメーター制約:** + +- `image` が指定された場合、ノードは画像編集モードに切り替わります +- `mask` は `image` が指定されている場合のみ使用可能です +- `mask` を使用する場合は、単一画像のみがサポートされます(バッチサイズは 1 でなければなりません) +- `mask` と `image` のサイズは同一である必要があります + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `IMAGE` | IMAGE | 生成または編集された画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/OpenAIInputFiles.mdx b/ja/built-in-nodes/OpenAIInputFiles.mdx new file mode 100644 index 000000000..2c9e60532 --- /dev/null +++ b/ja/built-in-nodes/OpenAIInputFiles.mdx @@ -0,0 +1,31 @@ +--- +title: "OpenAIInputFiles - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における OpenAIInputFiles ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "OpenAIInputFiles" +icon: "circle" +mode: wide +translationSourceHash: e97428c3 +translationFrom: built-in-nodes/OpenAIInputFiles.mdx, zh-CN/built-in-nodes/OpenAIInputFiles.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/OpenAIInputFiles/en.md) + +OpenAI API 用の入力ファイルを読み込み、フォーマットします。このノードは、テキストファイルおよび PDF ファイルを OpenAI チャットノードへのコンテキスト入力として準備します。応答を生成する際に、OpenAI モデルがこれらのファイルを読み取ります。複数の入力ファイルノードを連鎖させることで、単一のメッセージに複数のファイルを含めることができます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `file` | COMBO | はい | 複数の選択肢が利用可能 | モデルのコンテキストとして含める入力ファイル。現時点では、テキストファイル(`.txt`)および PDF ファイル(`.pdf`)のみ対応しています。ファイルサイズは 32MB 未満である必要があります。 | +| `OPENAI_INPUT_FILES` | OPENAI_INPUT_FILES | いいえ | 該当なし | このノードで読み込まれたファイルとまとめて処理するための、オプションの追加ファイル(複数可)。入力ファイルを連鎖させる機能を提供し、単一のメッセージに複数の入力ファイルを含めることを可能にします。 | + +**ファイル制約:** + +- `.txt` および `.pdf` ファイルのみ対応 +- 最大ファイルサイズ:32MB +- ファイルは入力ディレクトリから読み込まれます + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `OPENAI_INPUT_FILES` | OPENAI_INPUT_FILES | OpenAI API 呼び出しのコンテキストとして使用可能な、フォーマット済みの入力ファイル。 | \ No newline at end of file diff --git a/ja/built-in-nodes/OpenAIVideoSora2.mdx b/ja/built-in-nodes/OpenAIVideoSora2.mdx new file mode 100644 index 000000000..495f8491b --- /dev/null +++ b/ja/built-in-nodes/OpenAIVideoSora2.mdx @@ -0,0 +1,37 @@ +--- +title: "OpenAIVideoSora2 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における OpenAIVideoSora2 ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "OpenAIVideoSora2" +icon: "circle" +mode: wide +translationSourceHash: 833e7481 +translationFrom: built-in-nodes/OpenAIVideoSora2.mdx, zh-CN/built-in-nodes/OpenAIVideoSora2.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/OpenAIVideoSora2/en.md) + +OpenAIVideoSora2 ノードは、OpenAI の Sora モデルを用いて動画を生成します。テキストプロンプトおよびオプションの入力画像に基づいて動画コンテンツを作成し、生成された動画出力を返します。このノードは、選択したモデルに応じて異なる動画再生時間および解像度をサポートします。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | "sora-2"
"sora-2-pro" | 動画生成に使用する OpenAI Sora モデル(デフォルト: "sora-2") | +| `prompt` | STRING | はい | - | ガイドとなるテキスト。入力画像が存在する場合は空でも構いません(デフォルト: 空) | +| `size` | COMBO | はい | "720x1280"
"1280x720"
"1024x1792"
"1792x1024" | 生成される動画の解像度(デフォルト: "1280x720") | +| `duration` | COMBO | はい | 4
8
12 | 生成される動画の再生時間(秒単位)(デフォルト: 8) | +| `image` | IMAGE | いいえ | - | 動画生成用のオプション入力画像 | +| `seed` | INT | いいえ | 0 ~ 2147483647 | ノードを再実行するかどうかを決定するシード値。ただし、実際の生成結果はシード値に関わらず非決定的です(デフォルト: 0) | + +**制約および制限事項:** + +- 「sora-2」モデルは「720x1280」および「1280x720」の解像度のみをサポートします +- `image` パラメーターを使用する場合、入力画像は 1 枚のみ対応しています +- シード値に関係なく、生成結果は非決定的です + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画出力 | \ No newline at end of file diff --git a/ja/built-in-nodes/OptimalStepsScheduler.mdx b/ja/built-in-nodes/OptimalStepsScheduler.mdx new file mode 100644 index 000000000..34bdd35b6 --- /dev/null +++ b/ja/built-in-nodes/OptimalStepsScheduler.mdx @@ -0,0 +1,30 @@ +--- +title: "OptimalStepsScheduler - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の OptimalStepsScheduler ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "OptimalStepsScheduler" +icon: "circle" +mode: wide +translationSourceHash: 51648ad0 +translationFrom: built-in-nodes/OptimalStepsScheduler.mdx, zh-CN/built-in-nodes/OptimalStepsScheduler.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善のための提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/OptimalStepsScheduler/en.md) + +OptimalStepsScheduler ノードは、選択されたモデルタイプおよびステップ設定に基づいて、拡散モデル用のノイズスケジュール(シグマ値)を計算します。このノードは、`denoise` パラメーターに応じて総ステップ数を調整し、要求されたステップ数に合うようノイズレベルを補間します。また、拡散サンプリング処理において使用されるノイズレベルを決定するシグマ値のシーケンスを返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model_type` | COMBO | はい | "FLUX"
"Wan"
"Chroma" | ノイズレベル計算に使用する拡散モデルの種類 | +| `steps` | INT | はい | 3–1000 | 計算対象となるサンプリングの総ステップ数(デフォルト:20) | +| `denoise` | FLOAT | いいえ | 0.0–1.0 | デノイズ強度を制御し、有効なステップ数を調整します(デフォルト:1.0) | + +**注意:** `denoise` を 1.0 より小さい値に設定すると、ノードは有効ステップ数を `steps * denoise` として計算します。`denoise` を 0.0 に設定した場合、ノードは空のテンソルを返します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `sigmas` | SIGMAS | 拡散サンプリングにおけるノイズスケジュールを表すシグマ値のシーケンス | \ No newline at end of file diff --git a/ja/built-in-nodes/PairConditioningCombine.mdx b/ja/built-in-nodes/PairConditioningCombine.mdx new file mode 100644 index 000000000..f424a02bd --- /dev/null +++ b/ja/built-in-nodes/PairConditioningCombine.mdx @@ -0,0 +1,30 @@ +--- +title: "PairConditioningCombine - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の PairConditioningCombine ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PairConditioningCombine" +icon: "circle" +mode: wide +translationSourceHash: c28e11f1 +translationFrom: built-in-nodes/PairConditioningCombine.mdx, zh-CN/built-in-nodes/PairConditioningCombine.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や、改善のための提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PairConditioningCombine/en.md) + +PairConditioningCombine ノードは、2 組の条件付けデータ(ポジティブとネガティブ)を 1 組の条件付けデータに統合します。このノードは、2 つの独立した条件付けペアを入力として受け取り、ComfyUI の内部条件付け統合ロジックを用いてそれらをマージします。本ノードは実験的な機能であり、主に高度な条件付け操作ワークフローで使用されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive_A` | CONDITIONING | はい | - | 最初のポジティブ条件付け入力 | +| `negative_A` | CONDITIONING | はい | - | 最初のネガティブ条件付け入力 | +| `positive_B` | CONDITIONING | はい | - | 2 番目のポジティブ条件付け入力 | +| `negative_B` | CONDITIONING | はい | - | 2 番目のネガティブ条件付け入力 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 統合されたポジティブ条件付け出力 | +| `negative` | CONDITIONING | 統合されたネガティブ条件付け出力 | \ No newline at end of file diff --git a/ja/built-in-nodes/PairConditioningSetDefaultAndCombine.mdx b/ja/built-in-nodes/PairConditioningSetDefaultAndCombine.mdx new file mode 100644 index 000000000..4ee233849 --- /dev/null +++ b/ja/built-in-nodes/PairConditioningSetDefaultAndCombine.mdx @@ -0,0 +1,31 @@ +--- +title: "PairConditioningSetDefaultAndCombine - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の PairConditioningSetDefaultAndCombine ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PairConditioningSetDefaultAndCombine" +icon: "circle" +mode: wide +translationSourceHash: bc217a92 +translationFrom: built-in-nodes/PairConditioningSetDefaultAndCombine.mdx, zh-CN/built-in-nodes/PairConditioningSetDefaultAndCombine.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PairConditioningSetDefaultAndCombine/en.md) + +PairConditioningSetDefaultAndCombine ノードは、デフォルトの条件付け(conditioning)値を設定し、それを入力された条件付けデータと結合します。このノードは、正の条件付け入力および負の条件付け入力に加え、それぞれに対応するデフォルト値を受け取り、ComfyUI のフック(hook)システムを通じて処理を行い、デフォルト値が反映された最終的な条件付け出力を生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `positive` | CONDITIONING | はい | - | 処理対象となる主な正の条件付け入力 | +| `negative` | CONDITIONING | はい | - | 処理対象となる主な負の条件付け入力 | +| `positive_DEFAULT` | CONDITIONING | はい | - | フォールバックとして使用されるデフォルトの正の条件付け値 | +| `negative_DEFAULT` | CONDITIONING | はい | - | フォールバックとして使用されるデフォルトの負の条件付け値 | +| `hooks` | HOOKS | いいえ | - | カスタム処理ロジック用のオプションのフックグループ | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `positive` | CONDITIONING | デフォルト値が反映された処理済みの正の条件付け | +| `negative` | CONDITIONING | デフォルト値が反映された処理済みの負の条件付け | \ No newline at end of file diff --git a/ja/built-in-nodes/PairConditioningSetProperties.mdx b/ja/built-in-nodes/PairConditioningSetProperties.mdx new file mode 100644 index 000000000..84a00d9e9 --- /dev/null +++ b/ja/built-in-nodes/PairConditioningSetProperties.mdx @@ -0,0 +1,31 @@ +--- +title: "PairConditioningSetProperties - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の PairConditioningSetProperties ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PairConditioningSetProperties" +icon: "circle" +mode: wide +translationSourceHash: 9e9c8f07 +translationFrom: built-in-nodes/PairConditioningSetProperties.mdx, zh-CN/built-in-nodes/PairConditioningSetProperties.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PairConditioningSetProperties/en.md) + +PairConditioningSetProperties ノードを使用すると、正の条件付け(positive conditioning)と負の条件付け(negative conditioning)の両方のペアに対して、同時にプロパティを変更できます。このノードは、両方の条件付け入力に対して強度調整、条件付け領域の設定、およびオプションのマスクやタイムステップ制御を適用し、変更後の正の条件付けデータおよび負の条件付けデータを返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `positive_NEW` | CONDITIONING | はい | - | 変更対象の正の条件付け入力 | +| `negative_NEW` | CONDITIONING | はい | - | 変更対象の負の条件付け入力 | +| `strength` | FLOAT | はい | 0.0 ~ 10.0 | 条件付けに適用される強度の乗数(デフォルト値:1.0) | +| `set_cond_area` | STRING | はい | "default"
"mask bounds" | 条件付け領域の計算方法を指定します | +| `mask` | MASK | いいえ | - | 条件付け領域を制限するためのオプションのマスク | +| `hooks` | HOOKS | いいえ | - | 高度な条件付け変更用のオプションのフックグループ | +| `timesteps` | TIMESTEPS_RANGE | いいえ | - | 条件付けを適用するタイミングを制限するためのオプションのタイムステップ範囲 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `positive` | CONDITIONING | プロパティが適用された正の条件付けデータ | +| `negative` | CONDITIONING | プロパティが適用された負の条件付けデータ | \ No newline at end of file diff --git a/ja/built-in-nodes/PairConditioningSetPropertiesAndCombine.mdx b/ja/built-in-nodes/PairConditioningSetPropertiesAndCombine.mdx new file mode 100644 index 000000000..f796faa92 --- /dev/null +++ b/ja/built-in-nodes/PairConditioningSetPropertiesAndCombine.mdx @@ -0,0 +1,35 @@ +--- +title: "PairConditioningSetPropertiesAndCombine - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の PairConditioningSetPropertiesAndCombine ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PairConditioningSetPropertiesAndCombine" +icon: "circle" +mode: wide +translationSourceHash: bc7792ee +translationFrom: built-in-nodes/PairConditioningSetPropertiesAndCombine.mdx, zh-CN/built-in-nodes/PairConditioningSetPropertiesAndCombine.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見した場合や改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PairConditioningSetPropertiesAndCombine/en.md) + +PairConditioningSetPropertiesAndCombine ノードは、既存の正の条件付け入力および負の条件付け入力に新しい条件付けデータを適用することで、条件付けペアを変更・統合します。このノードでは、適用する条件付けの強度を調整したり、条件付け領域の設定方法を制御したりできます。複数の条件付けソースを混在させる必要がある高度な条件付け操作ワークフローにおいて、特に有用です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | 元の正の条件付け入力 | +| `negative` | CONDITIONING | はい | - | 元の負の条件付け入力 | +| `positive_NEW` | CONDITIONING | はい | - | 適用する新しい正の条件付け | +| `negative_NEW` | CONDITIONING | はい | - | 適用する新しい負の条件付け | +| `strength` | FLOAT | はい | 0.0 ~ 10.0 | 新しい条件付けを適用する際の強度係数(デフォルト:1.0) | +| `set_cond_area` | STRING | はい | "default"
"mask bounds" | 条件付け領域の適用方法を制御します | +| `mask` | MASK | いいえ | - | 条件付けの適用範囲を制限するためのオプションのマスク | +| `hooks` | HOOKS | いいえ | - | 高度な制御のためのオプションのフックグループ | +| `timesteps` | TIMESTEPS_RANGE | いいえ | - | オプションのタイムステップ範囲指定 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 統合された正の条件付け出力 | +| `negative` | CONDITIONING | 統合された負の条件付け出力 | \ No newline at end of file diff --git a/ja/built-in-nodes/PatchModelAddDownscale.mdx b/ja/built-in-nodes/PatchModelAddDownscale.mdx new file mode 100644 index 000000000..5af5af484 --- /dev/null +++ b/ja/built-in-nodes/PatchModelAddDownscale.mdx @@ -0,0 +1,33 @@ +--- +title: "PatchModelAddDownscale - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の PatchModelAddDownscale ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PatchModelAddDownscale" +icon: "circle" +mode: wide +translationSourceHash: c512e6b7 +translationFrom: built-in-nodes/PatchModelAddDownscale.mdx, zh-CN/built-in-nodes/PatchModelAddDownscale.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PatchModelAddDownscale/en.md) + +PatchModelAddDownscale ノードは、モデル内の特定のブロックに対してダウンスケーリング(解像度低下)およびアップスケーリング(解像度復元)操作を適用することにより、Kohya Deep Shrink 機能を実装します。このノードは処理中に中間特徴の解像度を一時的に低下させ、その後元のサイズに復元することで、品質を維持しつつ処理性能を向上させます。また、モデルの実行中にこれらのスケーリング操作をいつ・どのように適用するかを精密に制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | ダウンスケールパッチを適用するモデル | +| `block_number` | INT | いいえ | 1–32 | ダウンスケーリングを適用する特定のブロック番号(デフォルト:3) | +| `downscale_factor` | FLOAT | いいえ | 0.1–9.0 | 特徴をダウンスケールする際の倍率(デフォルト:2.0) | +| `start_percent` | FLOAT | いいえ | 0.0–1.0 | ノイズ除去プロセスにおいてダウンスケーリングを開始するタイミング(デフォルト:0.0) | +| `end_percent` | FLOAT | いいえ | 0.0–1.0 | ノイズ除去プロセスにおいてダウンスケーリングを終了するタイミング(デフォルト:0.35) | +| `downscale_after_skip` | BOOLEAN | いいえ | - | スキップ接続の後にダウンスケーリングを適用するかどうか(デフォルト:True) | +| `downscale_method` | COMBO | いいえ | "bicubic"
"nearest-exact"
"bilinear"
"area"
"bislerp" | ダウンスケーリング操作に使用する補間手法 | +| `upscale_method` | COMBO | いいえ | "bicubic"
"nearest-exact"
"bilinear"
"area"
"bislerp" | アップスケーリング操作に使用する補間手法 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | ダウンスケールパッチが適用された修正済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/PerpNeg.mdx b/ja/built-in-nodes/PerpNeg.mdx new file mode 100644 index 000000000..e72d39419 --- /dev/null +++ b/ja/built-in-nodes/PerpNeg.mdx @@ -0,0 +1,30 @@ +--- +title: "PerpNeg - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の PerpNeg ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PerpNeg" +icon: "circle" +mode: wide +translationSourceHash: 9f347fbd +translationFrom: built-in-nodes/PerpNeg.mdx, zh-CN/built-in-nodes/PerpNeg.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善のご提案がありましたら、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PerpNeg/en.md) + +PerpNeg ノードは、モデルのサンプリングプロセスに対して「垂直負向ガイド」(Perpendicular Negative Guidance)を適用します。このノードは、モデルのコンフィグレーション関数を変更し、負向条件付け(negative conditioning)とスケーリング係数を用いてノイズ予測を調整します。本ノードは非推奨となっており、機能が向上した `PerpNegGuider` ノードに置き換えられています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `model` | MODEL | はい | - | 垂直負向ガイドを適用する対象のモデル | +| `empty_conditioning` | CONDITIONING | はい | - | 負向ガイド計算に使用される空の条件付け | +| `neg_scale` | FLOAT | いいえ | 0.0 – 100.0 | 負向ガイドのスケーリング係数(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `model` | MODEL | 垂直負向ガイドが適用された修正済みモデル | + +**注意**: このノードは非推奨であり、`PerpNegGuider` ノードに置き換えられています。実験的な機能としてマークされており、本番環境のワークフローでは使用しないでください。 \ No newline at end of file diff --git a/ja/built-in-nodes/PerpNegGuider.mdx b/ja/built-in-nodes/PerpNegGuider.mdx new file mode 100644 index 000000000..62bab7be8 --- /dev/null +++ b/ja/built-in-nodes/PerpNegGuider.mdx @@ -0,0 +1,31 @@ +--- +title: "PerpNegGuider - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における PerpNegGuider ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PerpNegGuider" +icon: "circle" +mode: wide +translationSourceHash: 5faf33e5 +translationFrom: built-in-nodes/PerpNegGuider.mdx, zh-CN/built-in-nodes/PerpNegGuider.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PerpNegGuider/en.md) + +PerpNegGuider ノードは、垂直方向の負条件(Perpendicular Negative Conditioning)を用いた画像生成の制御を目的としたガイドシステムを作成します。このノードは、正条件、負条件、および空条件の入力を受け取り、生成プロセスを制御するための専用ガイドアルゴリズムを適用します。本ノードはテスト目的で設計されており、ガイド強度および負条件のスケーリングに対してきめ細かな制御が可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | ガイド生成に使用するモデル | +| `positive` | CONDITIONING | はい | - | 生成を望ましいコンテンツ方向へ導く正条件 | +| `negative` | CONDITIONING | はい | - | 生成を不要なコンテンツから遠ざける負条件 | +| `empty_conditioning` | CONDITIONING | はい | - | 基準となる参照として用いられる空条件または中立条件 | +| `cfg` | FLOAT | いいえ | 0.0 - 100.0 | クラシファイアフリー・ガイダンス・スケール(Classifier-Free Guidance Scale)。条件が生成に与える影響の強さを制御します(デフォルト値:8.0) | +| `neg_scale` | FLOAT | いいえ | 0.0 - 100.0 | 負条件の強さを調整するための負スケーリング係数(デフォルト値:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `guider` | GUIDER | 生成パイプラインで直ちに利用可能な、設定済みのガイドシステム | \ No newline at end of file diff --git a/ja/built-in-nodes/PerturbedAttentionGuidance.mdx b/ja/built-in-nodes/PerturbedAttentionGuidance.mdx new file mode 100644 index 000000000..85282f3f3 --- /dev/null +++ b/ja/built-in-nodes/PerturbedAttentionGuidance.mdx @@ -0,0 +1,27 @@ +--- +title: "PerturbedAttentionGuidance - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における PerturbedAttentionGuidance ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PerturbedAttentionGuidance" +icon: "circle" +mode: wide +translationSourceHash: a15e31a4 +translationFrom: built-in-nodes/PerturbedAttentionGuidance.mdx, zh-CN/built-in-nodes/PerturbedAttentionGuidance.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PerturbedAttentionGuidance/en.md) + +PerturbedAttentionGuidance ノードは、拡散モデルに「擾乱注意力ガイド」(Perturbed Attention Guidance)を適用し、生成品質を向上させます。このノードはサンプリング中にモデルの自己注意機構(self-attention mechanism)を、値投影(value projections)に焦点を当てた簡略化されたバージョンに置き換えることで、条件付きデノイジング処理を調整します。この手法により、生成される画像の整合性(コヒーレンス)と品質が向上します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `model` | MODEL | はい | - | 擾乱注意力ガイドを適用する対象の拡散モデル | +| `scale` | FLOAT | いいえ | 0.0 – 100.0 | 擾乱注意力ガイドの効果強度(デフォルト値:3.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `model` | MODEL | 擾乱注意力ガイドが適用された修正済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/PhotoMakerEncode.mdx b/ja/built-in-nodes/PhotoMakerEncode.mdx new file mode 100644 index 000000000..5221ad337 --- /dev/null +++ b/ja/built-in-nodes/PhotoMakerEncode.mdx @@ -0,0 +1,31 @@ +--- +title: "PhotoMakerEncode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における PhotoMakerEncode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PhotoMakerEncode" +icon: "circle" +mode: wide +translationSourceHash: 4cf05cdc +translationFrom: built-in-nodes/PhotoMakerEncode.mdx, zh-CN/built-in-nodes/PhotoMakerEncode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PhotoMakerEncode/en.md) + +PhotoMakerEncode ノードは、画像とテキストを処理して AI による画像生成のための条件付けデータを生成します。このノードは参照画像とテキストプロンプトを受け取り、参照画像の視覚的特徴に基づいて画像生成を制御するための埋め込みベクトル(embeddings)を作成します。また、このノードはテキスト中に「photomaker」というトークンが存在する位置を特定し、その位置に画像ベースの条件付けを適用します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `photomaker` | PHOTOMAKER | はい | - | 画像の処理および埋め込みベクトルの生成に使用される PhotoMaker モデル | +| `image` | IMAGE | はい | - | 条件付けのための視覚的特徴を提供する参照画像 | +| `clip` | CLIP | はい | - | テキストのトークン化およびエンコーディングに使用される CLIP モデル | +| `text` | STRING | はい | - | 条件付け生成のためのテキストプロンプト(デフォルト: "photograph of photomaker") | + +**注意:** テキストに「photomaker」という単語が含まれている場合、ノードはプロンプト内の該当位置に画像ベースの条件付けを適用します。テキスト中に「photomaker」が見つからない場合は、画像の影響を受けない標準的なテキスト条件付けが生成されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `CONDITIONING` | CONDITIONING | 画像およびテキストの埋め込みベクトルを含む条件付けデータ。画像生成を制御するために使用されます | \ No newline at end of file diff --git a/ja/built-in-nodes/PhotoMakerLoader.mdx b/ja/built-in-nodes/PhotoMakerLoader.mdx new file mode 100644 index 000000000..7a8cd72ca --- /dev/null +++ b/ja/built-in-nodes/PhotoMakerLoader.mdx @@ -0,0 +1,24 @@ +--- +title: "PhotoMakerLoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における PhotoMakerLoader ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PhotoMakerLoader" +icon: "circle" +mode: wide +translationSourceHash: b6f998be +translationFrom: built-in-nodes/PhotoMakerLoader.mdx, zh-CN/built-in-nodes/PhotoMakerLoader.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PhotoMakerLoader/en.md) + +PhotoMakerLoader ノードは、利用可能なモデルファイルから PhotoMaker モデルを読み込みます。指定されたモデルファイルを読み取り、アイデンティティに基づく画像生成タスクで使用するための PhotoMaker ID エンコーダーを準備します。このノードは実験的機能としてマークされており、テスト目的でのみ使用することを想定しています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `photomaker_model_name` | STRING | はい | 複数の選択肢が利用可能 | 読み込む PhotoMaker モデルファイルの名前です。利用可能な選択肢は、`photomaker` フォルダー内に存在するモデルファイルによって決定されます。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `photomaker_model` | PHOTOMAKER | ID エンコーダーを含む読み込まれた PhotoMaker モデルで、アイデンティティエンコーディング処理にすぐに使用できます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/PikaImageToVideoNode2_2.mdx b/ja/built-in-nodes/PikaImageToVideoNode2_2.mdx new file mode 100644 index 000000000..0026d2070 --- /dev/null +++ b/ja/built-in-nodes/PikaImageToVideoNode2_2.mdx @@ -0,0 +1,31 @@ +--- +title: "PikaImageToVideoNode2_2 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における PikaImageToVideoNode2_2 ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PikaImageToVideoNode2_2" +icon: "circle" +mode: wide +translationSourceHash: c7bae489 +translationFrom: built-in-nodes/PikaImageToVideoNode2_2.mdx, zh-CN/built-in-nodes/PikaImageToVideoNode2_2.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PikaImageToVideoNode2_2/en.md) + +Pika Image to Video ノードは、画像とテキストプロンプトを Pika API バージョン 2.2 に送信し、動画を生成します。このノードは、提供された説明および設定に基づいて入力画像を動画形式に変換します。APIとの通信を処理し、生成された動画を出力として返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 動画に変換する画像 | +| `prompt_text` | STRING | はい | - | 動画生成をガイドするテキスト説明 | +| `negative_prompt` | STRING | はい | - | 動画内で回避すべき内容を記述したテキスト | +| `seed` | INT | はい | - | 再現可能な結果を得るための乱数シード値 | +| `resolution` | STRING | はい | - | 出力動画の解像度設定 | +| `duration` | INT | はい | - | 生成される動画の長さ(秒単位) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画ファイル | \ No newline at end of file diff --git a/ja/built-in-nodes/PikaScenesV2_2.mdx b/ja/built-in-nodes/PikaScenesV2_2.mdx new file mode 100644 index 000000000..be4b886b8 --- /dev/null +++ b/ja/built-in-nodes/PikaScenesV2_2.mdx @@ -0,0 +1,39 @@ +--- +title: "PikaScenesV2_2 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における PikaScenesV2_2 ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PikaScenesV2_2" +icon: "circle" +mode: wide +translationSourceHash: 7d2eb443 +translationFrom: built-in-nodes/PikaScenesV2_2.mdx, zh-CN/built-in-nodes/PikaScenesV2_2.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください![GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PikaScenesV2_2/en.md) + +PikaScenes v2.2 ノードは、複数の画像を組み合わせて、すべての入力画像に含まれるオブジェクトを統合した動画を生成します。最大5枚の異なる画像を「素材」としてアップロードし、それらをシームレスに融合した高品質な動画を生成できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `prompt_text` | STRING | はい | - | 生成対象をテキストで記述したもの | +| `negative_prompt` | STRING | はい | - | 生成時に回避すべき内容をテキストで記述したもの | +| `seed` | INT | はい | - | 生成に用いる乱数シード値 | +| `resolution` | STRING | はい | - | 動画の出力解像度 | +| `duration` | INT | はい | - | 生成される動画の再生時間(秒) | +| `ingredients_mode` | COMBO | いいえ | "creative"
"precise" | 素材の合成モード(デフォルト:"creative") | +| `aspect_ratio` | FLOAT | いいえ | 0.4 - 2.5 | アスペクト比(横幅/縦幅)(デフォルト:1.778) | +| `image_ingredient_1` | IMAGE | いいえ | - | 動画生成に使用する画像素材 | +| `image_ingredient_2` | IMAGE | いいえ | - | 動画生成に使用する画像素材 | +| `image_ingredient_3` | IMAGE | いいえ | - | 動画生成に使用する画像素材 | +| `image_ingredient_4` | IMAGE | いいえ | - | 動画生成に使用する画像素材 | +| `image_ingredient_5` | IMAGE | いいえ | - | 動画生成に使用する画像素材 | + +**注意:** 最大5つの画像素材を指定できますが、動画を生成するには少なくとも1枚の画像が必要です。このノードは、指定されたすべての画像を用いて最終的な動画合成を行います。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `output` | VIDEO | 全ての入力画像を融合して生成された動画 | \ No newline at end of file diff --git a/ja/built-in-nodes/PikaStartEndFrameNode2_2.mdx b/ja/built-in-nodes/PikaStartEndFrameNode2_2.mdx new file mode 100644 index 000000000..77ec8efeb --- /dev/null +++ b/ja/built-in-nodes/PikaStartEndFrameNode2_2.mdx @@ -0,0 +1,30 @@ +--- +title: "PikaStartEndFrameNode2_2 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における PikaStartEndFrameNode2_2 ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PikaStartEndFrameNode2_2" +icon: "circle" +mode: wide +translationSourceHash: a2aca5d7 +translationFrom: built-in-nodes/PikaStartEndFrameNode2_2.mdx, zh-CN/built-in-nodes/PikaStartEndFrameNode2_2.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PikaStartEndFrameNode2_2/en.md) + +PikaFrames v2.2 ノードは、ユーザーが指定した開始フレームと終了フレームを組み合わせることで動画を生成します。開始点と終了点を定義するために2枚の画像をアップロードすると、AIがそれらの間で滑らかなトランジションを作成し、完成した動画を生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image_start` | IMAGE | はい | - | 組み合わせる最初の画像です。 | +| `image_end` | IMAGE | はい | - | 組み合わせる最後の画像です。 | +| `prompt_text` | STRING | はい | - | 生成したい動画の内容を記述するテキストプロンプトです。 | +| `negative_prompt` | STRING | はい | - | 動画に含めたくない要素を記述するテキストです。 | +| `seed` | INT | はい | - | 生成結果の一貫性を保つための乱数シード値です。 | +| `resolution` | STRING | はい | - | 出力動画の解像度です。 | +| `duration` | INT | はい | - | 生成される動画の再生時間(秒)です。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | AIによるトランジションを用いて開始フレームと終了フレームを合成して生成された動画です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/PikaTextToVideoNode2_2.mdx b/ja/built-in-nodes/PikaTextToVideoNode2_2.mdx new file mode 100644 index 000000000..cbf879056 --- /dev/null +++ b/ja/built-in-nodes/PikaTextToVideoNode2_2.mdx @@ -0,0 +1,31 @@ +--- +title: "PikaTextToVideoNode2_2 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における PikaTextToVideoNode2_2 ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PikaTextToVideoNode2_2" +icon: "circle" +mode: wide +translationSourceHash: 24a7c5a7 +translationFrom: built-in-nodes/PikaTextToVideoNode2_2.mdx, zh-CN/built-in-nodes/PikaTextToVideoNode2_2.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PikaTextToVideoNode2_2/en.md) + +Pika Text2Video v2.2 ノードは、テキストプロンプトを Pika API のバージョン 2.2 に送信して動画を生成します。このノードは、Pika 社の AI 動画生成サービスを用いて、入力したテキスト記述を動画に変換します。また、アスペクト比、再生時間、解像度など、動画生成プロセスのさまざまな側面をカスタマイズできます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt_text` | STRING | はい | - | 動画内で生成したい内容を記述する主なテキストプロンプトです | +| `negative_prompt` | STRING | はい | - | 生成される動画に**含めたくない内容**を記述するテキストです | +| `seed` | INT | はい | - | 生成結果のランダム性を制御する数値で、再現可能な結果を得るために使用します | +| `resolution` | STRING | はい | - | 出力動画の解像度設定です | +| `duration` | INT | はい | - | 動画の長さ(単位:秒)です | +| `aspect_ratio` | FLOAT | いいえ | 0.4 - 2.5 | アスペクト比(横幅/高さ)(デフォルト値:1.7777777777777777) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | Pika API から返された生成済み動画ファイルです | \ No newline at end of file diff --git a/ja/built-in-nodes/Pikadditions.mdx b/ja/built-in-nodes/Pikadditions.mdx new file mode 100644 index 000000000..a0eb9f4e7 --- /dev/null +++ b/ja/built-in-nodes/Pikadditions.mdx @@ -0,0 +1,30 @@ +--- +title: "Pikadditions - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の Pikadditions ノードに関する完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "Pikadditions" +icon: "circle" +mode: wide +translationSourceHash: 7624bf4f +translationFrom: built-in-nodes/Pikadditions.mdx, zh-CN/built-in-nodes/Pikadditions.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Pikadditions/en.md) + +Pikadditions ノードを使用すると、任意のオブジェクトや画像を動画に追加できます。動画をアップロードし、追加したい内容を指定することで、シームレスに統合された結果を作成できます。このノードは Pika API を活用して、自然な見た目で画像を動画に挿入します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `video` | VIDEO | はい | - | 画像を追加する対象の動画です。 | +| `image` | IMAGE | はい | - | 動画に追加する画像です。 | +| `prompt_text` | STRING | はい | - | 動画に追加する内容を説明するテキストです。 | +| `negative_prompt` | STRING | はい | - | 動画に出現してはならない内容を説明するテキストです。 | +| `seed` | INT | はい | 0 ~ 4294967295 | 再現可能な結果を得るための乱数シード値です。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 画像が挿入された処理済み動画です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Pikaffects.mdx b/ja/built-in-nodes/Pikaffects.mdx new file mode 100644 index 000000000..42eaba200 --- /dev/null +++ b/ja/built-in-nodes/Pikaffects.mdx @@ -0,0 +1,28 @@ +--- +title: "Pikaffects - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における Pikaffects ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Pikaffects" +icon: "circle" +mode: wide +translationSourceHash: bfbdaab1 +translationFrom: built-in-nodes/Pikaffects.mdx, zh-CN/built-in-nodes/Pikaffects.mdx +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Pikaffects/en.md) + +Pikaffects ノードは、入力画像にさまざまな視覚エフェクトを適用した動画を生成します。このノードでは Pika の動画生成 API を利用し、静止画を「溶ける」「爆発する」「浮遊する」などの特定のエフェクトを伴うアニメーション動画へと変換します。Pika サービスへのアクセスには、API キーおよび認証トークンが必要です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | Pikaffect エフェクトを適用する対象となる参照画像です。 | +| `pikaffect` | COMBO | はい | "Cake-ify"
"Crumble"
"Crush"
"Decapitate"
"Deflate"
"Dissolve"
"Explode"
"Eye-pop"
"Inflate"
"Levitate"
"Melt"
"Peel"
"Poke"
"Squish"
"Ta-da"
"Tear" | 画像に適用する特定の視覚エフェクト(デフォルト: "Cake-ify")。 | +| `prompt_text` | STRING | はい | - | 動画生成をガイドするテキスト記述です。 | +| `negative_prompt` | STRING | はい | - | 生成される動画で回避すべき要素を記述するテキストです。 | +| `seed` | INT | はい | 0 ~ 4294967295 | 再現可能な結果を得るための乱数シード値です。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 適用された Pikaffect エフェクトを含む生成動画です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Pikaswaps.mdx b/ja/built-in-nodes/Pikaswaps.mdx new file mode 100644 index 000000000..d3e91b81c --- /dev/null +++ b/ja/built-in-nodes/Pikaswaps.mdx @@ -0,0 +1,33 @@ +--- +title: "Pikaswaps - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の Pikaswaps ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Pikaswaps" +icon: "circle" +mode: wide +translationSourceHash: 223907d6 +translationFrom: built-in-nodes/Pikaswaps.mdx, zh-CN/built-in-nodes/Pikaswaps.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Pikaswaps/en.md) + +Pika Swaps ノードを使用すると、動画内のオブジェクトまたは領域を新しい画像に置き換えることができます。置き換え対象の領域は、マスクまたは座標を用いて定義でき、このノードは指定されたコンテンツを動画全体にわたりシームレスに置き換えます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `video` | VIDEO | はい | - | オブジェクトを置き換える対象の動画です。 | +| `image` | IMAGE | はい | - | 動画内のマスク適用領域を置き換えるために使用する画像です。 | +| `mask` | MASK | はい | - | マスクを用いて、動画内で置き換える領域を定義します。 | +| `prompt_text` | STRING | はい | - | 望ましい置き換え効果を記述するテキストプロンプトです。 | +| `negative_prompt` | STRING | はい | - | 置き換え時に回避すべき内容を記述するテキストプロンプトです。 | +| `seed` | INT | はい | 0 ~ 4294967295 | 結果の一貫性を保つための乱数シード値です。 | + +**注意:** このノードでは、すべての入力パラメーターの指定が必須です。`video`、`image`、および `mask` は、置き換え操作を共同で定義するために使用され、そのうち `mask` は、提供された画像で置き換える動画内の領域を特定します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 指定されたオブジェクトまたは領域が置き換えられた、処理済みの動画です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/PixverseImageToVideoNode.mdx b/ja/built-in-nodes/PixverseImageToVideoNode.mdx new file mode 100644 index 000000000..1d25ef53d --- /dev/null +++ b/ja/built-in-nodes/PixverseImageToVideoNode.mdx @@ -0,0 +1,35 @@ +--- +title: "PixverseImageToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における PixverseImageToVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PixverseImageToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 2dc4d0b6 +translationFrom: built-in-nodes/PixverseImageToVideoNode.mdx, zh-CN/built-in-nodes/PixverseImageToVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PixverseImageToVideoNode/en.md) + +入力画像とテキストプロンプトに基づいて動画を生成します。このノードは画像を入力として受け取り、指定されたモーション設定および品質設定を適用することで、静止画像を動的なシーケンスへと変換し、アニメーション動画を作成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 動画に変換する入力画像 | +| `prompt` | STRING | はい | - | 動画生成用のプロンプト | +| `quality` | COMBO | はい | `res_540p`
`res_1080p` | 動画の品質設定(デフォルト:`res_540p`) | +| `duration_seconds` | COMBO | はい | `dur_2`
`dur_5`
`dur_10` | 生成される動画の再生時間(秒) | +| `motion_mode` | COMBO | はい | `normal`
`fast`
`slow`
`zoom_in`
`zoom_out`
`pan_left`
`pan_right`
`pan_up`
`pan_down`
`tilt_up`
`tilt_down`
`roll_clockwise`
`roll_counterclockwise` | 動画生成に適用されるモーションスタイル | +| `seed` | INT | はい | 0–2147483647 | 動画生成の乱数シード(デフォルト:0) | +| `negative_prompt` | STRING | いいえ | - | 画像に含まれてほしくない要素を記述した任意のテキスト | +| `pixverse_template` | CUSTOM | いいえ | - | 生成スタイルに影響を与える任意のテンプレート。PixVerse テンプレートノードによって作成されます | + +**注意:** `res_1080p` の品質設定を使用する場合、モーションモードは自動的に `normal` に設定され、再生時間は 5 秒に制限されます。また、再生時間が 5 秒でない場合も、モーションモードは自動的に `normal` に設定されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 入力画像およびパラメーターに基づいて生成された動画 | \ No newline at end of file diff --git a/ja/built-in-nodes/PixverseTemplateNode.mdx b/ja/built-in-nodes/PixverseTemplateNode.mdx new file mode 100644 index 000000000..7c4a986bc --- /dev/null +++ b/ja/built-in-nodes/PixverseTemplateNode.mdx @@ -0,0 +1,26 @@ +--- +title: "PixverseTemplateNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における PixverseTemplateNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PixverseTemplateNode" +icon: "circle" +mode: wide +translationSourceHash: 0e7358e4 +translationFrom: built-in-nodes/PixverseTemplateNode.mdx, zh-CN/built-in-nodes/PixverseTemplateNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PixverseTemplateNode/en.md) + +PixVerse Template ノードを使用すると、PixVerse 動画生成に利用可能なテンプレートから選択できます。このノードは、ユーザーが選択したテンプレート名を、PixVerse API が動画作成に必要とする対応するテンプレート ID に変換します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `template` | STRING | はい | 複数のオプションが利用可能 | PixVerse 動画生成に使用するテンプレートです。利用可能なオプションは、PixVerse システムに事前に定義されたテンプレートに対応しています。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `pixverse_template` | INT | 選択したテンプレート名に対応するテンプレート ID です。他の PixVerse ノードで動画生成に使用できます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/PixverseTextToVideoNode.mdx b/ja/built-in-nodes/PixverseTextToVideoNode.mdx new file mode 100644 index 000000000..3bab63c82 --- /dev/null +++ b/ja/built-in-nodes/PixverseTextToVideoNode.mdx @@ -0,0 +1,35 @@ +--- +title: "PixverseTextToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における PixverseTextToVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PixverseTextToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 3006b705 +translationFrom: built-in-nodes/PixverseTextToVideoNode.mdx, zh-CN/built-in-nodes/PixverseTextToVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PixverseTextToVideoNode/en.md) + +プロンプトおよび出力サイズに基づいて動画を生成します。このノードは、テキストによる説明と各種生成パラメーターを用いて PixVerse API を通じて動画コンテンツを作成し、動画出力を生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | 動画生成用のプロンプト(デフォルト: "") | +| `aspect_ratio` | COMBO | はい | PixverseAspectRatio の選択肢 | 生成される動画のアスペクト比 | +| `quality` | COMBO | はい | PixverseQuality の選択肢 | 動画の品質設定(デフォルト: PixverseQuality.res_540p) | +| `duration_seconds` | COMBO | はい | PixverseDuration の選択肢 | 生成される動画の長さ(秒単位) | +| `motion_mode` | COMBO | はい | PixverseMotionMode の選択肢 | 動画生成におけるモーションスタイル | +| `seed` | INT | はい | 0 ~ 2147483647 | 動画生成用のシード値(デフォルト: 0) | +| `negative_prompt` | STRING | いいえ | - | 画像に含まれてほしくない要素を記述する任意のテキスト(デフォルト: "") | +| `pixverse_template` | CUSTOM | いいえ | - | 生成スタイルに影響を与える任意のテンプレート。PixVerse Template ノードによって作成されます | + +**注意:** 1080p の品質設定を使用する場合、モーションモードは自動的に `normal` に設定され、再生時間は 5 秒に制限されます。また、5 秒以外の再生時間を指定した場合も、モーションモードは自動的に `normal` に設定されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画ファイル | \ No newline at end of file diff --git a/ja/built-in-nodes/PixverseTransitionVideoNode.mdx b/ja/built-in-nodes/PixverseTransitionVideoNode.mdx new file mode 100644 index 000000000..95f8f86fc --- /dev/null +++ b/ja/built-in-nodes/PixverseTransitionVideoNode.mdx @@ -0,0 +1,35 @@ +--- +title: "PixverseTransitionVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における PixverseTransitionVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PixverseTransitionVideoNode" +icon: "circle" +mode: wide +translationSourceHash: dbc29a99 +translationFrom: built-in-nodes/PixverseTransitionVideoNode.mdx, zh-CN/built-in-nodes/PixverseTransitionVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PixverseTransitionVideoNode/en.md) + +プロンプトおよび出力サイズに基づいて動画を生成します。このノードは PixVerse API を使用して、2 つの入力画像間のトランジション動画を作成します。動画の品質、再生時間、モーションスタイル、および生成パラメーターを指定できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `first_frame` | IMAGE | はい | - | 動画トランジションの開始画像 | +| `last_frame` | IMAGE | はい | - | 動画トランジションの終了画像 | +| `prompt` | STRING | はい | - | 動画生成用のプロンプト(デフォルト:空文字列) | +| `quality` | COMBO | はい | PixverseQuality 列挙型で利用可能な品質オプション
デフォルト:res_540p | 動画品質設定 | +| `duration_seconds` | COMBO | はい | PixverseDuration 列挙型で利用可能な再生時間オプション | 動画の再生時間(秒) | +| `motion_mode` | COMBO | はい | PixverseMotionMode 列挙型で利用可能なモーションモードオプション | トランジションのモーションスタイル | +| `seed` | INT | はい | 0 ~ 2147483647 | 動画生成用のシード値(デフォルト:0) | +| `negative_prompt` | STRING | いいえ | - | 画像に含まれてほしくない要素を記述する任意のテキスト(デフォルト:空文字列) | + +**注意:** 1080p の品質を使用する場合、モーションモードは自動的に `normal` に設定され、再生時間は 5 秒に制限されます。また、5 秒以外の再生時間を指定した場合も、モーションモードは自動的に `normal` に設定されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成されたトランジション動画 | \ No newline at end of file diff --git a/ja/built-in-nodes/PolyexponentialScheduler.mdx b/ja/built-in-nodes/PolyexponentialScheduler.mdx new file mode 100644 index 000000000..946b14046 --- /dev/null +++ b/ja/built-in-nodes/PolyexponentialScheduler.mdx @@ -0,0 +1,26 @@ +--- +title: "PolyexponentialScheduler - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における PolyexponentialScheduler ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PolyexponentialScheduler" +icon: "circle" +mode: wide +translationSourceHash: 53a0a402 +translationFrom: built-in-nodes/PolyexponentialScheduler.mdx, zh-CN/built-in-nodes/PolyexponentialScheduler.mdx +--- + +PolyexponentialScheduler ノードは、多項式指数型ノイズスケジュールに基づいて一連のノイズレベル(sigmas)を生成するように設計されています。このスケジュールは、sigma の対数に対する多項式関数であり、拡散プロセス全体においてノイズレベルの進行を柔軟かつカスタマイズ可能にします。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|----------------|------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| `steps` | INT | 拡散プロセスにおけるステップ数を指定します。これにより、生成されるノイズレベルの粒度が決まります。 | +| `sigma_max` | FLOAT | 最大ノイズレベルで、ノイズスケジュールの上限値を設定します。 | +| `sigma_min` | FLOAT | 最小ノイズレベルで、ノイズスケジュールの下限値を設定します。 | +| `rho` | FLOAT | 多項式指数型ノイズスケジュールの形状を制御するパラメーターで、最小値と最大値の間におけるノイズレベルの進行具合に影響を与えます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|--------------|------------|----------------------------------------------------------------------| +| `sigmas` | SIGMAS | 出力は、指定された多項式指数型ノイズスケジュールに応じて最適化された一連のノイズレベル(sigmas)です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/PorterDuffImageComposite.mdx b/ja/built-in-nodes/PorterDuffImageComposite.mdx new file mode 100644 index 000000000..817334d21 --- /dev/null +++ b/ja/built-in-nodes/PorterDuffImageComposite.mdx @@ -0,0 +1,28 @@ +--- +title: "PorterDuffImageComposite - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における PorterDuffImageComposite ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PorterDuffImageComposite" +icon: "circle" +mode: wide +translationSourceHash: d3d63183 +translationFrom: built-in-nodes/PorterDuffImageComposite.mdx, zh-CN/built-in-nodes/PorterDuffImageComposite.mdx +--- + +PorterDuffImageComposite ノードは、Porter-Duff 合成演算子を用いた画像合成を実行するために設計されています。このノードでは、さまざまなブレンドモードに従ってソース画像とデスティネーション(宛先)画像を合成することが可能であり、画像の透明度を制御したり、創造的な方法で画像を重ね合わせたりすることで、複雑な視覚エフェクトを作成できます。 + +## 入力 + +| パラメーター | データ型 | 説明 | +| --------- | ------------ | ----------- | +| `source` | `IMAGE` | デスティネーション画像の上に合成されるソース画像のテンソルです。選択された合成モードに基づき、最終的な視覚的結果を決定する上で重要な役割を果たします。 | +| `source_alpha` | `MASK` | ソース画像のアルファチャンネルで、ソース画像内の各ピクセルの透明度を指定します。これにより、ソース画像とデスティネーション画像のブレンド具合が影響を受けます。 | +| `destination` | `IMAGE` | ソース画像を合成する際の背景となるデスティネーション画像のテンソルです。ブレンドモードに応じて、最終的な合成画像に寄与します。 | +| `destination_alpha` | `MASK` | デスティネーション画像のアルファチャンネルで、デスティネーション画像のピクセルの透明度を定義します。これにより、ソース画像とデスティネーション画像のブレンド具合が影響を受けます。 | +| `mode` | COMBO[STRING] | 適用する Porter-Duff 合成モードです。このモードによって、ソース画像とデスティネーション画像がどのようにブレンドされるかが決定されます。各モードは異なる視覚効果を生成します。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +| --------- | ------------ | ----------- | +| `image` | `IMAGE` | 指定された Porter-Duff モードを適用して得られた合成画像です。 | +| `mask` | `MASK` | 合成画像のアルファチャンネルで、各ピクセルの透明度を示します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Preview3D.mdx b/ja/built-in-nodes/Preview3D.mdx new file mode 100644 index 000000000..eadb1533a --- /dev/null +++ b/ja/built-in-nodes/Preview3D.mdx @@ -0,0 +1,112 @@ +--- +title: "Preview3D - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の Preview3D ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Preview3D" +icon: "circle" +mode: wide +translationSourceHash: 97b8fcda +translationFrom: built-in-nodes/Preview3D.mdx, zh-CN/built-in-nodes/Preview3D.mdx +translationMismatches: + - "description" +--- +Preview3D ノードは、主に 3D モデル出力をプレビューするために使用されます。このノードは 2 つの入力を受け取ります。1 つは Load3D ノードから得られる `camera_info`、もう 1 つは 3D モデルファイルのパスです。モデルファイルのパスは、`ComfyUI/output` フォルダー内に配置されている必要があります。 + +**対応フォーマット** +現在、このノードは `.gltf`、`.glb`、`.obj`、`.fbx`、`.stl` などの複数の 3D ファイルフォーマットをサポートしています。 + +**3D ノードの設定(プリファレンス)** +3D ノードに関連するいくつかの設定は、ComfyUI の設定メニューで行うことができます。対応する設定については、以下のドキュメントをご参照ください: +[設定メニュー](https://docs.comfy.org/interface/settings/3d) + +## 入力 + +| パラメーター名 | 型 | 説明 | +| -------------- | --------------- | ----------------------------------------- | +| camera_info | LOAD3D_CAMERA | カメラ情報 | +| model_file | STRING | `ComfyUI/output/` 内のモデルファイルのパス | + +## キャンバス領域の説明 + +現在、ComfyUI のフロントエンドにおける 3D 関連ノードは、キャンバスコンポーネントを共用しているため、一部の機能的差異を除けば、基本的な操作はほぼ同一です。 + +> 以降の内容およびインターフェースは、主に Load3D ノードを基準として記述されています。具体的な機能については、実際のノードインターフェースをご確認ください。 + +キャンバス領域には、以下のようなさまざまなビュー操作が含まれています: + +- プレビュー表示設定(グリッド表示、背景色、プレビューウィンドウ) +- カメラ制御:FOV(画角)、カメラタイプ +- グローバルイルミネーション強度:照明の調整 +- モデルのエクスポート:`GLB`、`OBJ`、`STL` 形式に対応 +- その他 + +![Load 3D ノード UI](/images/built-in-nodes/Preview3D/preview3d_canvas.jpg) + +1. Load 3D ノードの複数のメニューおよび非表示メニューを含む +2. 3D ビュー操作用の座標軸 + +### 1. ビュー操作 + + + +ビュー制御操作: + +- 左クリック+ドラッグ:ビューの回転 +- 右クリック+ドラッグ:ビューのパン(平行移動) +- マウスホイールスクロール、または中ボタンクリック+ドラッグ:ズームイン/ズームアウト +- 座標軸:ビューの切り替え + +### 2. 左側メニューの機能 + +![Menu](https://raw.githubusercontent.com/Comfy-Org/embedded-docs/refs/heads/main/comfyui_embedded_docs/docs/Load3d/asset/menu.webp) + +プレビュー領域では、一部のビュー操作関連メニューが隠されており、メニューボタンをクリックすることで各メニューを展開できます。 + +- 1. **シーン(Scene)**:プレビューウィンドウのグリッド表示、背景色、サムネイル設定を含む +- 2. **モデル(Model)**:モデルのレンダリングモード、テクスチャ・マテリアル、上方向(Up direction)の設定 +- 3. **カメラ(Camera)**:平行投影(オルソグラフィック)ビューと透視投影(パースペクティブ)ビューの切り替え、透視角度の設定 +- 4. **ライト(Light)**:シーン全体のグローバルイルミネーション強度 +- 5. **エクスポート(Export)**:モデルを他の形式(GLB、OBJ、STL)へエクスポート + +#### シーン(Scene) + +![scene menu](https://raw.githubusercontent.com/Comfy-Org/embedded-docs/refs/heads/main/comfyui_embedded_docs/docs/Load3d/asset/menu_scene.webp) + +シーンメニューでは、シーンの基本設定機能を提供します: + +1. グリッドの表示/非表示 +2. 背景色の設定 +3. 背景画像のアップロード(クリックで実行) +4. プレビューサムネイルの非表示 + +#### モデル(Model) + +![Menu_Scene](https://raw.githubusercontent.com/Comfy-Org/embedded-docs/refs/heads/main/comfyui_embedded_docs/docs/Load3d/asset/menu_model.webp) + +モデルメニューでは、モデルに関連する機能を提供します: + +1. **上方向(Up direction)**:モデルの「上」方向を定義する軸を指定 +2. **マテリアルモード(Material mode)**:モデルのレンダリングモードを切り替え(オリジナル/法線(Normal)/ワイヤーフレーム(Wireframe)/ラインアート(Lineart)) + +#### カメラ(Camera) + +![menu_modelmenu_camera](https://raw.githubusercontent.com/Comfy-Org/embedded-docs/refs/heads/main/comfyui_embedded_docs/docs/Load3d/asset/menu_camera.webp) + +このメニューでは、平行投影ビューと透視投影ビューの切り替え、および透視角度(FOV)の設定が可能です: + +1. **カメラ(Camera)**:平行投影ビューと透視投影ビューを素早く切り替え +2. **FOV(Field of View)**:FOV 角度を調整 + +#### ライト(Light) + +![menu_modelmenu_camera](https://raw.githubusercontent.com/Comfy-Org/embedded-docs/refs/heads/main/comfyui_embedded_docs/docs/Load3d/asset/menu_light.webp) + +このメニューを通じて、シーン全体のグローバルイルミネーション強度を迅速に調整できます。 + +#### エクスポート(Export) + +![menu_export](https://raw.githubusercontent.com/Comfy-Org/embedded-docs/refs/heads/main/comfyui_embedded_docs/docs/Load3d/asset/menu_export.webp) + +このメニューでは、モデルのフォーマット変換およびエクスポートを迅速に行う機能を提供します。 \ No newline at end of file diff --git a/ja/built-in-nodes/Preview3DAnimation.mdx b/ja/built-in-nodes/Preview3DAnimation.mdx new file mode 100644 index 000000000..8ddba79eb --- /dev/null +++ b/ja/built-in-nodes/Preview3DAnimation.mdx @@ -0,0 +1,112 @@ +--- +title: "Preview3DAnimation - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の Preview3DAnimation ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Preview3DAnimation" +icon: "circle" +mode: wide +translationSourceHash: ae4372e5 +translationFrom: built-in-nodes/Preview3DAnimation.mdx, zh-CN/built-in-nodes/Preview3DAnimation.mdx +translationMismatches: + - "description" +--- +Preview3DAnimation ノードは、主に 3D モデル出力をプレビューするために使用されます。このノードは 2 つの入力を受け取ります。1 つは Load3D ノードから得られる `camera_info`、もう 1 つは 3D モデルファイルのパスです。モデルファイルのパスは、`ComfyUI/output` フォルダー内にある必要があります。 + +**サポートされるフォーマット** +現在、このノードでは `.gltf`、`.glb`、`.obj`、`.fbx`、`.stl` などの複数の 3D ファイルフォーマットがサポートされています。 + +**3D ノードの設定項目** +3D ノードに関連するいくつかの設定項目は、ComfyUI の設定メニューで構成できます。対応する設定については、以下のドキュメントを参照してください: +[設定メニュー](https://docs.comfy.org/interface/settings/3d) + +## 入力 + +| パラメーター名 | 型 | 説明 | +| -------------- | -------------- | ----------------------------------------- | +| camera_info | LOAD3D_CAMERA | カメラ情報 | +| model_file | STRING | `ComfyUI/output/` 内のモデルファイルのパス | + +## キャンバス領域の説明 + +現在、ComfyUI のフロントエンドにおける 3D 関連ノードは、キャンバスコンポーネントを共用しています。そのため、一部の機能的差異を除けば、基本的な操作はほぼ同一です。 + +> 以下に示す内容およびインターフェースは、主に Load3D ノードを基準として作成されています。具体的な機能については、実際のノードインターフェースをご確認ください。 + +キャンバス領域には、以下のようなさまざまなビュー操作が含まれています: + +- プレビュー表示設定(グリッド表示、背景色、プレビュービュー) +- カメラ制御:FOV(画角)、カメラタイプ +- グローバルイルミネーション強度:照明の調整 +- モデルのエクスポート:`GLB`、`OBJ`、`STL` 形式に対応 +- その他 + +![Load 3D ノード UI](/images/built-in-nodes/Preview3DAnimation/preview3d_canvas.jpg) + +1. Load 3D ノードの複数のメニューおよび非表示メニューを含む +2. 3D ビュー操作用の座標軸 + +### 1. ビュー操作 + + + +ビュー制御操作: + +- 左クリック+ドラッグ:ビューの回転 +- 右クリック+ドラッグ:ビューのパン(平行移動) +- マウスホイールスクロール、または中クリック+ドラッグ:ズームイン/ズームアウト +- 座標軸:ビューの切り替え + +### 2. 左側メニューの機能 + +![Menu](https://raw.githubusercontent.com/Comfy-Org/embedded-docs/refs/heads/main/comfyui_embedded_docs/docs/Load3d/asset/menu.webp) + +プレビュー領域では、一部のビュー操作関連メニューが隠されており、メニューボタンをクリックすることで各メニューを展開できます。 + +- 1. **シーン(Scene)**:プレビューウィンドウのグリッド表示、背景色、サムネイル設定を含む +- 2. **モデル(Model)**:モデルのレンダリングモード、テクスチャ・マテリアル、上方向(Up direction)の設定 +- 3. **カメラ(Camera)**:平行投影(オルソグラフィック)ビューと透視投影(パースペクティブ)ビューの切り替え、透視角度の設定 +- 4. **ライト(Light)**:シーン全体のグローバルイルミネーション強度 +- 5. **エクスポート(Export)**:モデルを他の形式(`GLB`、`OBJ`、`STL`)へエクスポート + +#### シーン(Scene) + +![scene menu](https://raw.githubusercontent.com/Comfy-Org/embedded-docs/refs/heads/main/comfyui_embedded_docs/docs/Load3d/asset/menu_scene.webp) + +シーンメニューでは、シーンの基本設定機能を提供します: + +1. グリッドの表示/非表示 +2. 背景色の設定 +3. 背景画像のアップロード(クリックで実行) +4. プレビューサムネイルの非表示 + +#### モデル(Model) + +![Menu_Scene](https://raw.githubusercontent.com/Comfy-Org/embedded-docs/refs/heads/main/comfyui_embedded_docs/docs/Load3d/asset/menu_model.webp) + +モデルメニューでは、モデルに関連する機能を提供します: + +1. **上方向(Up direction)**:モデルの「上」方向を定義する軸を指定 +2. **マテリアルモード(Material mode)**:モデルのレンダリングモードを切り替え — 「Original(オリジナル)」「Normal(法線)」「Wireframe(ワイヤーフレーム)」「Lineart(ラインアート)」 + +#### カメラ(Camera) + +![menu_modelmenu_camera](https://raw.githubusercontent.com/Comfy-Org/embedded-docs/refs/heads/main/comfyui_embedded_docs/docs/Load3d/asset/menu_camera.webp) + +このメニューでは、平行投影ビューと透視投影ビューの切り替え、および透視角度の設定が可能です: + +1. **カメラ(Camera)**:平行投影ビューと透視投影ビューを素早く切り替え +2. **FOV(Field of View)**:FOV 角度を調整 + +#### ライト(Light) + +![menu_modelmenu_camera](https://raw.githubusercontent.com/Comfy-Org/embedded-docs/refs/heads/main/comfyui_embedded_docs/docs/Load3d/asset/menu_light.webp) + +このメニューを通じて、シーン全体のグローバルイルミネーション強度を素早く調整できます。 + +#### エクスポート(Export) + +![menu_export](https://raw.githubusercontent.com/Comfy-Org/embedded-docs/refs/heads/main/comfyui_embedded_docs/docs/Load3d/asset/menu_export.webp) + +このメニューでは、モデルのフォーマット変換およびエクスポートを迅速に行うことができます。 \ No newline at end of file diff --git a/ja/built-in-nodes/PreviewAny.mdx b/ja/built-in-nodes/PreviewAny.mdx new file mode 100644 index 000000000..7a1068cbb --- /dev/null +++ b/ja/built-in-nodes/PreviewAny.mdx @@ -0,0 +1,24 @@ +--- +title: "PreviewAny - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における PreviewAny ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PreviewAny" +icon: "circle" +mode: wide +translationSourceHash: 371fe365 +translationFrom: built-in-nodes/PreviewAny.mdx, zh-CN/built-in-nodes/PreviewAny.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PreviewAny/en.md) + +PreviewAny ノードは、任意の入力データ型をテキスト形式でプレビュー表示します。このノードは、あらゆるデータ型を入力として受け付け、それを人間が読みやすい文字列表現に変換して表示します。ノードは、文字列、数値、ブール値、複雑なオブジェクトなど、さまざまなデータ型を自動的に処理し、可能な限り JSON 形式にシリアライズしようと試みます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `source` | ANY | はい | 任意のデータ型 | プレビュー表示用に任意の入力データ型を受け付けます | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| UI Text Display | TEXT | 入力データをテキスト形式に変換したものをユーザーインターフェース上に表示します | \ No newline at end of file diff --git a/ja/built-in-nodes/PreviewAudio.mdx b/ja/built-in-nodes/PreviewAudio.mdx new file mode 100644 index 000000000..2a4a59cba --- /dev/null +++ b/ja/built-in-nodes/PreviewAudio.mdx @@ -0,0 +1,26 @@ +--- +title: "PreviewAudio - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における PreviewAudio ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PreviewAudio" +icon: "circle" +mode: wide +translationSourceHash: f5f16109 +translationFrom: built-in-nodes/PreviewAudio.mdx, zh-CN/built-in-nodes/PreviewAudio.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PreviewAudio/en.md) + +PreviewAudio ノードは、インターフェース上で表示可能な一時的な音声プレビュー用ファイルを生成します。このノードは SaveAudio を継承していますが、ファイルは一時ディレクトリに保存され、ランダムなファイル名のプレフィックスが付与されます。これにより、ユーザーは永続的なファイルを作成することなく、音声出力を素早くプレビューできます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `audio` | AUDIO | はい | - | プレビュー対象の音声データ | +| `prompt` | PROMPT | いいえ | - | 内部処理用の非表示パラメーター | +| `extra_pnginfo` | EXTRA_PNGINFO | いいえ | - | 内部処理用の非表示パラメーター | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `ui` | UI | インターフェース上に音声プレビューを表示します | \ No newline at end of file diff --git a/ja/built-in-nodes/PreviewImage.mdx b/ja/built-in-nodes/PreviewImage.mdx new file mode 100644 index 000000000..3fc847cb0 --- /dev/null +++ b/ja/built-in-nodes/PreviewImage.mdx @@ -0,0 +1,21 @@ +--- +title: "PreviewImage - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における PreviewImage ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PreviewImage" +icon: "circle" +mode: wide +translationSourceHash: 25d07bfb +translationFrom: built-in-nodes/PreviewImage.mdx, zh-CN/built-in-nodes/PreviewImage.mdx +--- + +PreviewImage ノードは、一時的なプレビュー画像を作成するために設計されています。このノードは、各画像に対して一意の一時ファイル名を自動的に生成し、指定された圧縮レベルで画像を圧縮して、一時ディレクトリに保存します。この機能は、元のファイルに影響を与えることなく、処理中に画像のプレビューを生成する際に特に有用です。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `images` | `IMAGE` | `images` 入力は、処理・保存対象となる一時プレビュー画像を指定します。これはノードの主な入力であり、どの画像がプレビュー生成処理を経るかを決定します。 | + +## 出力 + +このノードには出力タイプがありません。 \ No newline at end of file diff --git a/ja/built-in-nodes/PrimitiveBoolean.mdx b/ja/built-in-nodes/PrimitiveBoolean.mdx new file mode 100644 index 000000000..f26f06968 --- /dev/null +++ b/ja/built-in-nodes/PrimitiveBoolean.mdx @@ -0,0 +1,24 @@ +--- +title: "PrimitiveBoolean - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の PrimitiveBoolean ノードに関する完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "PrimitiveBoolean" +icon: "circle" +mode: wide +translationSourceHash: bce4d289 +translationFrom: built-in-nodes/PrimitiveBoolean.mdx, zh-CN/built-in-nodes/PrimitiveBoolean.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PrimitiveBoolean/en.md) + +Boolean ノードは、ワークフロー内でブール値(true / false)を簡単に渡すためのシンプルな手段を提供します。このノードはブール型の入力値を受け取り、変更せずに同じ値を出力します。これにより、他のノードにおけるブール型パラメーターを制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `value` | BOOLEAN | はい | true
false | このノードを経由して渡すブール値 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | BOOLEAN | 入力として指定されたのと同じブール値 | \ No newline at end of file diff --git a/ja/built-in-nodes/PrimitiveBoundingBox.mdx b/ja/built-in-nodes/PrimitiveBoundingBox.mdx new file mode 100644 index 000000000..f7a82cd15 --- /dev/null +++ b/ja/built-in-nodes/PrimitiveBoundingBox.mdx @@ -0,0 +1,27 @@ +--- +title: "PrimitiveBoundingBox - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における PrimitiveBoundingBox ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PrimitiveBoundingBox" +icon: "circle" +mode: wide +translationSourceHash: 2cb49d83 +translationFrom: built-in-nodes/PrimitiveBoundingBox.mdx, zh-CN/built-in-nodes/PrimitiveBoundingBox.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PrimitiveBoundingBox/en.md) + +PrimitiveBoundingBox ノードは、その位置とサイズによって定義される単純な矩形領域を作成します。このノードは、矩形の左上角の X 座標および Y 座標、および幅と高さの値を受け取り、ワークフロー内で他のノードが利用可能な「バウンディングボックス(境界矩形)」データ構造を出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `x` | INT | いいえ | 0 ~ 8192 | バウンディングボックスの左上角の X 座標(デフォルト:0)。 | +| `y` | INT | いいえ | 0 ~ 8192 | バウンディングボックスの左上角の Y 座標(デフォルト:0)。 | +| `width` | INT | いいえ | 1 ~ 8192 | バウンディングボックスの幅(デフォルト:512)。 | +| `height` | INT | いいえ | 1 ~ 8192 | バウンディングボックスの高さ(デフォルト:512)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `bounding_box` | BOUNDING_BOX | 定義された矩形の `x`、`y`、`width`、`height` の各プロパティを含むデータ構造です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/PrimitiveFloat.mdx b/ja/built-in-nodes/PrimitiveFloat.mdx new file mode 100644 index 000000000..72bee95c5 --- /dev/null +++ b/ja/built-in-nodes/PrimitiveFloat.mdx @@ -0,0 +1,24 @@ +--- +title: "PrimitiveFloat - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における PrimitiveFloat ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PrimitiveFloat" +icon: "circle" +mode: wide +translationSourceHash: 2fc695a0 +translationFrom: built-in-nodes/PrimitiveFloat.mdx, zh-CN/built-in-nodes/PrimitiveFloat.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PrimitiveFloat/en.md) + +PrimitiveFloat ノードは、ワークフロー内で使用可能な浮動小数点数値を作成します。このノードは単一の数値入力を受け取り、その値をそのまま出力します。これにより、ComfyUI のパイプライン内で異なるノード間で浮動小数点数値を定義・伝達することが可能になります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `value` | FLOAT | はい | `-sys.maxsize` ~ `sys.maxsize` | 出力する浮動小数点数値 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | FLOAT | 入力された浮動小数点数値 | \ No newline at end of file diff --git a/ja/built-in-nodes/PrimitiveInt.mdx b/ja/built-in-nodes/PrimitiveInt.mdx new file mode 100644 index 000000000..50bf84429 --- /dev/null +++ b/ja/built-in-nodes/PrimitiveInt.mdx @@ -0,0 +1,24 @@ +--- +title: "PrimitiveInt - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における PrimitiveInt ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PrimitiveInt" +icon: "circle" +mode: wide +translationSourceHash: f942d403 +translationFrom: built-in-nodes/PrimitiveInt.mdx, zh-CN/built-in-nodes/PrimitiveInt.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PrimitiveInt/en.md) + +PrimitiveInt ノードは、ワークフロー内で整数値を扱うためのシンプルな手段を提供します。このノードは整数値を入力として受け取り、同一の値を出力します。そのため、他のノード間で整数パラメーターを渡す場合や、他の処理に対して特定の数値を設定する場合に便利です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `value` | INT | はい | -9223372036854775807 ~ 9223372036854775807 | 出力する整数値 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | INT | 変更されずに通過した入力整数値 | \ No newline at end of file diff --git a/ja/built-in-nodes/PrimitiveString.mdx b/ja/built-in-nodes/PrimitiveString.mdx new file mode 100644 index 000000000..e0e9da4e3 --- /dev/null +++ b/ja/built-in-nodes/PrimitiveString.mdx @@ -0,0 +1,24 @@ +--- +title: "PrimitiveString - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の PrimitiveString ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PrimitiveString" +icon: "circle" +mode: wide +translationSourceHash: 1bc6c18f +translationFrom: built-in-nodes/PrimitiveString.mdx, zh-CN/built-in-nodes/PrimitiveString.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PrimitiveString/en.md) + +String ノードは、ワークフロー内でテキストデータを入力・通過させるためのシンプルな手段を提供します。このノードはテキスト文字列を入力として受け取り、変更せずに同一の文字列を出力します。そのため、文字列パラメーターを必要とする他のノードにテキスト入力を提供する際に非常に便利です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `value` | STRING | はい | 任意のテキスト | このノードを通過させるテキスト文字列 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `output` | STRING | 入力として指定されたのと同じテキスト文字列 | \ No newline at end of file diff --git a/ja/built-in-nodes/PrimitiveStringMultiline.mdx b/ja/built-in-nodes/PrimitiveStringMultiline.mdx new file mode 100644 index 000000000..c8f5a6d6b --- /dev/null +++ b/ja/built-in-nodes/PrimitiveStringMultiline.mdx @@ -0,0 +1,26 @@ +--- +title: "PrimitiveStringMultiline - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の PrimitiveStringMultiline ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "PrimitiveStringMultiline" +icon: "circle" +mode: wide +translationSourceHash: a873cd95 +translationFrom: built-in-nodes/PrimitiveStringMultiline.mdx, zh-CN/built-in-nodes/PrimitiveStringMultiline.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/PrimitiveStringMultiline/en.md) + +PrimitiveStringMultiline ノードは、ワークフロー内で文字列値を入力・伝達するための複数行テキスト入力フィールドを提供します。このノードは複数行にわたるテキスト入力を受け付け、入力された文字列を変更せずにそのまま出力します。長いテキスト内容や、複数行にまたがる書式付きテキストを入力する必要がある場合に、このノードが有効です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `value` | STRING | はい | なし | 複数行にわたるテキスト入力値 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | STRING | 入力として指定された文字列と同一の値 | \ No newline at end of file diff --git a/ja/built-in-nodes/QuadrupleCLIPLoader.mdx b/ja/built-in-nodes/QuadrupleCLIPLoader.mdx new file mode 100644 index 000000000..c8daa5765 --- /dev/null +++ b/ja/built-in-nodes/QuadrupleCLIPLoader.mdx @@ -0,0 +1,16 @@ +--- +title: "QuadrupleCLIPLoader - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における QuadrupleCLIPLoader ノードの完全なドキュメンテーションです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "QuadrupleCLIPLoader" +icon: "circle" +mode: wide +translationSourceHash: 337e849c +translationFrom: built-in-nodes/QuadrupleCLIPLoader.mdx, zh-CN/built-in-nodes/QuadrupleCLIPLoader.mdx +--- +四重 CLIP ローダー(QuadrupleCLIPLoader)は、ComfyUI のコアノードの一つであり、当初は HiDream I1 バージョンのモデルをサポートするために追加されました。このノードが見当たらない場合は、ノードのサポートを確実にするために、ComfyUI を最新バージョンに更新してみてください。 + +このノードでは、`clip_name1`、`clip_name2`、`clip_name3`、`clip_name4` の 4 つのパラメーターに対応する CLIP モデルをそれぞれ 1 つずつ合計 4 つ必要とし、その後続ノードで利用可能な CLIP モデルを出力します。 + +このノードは、`ComfyUI/models/text_encoders` フォルダー内にあるモデルを自動的に検出します。 +また、`extra_model_paths.yaml` ファイルで設定された追加のパスからもモデルを読み込みます。 +場合によっては、モデルを追加した後に **ComfyUI インターフェースを再読み込み** する必要があります。これにより、対応するフォルダー内のモデルファイルを正しく読み込めるようになります。 \ No newline at end of file diff --git a/ja/built-in-nodes/QwenImageDiffsynthControlnet.mdx b/ja/built-in-nodes/QwenImageDiffsynthControlnet.mdx new file mode 100644 index 000000000..156e59c15 --- /dev/null +++ b/ja/built-in-nodes/QwenImageDiffsynthControlnet.mdx @@ -0,0 +1,33 @@ +--- +title: "QwenImageDiffsynthControlnet - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における QwenImageDiffsynthControlnet ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "QwenImageDiffsynthControlnet" +icon: "circle" +mode: wide +translationSourceHash: 75be40ad +translationFrom: built-in-nodes/QwenImageDiffsynthControlnet.mdx, zh-CN/built-in-nodes/QwenImageDiffsynthControlnet.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/QwenImageDiffsynthControlnet/en.md) + +QwenImageDiffsynthControlnet ノードは、拡散合成制御ネットワーク(Control Network)のパッチを適用し、ベースモデルの動作を変更します。このノードは画像入力とオプションのマスクを用いて、調整可能な強度でモデルの生成プロセスを制御し、制御ネットワークの影響を統合したパッチ済みモデルを作成します。これにより、より精密に制御された画像合成が可能になります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | 制御ネットワークでパッチを適用するベースモデル | +| `model_patch` | MODEL_PATCH | はい | - | ベースモデルに適用する制御ネットワークのパッチモデル | +| `vae` | VAE | はい | - | 拡散プロセスで使用される変分自己符号化器(Variational Autoencoder) | +| `image` | IMAGE | はい | - | 制御ネットワークのガイドとして使用される入力画像(RGBチャンネルのみ使用) | +| `strength` | FLOAT | はい | -10.0 ~ 10.0 | 制御ネットワークの影響の強さ(デフォルト:1.0) | +| `mask` | MASK | いいえ | - | 制御ネットワークを適用する領域を定義するオプションのマスク(内部で自動的に反転されます) | + +**注意:** マスクが指定された場合、自動的に反転処理(1.0 − mask)が行われ、制御ネットワーク処理に必要な次元に合わせて形状が再構成されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 拡散合成制御ネットワークのパッチが適用された修正済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/RandomCropImages.mdx b/ja/built-in-nodes/RandomCropImages.mdx new file mode 100644 index 000000000..5635213f1 --- /dev/null +++ b/ja/built-in-nodes/RandomCropImages.mdx @@ -0,0 +1,31 @@ +--- +title: "RandomCropImages - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の RandomCropImages ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RandomCropImages" +icon: "circle" +mode: wide +translationSourceHash: b8ed50bb +translationFrom: built-in-nodes/RandomCropImages.mdx, zh-CN/built-in-nodes/RandomCropImages.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RandomCropImages/en.md) + +「Random Crop Images」ノードは、各入力画像からランダムに矩形領域を選択し、指定された幅と高さに切り抜きます。これは、訓練用画像のバリエーションを作成するためのデータ拡張手法として一般的に使用されます。切り抜き位置のランダム性はシード値によって制御され、同一のシード値を用いることで、常に同じ切り抜き結果を再現できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 切り抜き対象の画像です。 | +| `width` | INT | いいえ | 1 - 8192 | 切り抜き領域の幅(デフォルト値:512)。 | +| `height` | INT | いいえ | 1 - 8192 | 切り抜き領域の高さ(デフォルト値:512)。 | +| `seed` | INT | いいえ | 0 - 18446744073709551615 | 切り抜き位置のランダム性を制御する数値(デフォルト値:0)。 | + +**注意:** `width` および `height` パラメーターは、入力画像の対応する寸法以下である必要があります。指定された寸法が画像の寸法を超える場合、切り抜きは画像の境界内に自動的に制限されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | ランダム切り抜きを適用した後の結果画像です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/RandomNoise.mdx b/ja/built-in-nodes/RandomNoise.mdx new file mode 100644 index 000000000..6d49a3719 --- /dev/null +++ b/ja/built-in-nodes/RandomNoise.mdx @@ -0,0 +1,24 @@ +--- +title: "RandomNoise - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の RandomNoise ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RandomNoise" +icon: "circle" +mode: wide +translationSourceHash: 678bd23e +translationFrom: built-in-nodes/RandomNoise.mdx, zh-CN/built-in-nodes/RandomNoise.mdx +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RandomNoise/en.md) + +RandomNoise ノードは、シード値に基づいてランダムなノイズパターンを生成します。このノードは再現可能なノイズを作成し、さまざまな画像処理および画像生成タスクに利用できます。同一のシード値を用いると、常に同一のノイズパターンが生成されるため、複数回の実行においても結果の一貫性が保たれます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `noise_seed` | INT | はい | 0 ~ 18446744073709551615 | ランダムノイズパターンを生成する際に使用するシード値(デフォルト:0)。同一のシード値を指定すると、常に同一のノイズ出力が得られます。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `noise` | NOISE | 指定されたシード値に基づいて生成されたランダムノイズパターンです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/RebatchImages.mdx b/ja/built-in-nodes/RebatchImages.mdx new file mode 100644 index 000000000..1aaf7a2c6 --- /dev/null +++ b/ja/built-in-nodes/RebatchImages.mdx @@ -0,0 +1,26 @@ +--- +title: "RebatchImages - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の RebatchImages ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RebatchImages" +icon: "circle" +mode: wide +translationSourceHash: de39ae93 +translationFrom: built-in-nodes/RebatchImages.mdx, zh-CN/built-in-nodes/RebatchImages.mdx +translationMismatches: + - "description" +--- + +RebatchImages ノードは、画像のバッチを新しいバッチ構成に再編成し、指定されたサイズにバッチサイズを調整するために設計されています。この処理は、バッチ操作における画像データの管理と最適化に不可欠であり、画像が効率的な処理のために所望のバッチサイズに従ってグループ化されることを保証します。 + +## 入力 + +| フィールド | データ型 | 説明 | +|------------------|----------|------------------------------------------------------------------------------| +| `images` | `IMAGE` | 再バッチ処理を行う画像のリストです。このパラメーターは、再バッチ処理を受ける入力データを決定する上で極めて重要です。 | +| `batch_size` | `INT` | 出力バッチの希望サイズを指定します。このパラメーターは、入力画像のグループ化および処理方法に直接影響を与え、出力の構造に影響します。 | + +## 出力 + +| フィールド | データ型 | 説明 | +|------------|----------|------------------------------------------------------------------------| +| `image` | `IMAGE` | 出力は、指定されたバッチサイズに従って再編成された画像バッチのリストで構成されます。これにより、バッチ操作における画像データの柔軟かつ効率的な処理が可能になります。 | \ No newline at end of file diff --git a/ja/built-in-nodes/RebatchLatents.mdx b/ja/built-in-nodes/RebatchLatents.mdx new file mode 100644 index 000000000..231ee53b6 --- /dev/null +++ b/ja/built-in-nodes/RebatchLatents.mdx @@ -0,0 +1,24 @@ +--- +title: "RebatchLatents - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の RebatchLatents ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RebatchLatents" +icon: "circle" +mode: wide +translationSourceHash: b764569f +translationFrom: built-in-nodes/RebatchLatents.mdx, zh-CN/built-in-nodes/RebatchLatents.mdx +--- + +RebatchLatents ノードは、指定されたバッチサイズに基づいて、潜在表現(latent)のバッチを新しいバッチ構成に再編成するために設計されています。このノードは、潜在サンプルが適切にグループ化されることを保証し、次元やサイズの変動にも対応することで、その後の処理やモデル推論を容易にします。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|----------------|-----------|------| +| `latents` | `LATENT` | `latents` パラメーターは、再バッチ処理される入力潜在表現を表します。出力バッチの構造および内容を決定する上で極めて重要です。 | +| `batch_size` | `INT` | `batch_size` パラメーターは、出力における各バッチあたりのサンプル数を指定します。入力潜在表現を新しいバッチにグループ化・分割する方法に直接影響を与えます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|-----------|------| +| `latent` | `LATENT` | 出力は、指定されたバッチサイズに従って再編成された潜在表現のバッチです。その後の処理や解析を容易にします。 | \ No newline at end of file diff --git a/ja/built-in-nodes/RecordAudio.mdx b/ja/built-in-nodes/RecordAudio.mdx new file mode 100644 index 000000000..6a11ada1a --- /dev/null +++ b/ja/built-in-nodes/RecordAudio.mdx @@ -0,0 +1,24 @@ +--- +title: "RecordAudio - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の RecordAudio ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RecordAudio" +icon: "circle" +mode: wide +translationSourceHash: c518e6c6 +translationFrom: built-in-nodes/RecordAudio.mdx, zh-CN/built-in-nodes/RecordAudio.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RecordAudio/en.md) + +RecordAudio ノードは、音声録音インターフェースを通じて録音または選択された音声ファイルを読み込みます。このノードは音声ファイルを処理し、ワークフロー内の他の音声処理ノードで利用可能な波形形式に変換します。また、サンプルレートを自動検出し、音声データを後続の処理に備えて準備します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `audio` | AUDIO_RECORD | はい | N/A | 音声録音インターフェースからの音声録音入力 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `AUDIO` | AUDIO | 波形およびサンプルレート情報を含む処理済み音声データ | \ No newline at end of file diff --git a/ja/built-in-nodes/RecraftColorRGB.mdx b/ja/built-in-nodes/RecraftColorRGB.mdx new file mode 100644 index 000000000..e98019521 --- /dev/null +++ b/ja/built-in-nodes/RecraftColorRGB.mdx @@ -0,0 +1,27 @@ +--- +title: "RecraftColorRGB - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RecraftColorRGB ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RecraftColorRGB" +icon: "circle" +mode: wide +translationSourceHash: cf67d7bb +translationFrom: built-in-nodes/RecraftColorRGB.mdx, zh-CN/built-in-nodes/RecraftColorRGB.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RecraftColorRGB/en.md) + +特定の RGB 値を選択して Recraft 色を作成します。このノードでは、赤(R)、緑(G)、青(B)の各値を個別に指定することで色を定義し、その後それらの値を Recraft の色フォーマットに変換します。変換された色は、他の Recraft 操作で利用可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `r` | INT | はい | 0–255 | 色の赤成分の値(デフォルト:0) | +| `g` | INT | はい | 0–255 | 色の緑成分の値(デフォルト:0) | +| `b` | INT | はい | 0–255 | 色の青成分の値(デフォルト:0) | +| `recraft_color` | COLOR | いいえ | - | 拡張対象となる既存の Recraft 色(任意) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `recraft_color` | COLOR | 指定された RGB 値を含む Recraft 色オブジェクト | \ No newline at end of file diff --git a/ja/built-in-nodes/RecraftControls.mdx b/ja/built-in-nodes/RecraftControls.mdx new file mode 100644 index 000000000..9c8b7aefd --- /dev/null +++ b/ja/built-in-nodes/RecraftControls.mdx @@ -0,0 +1,25 @@ +--- +title: "RecraftControls - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RecraftControls ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RecraftControls" +icon: "circle" +mode: wide +translationSourceHash: 34224adb +translationFrom: built-in-nodes/RecraftControls.mdx, zh-CN/built-in-nodes/RecraftControls.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RecraftControls/en.md) + +Recraft 画像生成のカスタマイズに使用する Recraft コントロールを作成します。このノードでは、Recraft 画像生成プロセスで使用される色設定を構成できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `colors` | COLOR | いいえ | - | 主要要素の色設定 | +| `background_color` | COLOR | いいえ | - | 背景色の設定 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `recraft_controls` | CONTROLS | 色設定を含む構成済みの Recraft コントロール | \ No newline at end of file diff --git a/ja/built-in-nodes/RecraftCreateStyleNode.mdx b/ja/built-in-nodes/RecraftCreateStyleNode.mdx new file mode 100644 index 000000000..3aa51c3a7 --- /dev/null +++ b/ja/built-in-nodes/RecraftCreateStyleNode.mdx @@ -0,0 +1,27 @@ +--- +title: "RecraftCreateStyleNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RecraftCreateStyleNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RecraftCreateStyleNode" +icon: "circle" +mode: wide +translationSourceHash: 0c36421c +translationFrom: built-in-nodes/RecraftCreateStyleNode.mdx, zh-CN/built-in-nodes/RecraftCreateStyleNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RecraftCreateStyleNode/en.md) + +このノードは、参照画像をアップロードすることで画像生成用のカスタムスタイルを作成します。新しいスタイルを定義するために 1~5 枚の画像をアップロードでき、ノードは他の Recraft ノードで使用可能な一意のスタイル ID を返します。アップロードするすべての画像の合計ファイルサイズは 5 MB を超えてはなりません。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `style` | STRING | はい | `"realistic_image"`
`"digital_illustration"` | 生成される画像のベースとなるスタイルです。 | +| `images` | IMAGE | はい | 1~5 枚の画像 | カスタムスタイルを作成するために使用される、1~5 枚の参照画像のセットです。 | + +**注意:** `images` 入力に指定されたすべての画像の合計ファイルサイズは 5 MB 未満である必要があります。この制限を超えると、ノードは実行に失敗します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `style_id` | STRING | 新しく作成されたカスタムスタイルの一意の識別子です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/RecraftCreativeUpscaleNode.mdx b/ja/built-in-nodes/RecraftCreativeUpscaleNode.mdx new file mode 100644 index 000000000..ea63d571d --- /dev/null +++ b/ja/built-in-nodes/RecraftCreativeUpscaleNode.mdx @@ -0,0 +1,24 @@ +--- +title: "RecraftCreativeUpscaleNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RecraftCreativeUpscaleNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RecraftCreativeUpscaleNode" +icon: "circle" +mode: wide +translationSourceHash: 95d40d64 +translationFrom: built-in-nodes/RecraftCreativeUpscaleNode.mdx, zh-CN/built-in-nodes/RecraftCreativeUpscaleNode.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RecraftCreativeUpscaleNode/en.md) + +Recraft Creative Upscale Image ノードは、ラスタ画像の解像度を向上させることで、その画像を強化します。「クリエイティブアップスケール(創造的な拡大)」と呼ばれる処理を用いて、画像内の微細なディテールや顔の特徴を重点的に改善します。この操作は外部APIを介して同期的に実行されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | | アップスケール対象の入力画像です。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | ディテールが強化されたアップスケール済みの画像です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/RecraftCrispUpscaleNode.mdx b/ja/built-in-nodes/RecraftCrispUpscaleNode.mdx new file mode 100644 index 000000000..8e5d4d546 --- /dev/null +++ b/ja/built-in-nodes/RecraftCrispUpscaleNode.mdx @@ -0,0 +1,26 @@ +--- +title: "RecraftCrispUpscaleNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RecraftCrispUpscaleNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RecraftCrispUpscaleNode" +icon: "circle" +mode: wide +translationSourceHash: e7f56154 +translationFrom: built-in-nodes/RecraftCrispUpscaleNode.mdx, zh-CN/built-in-nodes/RecraftCrispUpscaleNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RecraftCrispUpscaleNode/en.md) + +画像を同期的にアップスケールします。「クリスピーアップスケール(crisp upscale)」ツールを使用して、指定されたラスタ画像を強化し、画像の解像度を向上させ、よりシャープでクリーンな仕上がりにします。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | アップスケール対象の入力画像 | +| `auth_token` | STRING | いいえ | - | Recraft API 用の認証トークン | +| `comfy_api_key` | STRING | いいえ | - | Comfy.org サービス用の API キー | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 解像度と鮮明さが向上したアップスケール済みの画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/RecraftImageInpaintingNode.mdx b/ja/built-in-nodes/RecraftImageInpaintingNode.mdx new file mode 100644 index 000000000..7b59d99cd --- /dev/null +++ b/ja/built-in-nodes/RecraftImageInpaintingNode.mdx @@ -0,0 +1,34 @@ +--- +title: "RecraftImageInpaintingNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RecraftImageInpaintingNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RecraftImageInpaintingNode" +icon: "circle" +mode: wide +translationSourceHash: 93bf9ab7 +translationFrom: built-in-nodes/RecraftImageInpaintingNode.mdx, zh-CN/built-in-nodes/RecraftImageInpaintingNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RecraftImageInpaintingNode/en.md) + +このノードは、テキストプロンプトとマスクに基づいて画像を修正します。Recraft API を用いて、ユーザーがマスクで指定した画像の特定領域を知的に編集し、その他の部分は変更せずに保持します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 修正対象の入力画像 | +| `mask` | MASK | はい | - | 画像のどの領域を修正するかを定義するマスク | +| `prompt` | STRING | はい | - | 画像生成用のプロンプト(デフォルト:空文字列) | +| `n` | INT | はい | 1–6 | 生成する画像の数(デフォルト:1、最小値:1、最大値:6) | +| `seed` | INT | はい | 0–18446744073709551615 | ノードを再実行するかどうかを判定するためのシード値。ただし、実際の生成結果はシード値にかかわらず非決定的です(デフォルト:0、最小値:0、最大値:18446744073709551615) | +| `recraft_style` | STYLEV3 | いいえ | - | Recraft API 向けのオプションスタイルパラメーター | +| `negative_prompt` | STRING | いいえ | - | 画像に含めたくない要素を記述するオプションのテキスト(デフォルト:空文字列) | + +*注:修復処理を実行するには、`image` と `mask` を必ず同時に指定する必要があります。マスクは自動的に入力画像のサイズにリサイズされます。* + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | プロンプトおよびマスクに基づいて生成された修正後の画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/RecraftImageToImageNode.mdx b/ja/built-in-nodes/RecraftImageToImageNode.mdx new file mode 100644 index 000000000..18778157f --- /dev/null +++ b/ja/built-in-nodes/RecraftImageToImageNode.mdx @@ -0,0 +1,35 @@ +--- +title: "RecraftImageToImageNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RecraftImageToImageNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RecraftImageToImageNode" +icon: "circle" +mode: wide +translationSourceHash: 3748097e +translationFrom: built-in-nodes/RecraftImageToImageNode.mdx, zh-CN/built-in-nodes/RecraftImageToImageNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RecraftImageToImageNode/en.md) + +このノードは、テキストプロンプトと「強度(strength)」パラメーターに基づいて既存の画像を変更します。Recraft API を使用して、提供された説明に従って入力画像を変換しますが、同時に「強度」設定に応じて元の画像との類似性を一定程度維持します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `image` | IMAGE | はい | - | 変更対象の入力画像 | +| `prompt` | STRING | はい | - | 画像生成用のプロンプト(デフォルト:"") | +| `n` | INT | はい | 1–6 | 生成する画像の数(デフォルト:1) | +| `strength` | FLOAT | はい | 0.0–1.0 | 元の画像との差異の程度を定義します。値は [0, 1] の範囲内である必要があります。0 はほぼ同一を意味し、1 は類似度が極めて低いことを意味します(デフォルト:0.5) | +| `seed` | INT | はい | 0–18446744073709551615 | ノードを再実行するかどうかを判定するためのシード値です。ただし、実際の生成結果はシード値に関わらず非決定的です(デフォルト:0) | +| `recraft_style` | STYLEV3 | いいえ | - | 画像生成のためのオプションのスタイル選択 | +| `negative_prompt` | STRING | いいえ | - | 画像に含めたくない要素を記述したオプションのテキスト(デフォルト:"") | +| `recraft_controls` | CONTROLS | いいえ | - | Recraft Controls ノードを用いた、生成プロセスに対するオプションの追加制御 | + +**注意:** `seed` パラメーターはノードの再実行をトリガーするのみであり、結果の決定性を保証しません。`strength` パラメーターは内部で小数点以下2桁に丸められます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `image` | IMAGE | 入力画像およびプロンプトに基づいて生成された画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/RecraftRemoveBackgroundNode.mdx b/ja/built-in-nodes/RecraftRemoveBackgroundNode.mdx new file mode 100644 index 000000000..0882147ad --- /dev/null +++ b/ja/built-in-nodes/RecraftRemoveBackgroundNode.mdx @@ -0,0 +1,27 @@ +--- +title: "RecraftRemoveBackgroundNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RecraftRemoveBackgroundNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RecraftRemoveBackgroundNode" +icon: "circle" +mode: wide +translationSourceHash: ff99aa1f +translationFrom: built-in-nodes/RecraftRemoveBackgroundNode.mdx, zh-CN/built-in-nodes/RecraftRemoveBackgroundNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RecraftRemoveBackgroundNode/en.md) + +このノードは Recraft API サービスを用いて、画像から背景を除去します。入力バッチ内の各画像を処理し、透明背景を持つ処理済み画像と、除去された背景領域を示す対応するアルファマスクの両方を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 背景除去処理を行う入力画像(複数可) | +| `auth_token` | STRING | いいえ | - | Recraft API へのアクセスに使用する認証トークン | +| `comfy_api_key` | STRING | いいえ | - | Comfy.org サービスとの連携に使用する API キー | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 透明背景を持つ処理済み画像 | +| `mask` | MASK | 除去された背景領域を示すアルファチャンネルのマスク | \ No newline at end of file diff --git a/ja/built-in-nodes/RecraftReplaceBackgroundNode.mdx b/ja/built-in-nodes/RecraftReplaceBackgroundNode.mdx new file mode 100644 index 000000000..2ccc8908b --- /dev/null +++ b/ja/built-in-nodes/RecraftReplaceBackgroundNode.mdx @@ -0,0 +1,33 @@ +--- +title: "RecraftReplaceBackgroundNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RecraftReplaceBackgroundNode ノードの完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "RecraftReplaceBackgroundNode" +icon: "circle" +mode: wide +translationSourceHash: 5d46ee2d +translationFrom: built-in-nodes/RecraftReplaceBackgroundNode.mdx, zh-CN/built-in-nodes/RecraftReplaceBackgroundNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RecraftReplaceBackgroundNode/en.md) + +画像の背景を指定されたプロンプトに基づいて置き換えます。このノードは Recraft API を利用し、テキストによる説明に従って画像の新しい背景を生成します。これにより、メインの被写体をそのままに保ちながら、背景を完全に変換することが可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 処理対象の入力画像 | +| `prompt` | STRING | はい | - | 画像生成用のプロンプト(デフォルト:空) | +| `n` | INT | はい | 1–6 | 生成する画像の数(デフォルト:1) | +| `seed` | INT | はい | 0–18446744073709551615 | ノードが再実行されるかどうかを制御するシード値。ただし、外部 API の性質上、実際の結果はシード値に関わらず非決定的です(デフォルト:0) | +| `recraft_style` | STYLEV3 | いいえ | - | 生成される背景のオプションスタイル選択 | +| `negative_prompt` | STRING | いいえ | - | 画像に含まれてほしくない要素を記述するオプションのテキスト(デフォルト:空) | + +**注意:** `seed` パラメーターはノードの再実行タイミングを制御しますが、外部 API の特性により、結果の再現性は保証されません。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `IMAGE` | IMAGE | 背景が置き換えられた生成画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/RecraftStyleV3DigitalIllustration.mdx b/ja/built-in-nodes/RecraftStyleV3DigitalIllustration.mdx new file mode 100644 index 000000000..996d59016 --- /dev/null +++ b/ja/built-in-nodes/RecraftStyleV3DigitalIllustration.mdx @@ -0,0 +1,26 @@ +--- +title: "RecraftStyleV3DigitalIllustration - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RecraftStyleV3DigitalIllustration ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RecraftStyleV3DigitalIllustration" +icon: "circle" +mode: wide +translationSourceHash: fc8933e9 +translationFrom: built-in-nodes/RecraftStyleV3DigitalIllustration.mdx, zh-CN/built-in-nodes/RecraftStyleV3DigitalIllustration.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RecraftStyleV3DigitalIllustration/en.md) + +このノードは Recraft API で使用するスタイルを設定するものであり、特に `"digital_illustration"`(デジタルイラストレーション)スタイルを選択します。また、生成される画像のアーティスティックな方向性をさらに細かく調整するために、オプションのサブスタイルを選択できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `substyle` | STRING | いいえ | `"digital_illustration"`
`"digital_illustration_anime"`
`"digital_illustration_cartoon"`
`"digital_illustration_comic"`
`"digital_illustration_concept_art"`
`"digital_illustration_fantasy"`
`"digital_illustration_futuristic"`
`"digital_illustration_graffiti"`
`"digital_illustration_graphic_novel"`
`"digital_illustration_hyperrealistic"`
`"digital_illustration_ink"`
`"digital_illustration_manga"`
`"digital_illustration_minimalist"`
`"digital_illustration_pixel_art"`
`"digital_illustration_pop_art"`
`"digital_illustration_retro"`
`"digital_illustration_sci_fi"`
`"digital_illustration_sticker"`
`"digital_illustration_street_art"`
`"digital_illustration_surreal"`
`"digital_illustration_vector"` | 特定のタイプのデジタルイラストレーションを指定するためのオプションのサブスタイルです。選択されない場合は、基本の `"digital_illustration"` スタイルが使用されます。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `recraft_style` | STYLEV3 | 選択された `"digital_illustration"` スタイルおよびオプションのサブスタイルを含む、設定済みのスタイルオブジェクトです。他の Recraft API ノードへ渡すことができます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/RecraftStyleV3InfiniteStyleLibrary.mdx b/ja/built-in-nodes/RecraftStyleV3InfiniteStyleLibrary.mdx new file mode 100644 index 000000000..58a406e03 --- /dev/null +++ b/ja/built-in-nodes/RecraftStyleV3InfiniteStyleLibrary.mdx @@ -0,0 +1,28 @@ +--- +title: "RecraftStyleV3InfiniteStyleLibrary - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RecraftStyleV3InfiniteStyleLibrary ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RecraftStyleV3InfiniteStyleLibrary" +icon: "circle" +mode: wide +translationSourceHash: d04512fe +translationFrom: built-in-nodes/RecraftStyleV3InfiniteStyleLibrary.mdx, zh-CN/built-in-nodes/RecraftStyleV3InfiniteStyleLibrary.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RecraftStyleV3InfiniteStyleLibrary/en.md) + +このノードでは、事前に存在する UUID を使用して Recraft の「無限スタイルライブラリ」からスタイルを選択できます。指定されたスタイル識別子に基づいてスタイル情報を取得し、他の Recraft ノードで利用できる形で返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `style_id` | STRING | はい | 有効な UUID(任意) | 「無限スタイルライブラリ」内のスタイルの UUID。 | + +**注意:** `style_id` 入力は空にできません。空文字列が指定された場合、ノードは例外をスローします。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `recraft_style` | STYLEV3 | Recraft の「無限スタイルライブラリ」から選択されたスタイルオブジェクト | \ No newline at end of file diff --git a/ja/built-in-nodes/RecraftStyleV3LogoRaster.mdx b/ja/built-in-nodes/RecraftStyleV3LogoRaster.mdx new file mode 100644 index 000000000..7853393c5 --- /dev/null +++ b/ja/built-in-nodes/RecraftStyleV3LogoRaster.mdx @@ -0,0 +1,26 @@ +--- +title: "RecraftStyleV3LogoRaster - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RecraftStyleV3LogoRaster ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RecraftStyleV3LogoRaster" +icon: "circle" +mode: wide +translationSourceHash: ac8087bc +translationFrom: built-in-nodes/RecraftStyleV3LogoRaster.mdx, zh-CN/built-in-nodes/RecraftStyleV3LogoRaster.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RecraftStyleV3LogoRaster/en.md) + +このノードでは、ロゴのラスタースタイルを選択し、利用可能なサブスタイルから選択できます。ラスター方式のスタイリングオプションを用いたロゴデザインの生成に特化しており、ロゴ作成に対してさまざまな視覚的処理を提供します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `substyle` | STRING | はい | 複数の選択肢が利用可能 | ロゴ生成に適用する特定のロゴラスターサブスタイル | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | IMAGE | 選択したラスタースタイルを適用して生成されたロゴ画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/RecraftStyleV3RealisticImage.mdx b/ja/built-in-nodes/RecraftStyleV3RealisticImage.mdx new file mode 100644 index 000000000..3945206eb --- /dev/null +++ b/ja/built-in-nodes/RecraftStyleV3RealisticImage.mdx @@ -0,0 +1,24 @@ +--- +title: "RecraftStyleV3RealisticImage - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RecraftStyleV3RealisticImage ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RecraftStyleV3RealisticImage" +icon: "circle" +mode: wide +translationSourceHash: 09f1a98f +translationFrom: built-in-nodes/RecraftStyleV3RealisticImage.mdx, zh-CN/built-in-nodes/RecraftStyleV3RealisticImage.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RecraftStyleV3RealisticImage/en.md) + +このノードは、Recraft の API で使用するためのリアリスティック(写実的)な画像スタイル設定を作成します。`realistic_image` スタイルを選択し、出力の外観をカスタマイズするために、さまざまなサブスタイルオプションから選択できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `substyle` | STRING | はい | 複数のオプションが利用可能 | `realistic_image` スタイルに適用する特定のサブスタイルです。「None」に設定した場合、サブスタイルは適用されません。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `recraft_style` | STYLEV3 | `realistic_image` スタイルおよび選択されたサブスタイル設定を含む Recraft スタイル設定オブジェクトを返します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/RecraftStyleV3VectorIllustrationNode.mdx b/ja/built-in-nodes/RecraftStyleV3VectorIllustrationNode.mdx new file mode 100644 index 000000000..27133b436 --- /dev/null +++ b/ja/built-in-nodes/RecraftStyleV3VectorIllustrationNode.mdx @@ -0,0 +1,26 @@ +--- +title: "RecraftStyleV3VectorIllustrationNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RecraftStyleV3VectorIllustrationNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RecraftStyleV3VectorIllustrationNode" +icon: "circle" +mode: wide +translationSourceHash: 20d213b1 +translationFrom: built-in-nodes/RecraftStyleV3VectorIllustrationNode.mdx, zh-CN/built-in-nodes/RecraftStyleV3VectorIllustrationNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RecraftStyleV3VectorIllustrationNode/en.md) + +このノードは Recraft API で使用するスタイルを設定するものであり、特に `vector_illustration` スタイルを選択します。また、このカテゴリ内からより具体的なサブスタイルを任意で選択することもできます。ノードは、他の Recraft API ノードへ渡すことができるスタイル設定オブジェクトを出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `substyle` | STRING | いいえ | `"vector_illustration"`
`"vector_illustration_flat"`
`"vector_illustration_3d"`
`"vector_illustration_hand_drawn"`
`"vector_illustration_retro"`
`"vector_illustration_modern"`
`"vector_illustration_abstract"`
`"vector_illustration_geometric"`
`"vector_illustration_organic"`
`"vector_illustration_minimalist"`
`"vector_illustration_detailed"`
`"vector_illustration_colorful"`
`"vector_illustration_monochrome"`
`"vector_illustration_grayscale"`
`"vector_illustration_pastel"`
`"vector_illustration_vibrant"`
`"vector_illustration_muted"`
`"vector_illustration_warm"`
`"vector_illustration_cool"`
`"vector_illustration_neutral"`
`"vector_illustration_bold"`
`"vector_illustration_subtle"`
`"vector_illustration_playful"`
`"vector_illustration_serious"`
`"vector_illustration_elegant"`
`"vector_illustration_rustic"`
`"vector_illustration_urban"`
`"vector_illustration_nature"`
`"vector_illustration_fantasy"`
`"vector_illustration_sci_fi"`
`"vector_illustration_historical"`
`"vector_illustration_futuristic"`
`"vector_illustration_whimsical"`
`"vector_illustration_surreal"`
`"vector_illustration_realistic"`
`"vector_illustration_stylized"`
`"vector_illustration_cartoony"`
`"vector_illustration_anime"`
`"vector_illustration_comic"`
`"vector_illustration_pixel"`
`"vector_illustration_low_poly"`
`"vector_illustration_high_poly"`
`"vector_illustration_isometric"`
`"vector_illustration_orthographic"`
`"vector_illustration_perspective"`
`"vector_illustration_2d"`
`"vector_illustration_2.5d"`
`"vector_illustration_3d"`
`"vector_illustration_4d"` | `vector_illustration` カテゴリ内で任意で選択可能な、より具体的なサブスタイルです。未選択の場合、基本の `vector_illustration` スタイルが使用されます。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `recraft_style` | STYLEV3 | 選択された `vector_illustration` スタイルおよび任意のサブスタイルを含む Recraft API スタイル設定オブジェクトです。この出力は、他の Recraft ノードに接続できます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/RecraftTextToImageNode.mdx b/ja/built-in-nodes/RecraftTextToImageNode.mdx new file mode 100644 index 000000000..429b12ba7 --- /dev/null +++ b/ja/built-in-nodes/RecraftTextToImageNode.mdx @@ -0,0 +1,34 @@ +--- +title: "RecraftTextToImageNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RecraftTextToImageNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RecraftTextToImageNode" +icon: "circle" +mode: wide +translationSourceHash: 989b5f67 +translationFrom: built-in-nodes/RecraftTextToImageNode.mdx, zh-CN/built-in-nodes/RecraftTextToImageNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見した場合や改善に関するご提案がありましたら、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RecraftTextToImageNode/en.md) + +プロンプトと解像度に基づいて、画像を同期的に生成します。このノードは Recraft API に接続し、テキストによる説明および指定されたサイズ・スタイルオプションを用いて画像を作成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | 画像生成用のプロンプト。(デフォルト:"") | +| `size` | COMBO | はい | "1024x1024"
"1152x896"
"896x1152"
"1216x832"
"832x1216"
"1344x768"
"768x1344"
"1536x640"
"640x1536" | 生成される画像のサイズ。(デフォルト:"1024x1024") | +| `n` | INT | はい | 1–6 | 生成する画像の枚数。(デフォルト:1) | +| `seed` | INT | はい | 0–18446744073709551615 | ノードが再実行されるかどうかを判定するためのシード値です。ただし、実際の生成結果はシード値に関わらず非決定的です。(デフォルト:0) | +| `recraft_style` | COMBO | いいえ | 複数の選択肢あり | 画像生成のためのオプションスタイル選択です。 | +| `negative_prompt` | STRING | いいえ | - | 画像に含めたくない要素を記述するオプションのテキストです。(デフォルト:"") | +| `recraft_controls` | COMBO | いいえ | 複数の選択肢あり | Recraft Controls ノードを用いた、生成プロセスに対するオプションの追加制御です。 | + +**注意:** `seed` パラメーターはノードの再実行タイミングのみを制御し、画像生成を決定論的にすることはありません。実際の出力画像は、同一のシード値を用いても変化します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `IMAGE` | IMAGE | 生成された画像(複数可)をテンソル形式で出力します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/RecraftTextToVectorNode.mdx b/ja/built-in-nodes/RecraftTextToVectorNode.mdx new file mode 100644 index 000000000..5a8c3857e --- /dev/null +++ b/ja/built-in-nodes/RecraftTextToVectorNode.mdx @@ -0,0 +1,34 @@ +--- +title: "RecraftTextToVectorNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RecraftTextToVectorNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RecraftTextToVectorNode" +icon: "circle" +mode: wide +translationSourceHash: c90517c4 +translationFrom: built-in-nodes/RecraftTextToVectorNode.mdx, zh-CN/built-in-nodes/RecraftTextToVectorNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RecraftTextToVectorNode/en.md) + +プロンプトと解像度に基づいて、SVG を同期的に生成します。このノードは、テキストプロンプトを Recraft API に送信することでベクター形式のイラストを作成し、生成された SVG コンテンツを返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | 画像生成用のプロンプト。(デフォルト:"") | +| `substyle` | COMBO | はい | 複数の選択肢あり | 生成に使用する特定のイラストスタイル。選択肢は、RecraftStyleV3 で利用可能なベクターイラストのサブスタイルによって決定されます。 | +| `size` | COMBO | はい | 複数の選択肢あり | 生成される画像のサイズ。(デフォルト:1024×1024) | +| `n` | INT | はい | 1–6 | 生成する画像の枚数。(デフォルト:1、最小値:1、最大値:6) | +| `seed` | INT | はい | 0–18446744073709551615 | ノードが再実行されるかどうかを判定するためのシード値です。実際の生成結果は、シード値に関わらず非決定的です。(デフォルト:0、最小値:0、最大値:18446744073709551615) | +| `negative_prompt` | STRING | いいえ | - | 画像に含めたくない要素をテキストで記述したオプションの内容。(デフォルト:"") | +| `recraft_controls` | CONTROLS | いいえ | - | Recraft Controls ノードを用いた、生成プロセスに対するオプションの追加制御。 | + +**注意:** `seed` パラメーターは、ノードが再実行されるタイミングのみを制御し、生成結果を決定的にすることはできません。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `SVG` | SVG | SVG 形式で生成されたベクターイラスト | \ No newline at end of file diff --git a/ja/built-in-nodes/RecraftV4TextToImageNode.mdx b/ja/built-in-nodes/RecraftV4TextToImageNode.mdx new file mode 100644 index 000000000..a6a32b661 --- /dev/null +++ b/ja/built-in-nodes/RecraftV4TextToImageNode.mdx @@ -0,0 +1,34 @@ +--- +title: "RecraftV4TextToImageNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RecraftV4TextToImageNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RecraftV4TextToImageNode" +icon: "circle" +mode: wide +translationSourceHash: d198bbc3 +translationFrom: built-in-nodes/RecraftV4TextToImageNode.mdx, zh-CN/built-in-nodes/RecraftV4TextToImageNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RecraftV4TextToImageNode/en.md) + +このノードは、Recraft V4 または V4 Pro AI モデルを用いてテキストによる画像生成を行います。ユーザーが指定したプロンプトを外部 API に送信し、生成された画像を返します。モデルの選択、画像サイズ、生成枚数を指定することで、出力結果を制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | なし | 画像生成用のプロンプト。最大 10,000 文字まで対応しています。 | +| `negative_prompt` | STRING | いいえ | なし | 画像に含めたくない要素を記述するオプションのテキストです。 | +| `model` | COMBO | はい | `"recraftv4"`
`"recraftv4_pro"` | 生成に使用するモデルです。選択したモデルによって利用可能な画像サイズが決まります。 | +| `size` | COMBO | はい | モデルによって異なります | 生成される画像のサイズです。利用可能な選択肢は選択したモデルに依存します。`recraftv4` の場合、デフォルトは「1024x1024」です。`recraftv4_pro` の場合、デフォルトは「2048x2048」です。 | +| `n` | INT | はい | 1 ~ 6 | 生成する画像の枚数(デフォルト:1)。 | +| `seed` | INT | はい | 0 ~ 18446744073709551615 | ノードを再実行するかどうかを判定するためのシード値です。ただし、実際の生成結果はシード値に関わらず非決定的です(デフォルト:0)。 | +| `recraft_controls` | CUSTOM | いいえ | なし | Recraft Controls ノードを用いた、生成プロセスに対する追加的な制御(オプション)。 | + +**注意:** `size` パラメーターは動的入力であり、その利用可能な選択肢は選択した `model` に応じて変化します。また、`seed` 値を設定しても、画像出力結果の再現性は保証されません。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | IMAGE | 生成された単一画像、または画像のバッチ。 | \ No newline at end of file diff --git a/ja/built-in-nodes/RecraftV4TextToVectorNode.mdx b/ja/built-in-nodes/RecraftV4TextToVectorNode.mdx new file mode 100644 index 000000000..bf6c079dc --- /dev/null +++ b/ja/built-in-nodes/RecraftV4TextToVectorNode.mdx @@ -0,0 +1,34 @@ +--- +title: "RecraftV4TextToVectorNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RecraftV4TextToVectorNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RecraftV4TextToVectorNode" +icon: "circle" +mode: wide +translationSourceHash: 30367d5b +translationFrom: built-in-nodes/RecraftV4TextToVectorNode.mdx, zh-CN/built-in-nodes/RecraftV4TextToVectorNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RecraftV4TextToVectorNode/en.md) + +Recraft V4 テキストからベクターへのノードは、テキストによる説明に基づいてスケーラブル・ベクター・グラフィックス(SVG)のイラストを生成します。このノードは外部 API に接続し、画像生成に Recraft V4 または Recraft V4 Pro のいずれかのモデルを使用します。ノードは、指定したプロンプトに基づいて 1 枚以上の SVG 画像を出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | 不適用 | 画像生成用のプロンプトです。最大 10,000 文字まで入力可能です。 | +| `negative_prompt` | STRING | いいえ | 不適用 | 画像に含めたくない要素を記述するオプションのテキストです。 | +| `model` | COMBO | はい | `"recraftv4"`
`"recraftv4_pro"` | 生成に使用するモデルです。モデルを選択すると、利用可能な `size` オプションが変更されます。 | +| `size` | COMBO | はい | `recraftv4` の場合:`"1024x1024"`、`"1152x896"`、`"896x1152"`、`"1216x832"`、`"832x1216"`、`"1344x768"`、`"768x1344"`、`"1536x640"`、`"640x1536"`
`recraftv4_pro` の場合:`"2048x2048"`、`"2304x1792"`、`"1792x2304"`、`"2432x1664"`、`"1664x2432"`、`"2688x1536"`、`"1536x2688"`、`"3072x1280"`、`"1280x3072"` | 生成される画像のサイズです。利用可能なオプションは選択した `model` によって異なります。デフォルト値は、`recraftv4` の場合 `"1024x1024"`、`recraftv4_pro` の場合 `"2048x2048"` です。 | +| `n` | INT | はい | 1 ~ 6 | 生成する画像の枚数(デフォルト:1)。 | +| `seed` | INT | はい | 0 ~ 18446744073709551615 | ノードを再実行するかどうかを判定するためのシード値です。ただし、実際の生成結果はシード値に関係なく非決定的です。 | +| `recraft_controls` | CUSTOM | いいえ | 不適用 | Recraft Controls ノードを用いた、生成プロセスに対するオプションの追加制御です。 | + +**注意:** `size` パラメーターは動的入力であり、その利用可能なオプションは選択された `model` に応じて変化します。`seed` 値は、外部 API からの結果の再現性を保証しません。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | SVG | 生成されたスケーラブル・ベクター・グラフィックス(SVG)画像です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/RecraftVectorizeImageNode.mdx b/ja/built-in-nodes/RecraftVectorizeImageNode.mdx new file mode 100644 index 000000000..3839718e5 --- /dev/null +++ b/ja/built-in-nodes/RecraftVectorizeImageNode.mdx @@ -0,0 +1,26 @@ +--- +title: "RecraftVectorizeImageNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RecraftVectorizeImageNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RecraftVectorizeImageNode" +icon: "circle" +mode: wide +translationSourceHash: 723cd5dd +translationFrom: built-in-nodes/RecraftVectorizeImageNode.mdx, zh-CN/built-in-nodes/RecraftVectorizeImageNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RecraftVectorizeImageNode/en.md) + +入力画像から同期的に SVG を生成します。このノードは、入力バッチ内の各画像を処理し、その結果を単一の SVG 出力に統合することで、ラスターアイマージをベクターグラフィックス形式に変換します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | SVG 形式に変換する入力画像 | +| `auth_token` | AUTH_TOKEN_COMFY_ORG | いいえ | - | API アクセス用の認証トークン | +| `comfy_api_key` | API_KEY_COMFY_ORG | いいえ | - | Comfy.org サービス用の API キー | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `SVG` | SVG | 処理済みのすべての画像を統合したベクターグラフィックス出力 | \ No newline at end of file diff --git a/ja/built-in-nodes/ReferenceLatent.mdx b/ja/built-in-nodes/ReferenceLatent.mdx new file mode 100644 index 000000000..78407b517 --- /dev/null +++ b/ja/built-in-nodes/ReferenceLatent.mdx @@ -0,0 +1,27 @@ +--- +title: "ReferenceLatent - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ReferenceLatent ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ReferenceLatent" +icon: "circle" +mode: wide +translationSourceHash: 605aab0f +translationFrom: built-in-nodes/ReferenceLatent.mdx, zh-CN/built-in-nodes/ReferenceLatent.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ReferenceLatent/en.md) + +このノードは、編集モデル向けのガイド用潜在変数(latent)を設定します。条件付けデータ(conditioning data)と、任意の潜在変数入力を受け取り、条件付けデータを改変して参照用潜在変数の情報を含めます。対応するモデルであれば、複数の ReferenceLatent ノードを連鎖的に接続して、複数の参照画像を設定することも可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `conditioning` | CONDITIONING | はい | - | 参照用潜在変数情報を含むように改変される条件付けデータ | +| `latent` | LATENT | いいえ | - | 編集モデルの参照として使用する任意の潜在変数データ | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | CONDITIONING | 参照用潜在変数情報を含むように改変された条件付けデータ | \ No newline at end of file diff --git a/ja/built-in-nodes/ReferenceTimbreAudio.mdx b/ja/built-in-nodes/ReferenceTimbreAudio.mdx new file mode 100644 index 000000000..2effe00b2 --- /dev/null +++ b/ja/built-in-nodes/ReferenceTimbreAudio.mdx @@ -0,0 +1,25 @@ +--- +title: "ReferenceTimbreAudio - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ReferenceTimbreAudio ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ReferenceTimbreAudio" +icon: "circle" +mode: wide +translationSourceHash: 1b4e0696 +translationFrom: built-in-nodes/ReferenceTimbreAudio.mdx, zh-CN/built-in-nodes/ReferenceTimbreAudio.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ReferenceTimbreAudio/en.md) + +このノードは、「ace step 1.5」プロセスにおいて参照用の音声音色(ティンブレ)を設定します。その動作原理は、条件付けデータ(conditioning)を入力として受け取り、任意で音声の潜在表現(latent)も受け取ったうえで、その潜在データを条件付けデータに付加し、ワークフロー内の後続ノードで利用できるようにすることです。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `conditioning` | CONDITIONING | はい | | 参照音声情報が付加される条件付けデータです。 | +| `latent` | LATENT | いいえ | | 参照音声の任意の潜在表現です。指定された場合、そのサンプルが条件付けデータに追加されます。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `conditioning` | CONDITIONING | 変更後の条件付けデータです。オプションの `latent` 入力が指定されていた場合、このデータには参照音声の音色に対応する潜在表現が含まれます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/RegexExtract.mdx b/ja/built-in-nodes/RegexExtract.mdx new file mode 100644 index 000000000..a471b1f81 --- /dev/null +++ b/ja/built-in-nodes/RegexExtract.mdx @@ -0,0 +1,34 @@ +--- +title: "RegexExtract - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の RegexExtract ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RegexExtract" +icon: "circle" +mode: wide +translationSourceHash: b05e3b8e +translationFrom: built-in-nodes/RegexExtract.mdx, zh-CN/built-in-nodes/RegexExtract.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RegexExtract/en.md) + +RegexExtract ノードは、正規表現を用いてテキスト内のパターンを検索します。最初の一致箇所、すべての一致箇所、一致箇所内の特定のキャプチャグループ、あるいは複数の一致箇所にわたるすべてのキャプチャグループを抽出できます。このノードは、大文字・小文字の区別、複数行マッチ、および「dotall」動作(ドット `.` が改行文字を含むすべての文字とマッチするモード)を制御するためのさまざまな正規表現フラグをサポートしています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `string` | STRING | はい | - | パターン検索対象の入力テキスト | +| `regex_pattern` | STRING | はい | - | 検索対象の正規表現パターン | +| `mode` | COMBO | はい | "First Match"
"All Matches"
"First Group"
"All Groups" | 抽出モードにより、一致結果のどの部分を返すかが決定されます | +| `case_insensitive` | BOOLEAN | いいえ | - | マッチ時に大文字・小文字を区別しない(デフォルト:True) | +| `multiline` | BOOLEAN | いいえ | - | 文字列を複数行として扱う(デフォルト:False) | +| `dotall` | BOOLEAN | いいえ | - | ドット (`.`) が改行文字を含むすべての文字とマッチする(デフォルト:False) | +| `group_index` | INT | いいえ | 0–100 | グループモードを使用する際に抽出するキャプチャグループのインデックス(デフォルト:1) | + +**注意:** 「First Group」または「All Groups」モードを使用する場合、`group_index` パラメーターは抽出対象のキャプチャグループを指定します。グループ 0 は完全な一致全体を表し、グループ 1 以降は正規表現パターン内で番号付けされたキャプチャグループを表します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | STRING | 選択されたモードおよびパラメーターに基づいて抽出されたテキスト | \ No newline at end of file diff --git a/ja/built-in-nodes/RegexMatch.mdx b/ja/built-in-nodes/RegexMatch.mdx new file mode 100644 index 000000000..139068047 --- /dev/null +++ b/ja/built-in-nodes/RegexMatch.mdx @@ -0,0 +1,28 @@ +--- +title: "RegexMatch - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の RegexMatch ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RegexMatch" +icon: "circle" +mode: wide +translationSourceHash: 1269afbe +translationFrom: built-in-nodes/RegexMatch.mdx, zh-CN/built-in-nodes/RegexMatch.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や、改善のための提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RegexMatch/en.md) + +RegexMatch ノードは、テキスト文字列が指定された正規表現パターンと一致するかどうかをチェックします。このノードは入力文字列内で正規表現パターンの出現箇所を検索し、一致が見つかったかどうかを返します。大文字・小文字の区別、複数行モード、ドットオール(dotall)モードなど、さまざまな正規表現フラグを設定することで、パターンマッチングの動作を制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `string` | STRING | はい | - | 一致を検索する対象のテキスト文字列 | +| `regex_pattern` | STRING | はい | - | 文字列に対して照合する正規表現パターン | +| `case_insensitive` | BOOLEAN | いいえ | - | 照合時に大文字・小文字を無視するかどうか(デフォルト:True) | +| `multiline` | BOOLEAN | いいえ | - | 正規表現照合において複数行モードを有効にするかどうか(デフォルト:False) | +| `dotall` | BOOLEAN | いいえ | - | 正規表現照合においてドットオール(dotall)モードを有効にするかどうか(デフォルト:False) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `matches` | BOOLEAN | 正規表現パターンが入力文字列のいずれかの部分と一致した場合は True を返し、それ以外の場合は False を返します | \ No newline at end of file diff --git a/ja/built-in-nodes/RegexReplace.mdx b/ja/built-in-nodes/RegexReplace.mdx new file mode 100644 index 000000000..9d7659a26 --- /dev/null +++ b/ja/built-in-nodes/RegexReplace.mdx @@ -0,0 +1,30 @@ +--- +title: "RegexReplace - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の RegexReplace ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RegexReplace" +icon: "circle" +mode: wide +translationSourceHash: 9491a03d +translationFrom: built-in-nodes/RegexReplace.mdx, zh-CN/built-in-nodes/RegexReplace.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RegexReplace/en.md) + +RegexReplace ノードは、正規表現パターンを用いて文字列内のテキストを検索・置換します。テキストパターンを検索し、それを新しいテキストに置き換えることが可能であり、大文字・小文字の区別、複数行マッチング、置換回数の制限など、パターンマッチングの動作を制御するオプションが提供されています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `string` | STRING | はい | - | 検索および置換を行う対象の入力テキスト文字列 | +| `regex_pattern` | STRING | はい | - | 入力文字列内で検索する正規表現パターン | +| `replace` | STRING | はい | - | マッチしたパターンを置き換えるためのテキスト | +| `case_insensitive` | BOOLEAN | いいえ | - | 有効にすると、パターンマッチング時に大文字・小文字の違いを無視します(デフォルト:True) | +| `multiline` | BOOLEAN | いいえ | - | 有効にすると、`^` および `$` の動作が変更され、文字列全体の先頭/末尾ではなく、各行の先頭/末尾にマッチするようになります(デフォルト:False) | +| `dotall` | BOOLEAN | いいえ | - | 有効にすると、ドット (`.`) 文字が改行文字を含むすべての文字にマッチします。無効にすると、ドットは改行文字にはマッチしません(デフォルト:False) | +| `count` | INT | いいえ | 0–100 | 実行する最大置換回数です。`0` を指定するとすべての一致箇所を置換します(デフォルト)。`1` を指定すると最初の一致箇所のみ、`2` を指定すると最初の2つの一致箇所を置換するなど、任意の回数を指定できます(デフォルト:0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | STRING | 指定された置換を適用した後の変更済み文字列 | \ No newline at end of file diff --git a/ja/built-in-nodes/RenormCFG.mdx b/ja/built-in-nodes/RenormCFG.mdx new file mode 100644 index 000000000..90243ed79 --- /dev/null +++ b/ja/built-in-nodes/RenormCFG.mdx @@ -0,0 +1,28 @@ +--- +title: "RenormCFG - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RenormCFG ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RenormCFG" +icon: "circle" +mode: wide +translationSourceHash: 9e0e2308 +translationFrom: built-in-nodes/RenormCFG.mdx, zh-CN/built-in-nodes/RenormCFG.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RenormCFG/en.md) + +RenormCFG ノードは、条件付きスケーリングと正規化を適用することにより、拡散モデルにおける分類器不要ガイド(CFG)プロセスを改良します。このノードは、指定されたタイムステップのしきい値および再正規化係数に基づいてデノイズ処理を調整し、画像生成時に条件付き予測と無条件予測の影響を制御します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | 再正規化 CFG を適用する拡散モデル | +| `cfg_trunc` | FLOAT | いいえ | 0.0 - 100.0 | CFG スケーリングを適用するタイムステップのしきい値(デフォルト:100.0) | +| `renorm_cfg` | FLOAT | いいえ | 0.0 - 100.0 | 条件付きガイドの強さを制御する再正規化係数(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 再正規化 CFG 機能が適用された修正済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/RepeatImageBatch.mdx b/ja/built-in-nodes/RepeatImageBatch.mdx new file mode 100644 index 000000000..980bffea4 --- /dev/null +++ b/ja/built-in-nodes/RepeatImageBatch.mdx @@ -0,0 +1,24 @@ +--- +title: "RepeatImageBatch - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の RepeatImageBatch ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RepeatImageBatch" +icon: "circle" +mode: wide +translationSourceHash: f3c44c35 +translationFrom: built-in-nodes/RepeatImageBatch.mdx, zh-CN/built-in-nodes/RepeatImageBatch.mdx +--- + +RepeatImageBatch ノードは、指定された回数だけ入力画像を複製し、同一の画像から構成されるバッチを作成するためのノードです。この機能は、バッチ処理やデータ拡張など、同一画像の複数インスタンスを必要とする操作に有用です。 + +## 入力 + +| フィールド | データ型 | 説明 | +|----------|-----------|------| +| `image` | `IMAGE` | `image` パラメーターは、複製対象となる画像を表します。このパラメーターにより、バッチ全体で複製されるコンテンツが定義されます。 | +| `amount` | `INT` | `amount` パラメーターは、入力画像を複製する回数を指定します。この値は出力バッチのサイズに直接影響し、柔軟なバッチ作成を可能にします。 | + +## 出力 + +| フィールド | データ型 | 説明 | +|----------|-----------|------| +| `image` | `IMAGE` | 出力は画像のバッチであり、各画像は入力画像と同一であり、指定された `amount` の回数だけ複製されます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/RepeatLatentBatch.mdx b/ja/built-in-nodes/RepeatLatentBatch.mdx new file mode 100644 index 000000000..509cac7e4 --- /dev/null +++ b/ja/built-in-nodes/RepeatLatentBatch.mdx @@ -0,0 +1,24 @@ +--- +title: "RepeatLatentBatch - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RepeatLatentBatch ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RepeatLatentBatch" +icon: "circle" +mode: wide +translationSourceHash: ec29847b +translationFrom: built-in-nodes/RepeatLatentBatch.mdx, zh-CN/built-in-nodes/RepeatLatentBatch.mdx +--- + +RepeatLatentBatch ノードは、指定された回数だけ潜在表現(latent representations)のバッチを複製するように設計されています。この際、ノイズマスクやバッチインデックスなどの追加データも含めて複製される場合があります。この機能は、データ拡張や特定の生成タスクなど、同一の潜在データの複数のインスタンスを必要とする処理において非常に重要です。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `samples` | `LATENT` | `samples` パラメーターは、複製対象となる潜在表現を表します。複製処理を適用するデータを定義するために不可欠です。 | +| `amount` | `INT` | `amount` パラメーターは、入力サンプルを何回複製するかを指定します。これにより出力バッチのサイズが直接決定され、計算負荷および生成されるデータの多様性に影響を与えます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `latent` | `LATENT` | 出力は、指定された `amount` に基づいて複製・修正された入力潜在表現です。該当する場合は、複製されたノイズマスクおよび調整済みのバッチインデックスが含まれる場合があります。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ReplaceText.mdx b/ja/built-in-nodes/ReplaceText.mdx new file mode 100644 index 000000000..11467f9fd --- /dev/null +++ b/ja/built-in-nodes/ReplaceText.mdx @@ -0,0 +1,26 @@ +--- +title: "ReplaceText - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ReplaceText ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ReplaceText" +icon: "circle" +mode: wide +translationSourceHash: d08dc99f +translationFrom: built-in-nodes/ReplaceText.mdx, zh-CN/built-in-nodes/ReplaceText.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ReplaceText/en.md) + +Replace Text ノードは、単純なテキスト置換操作を実行します。このノードは、入力テキスト内から指定されたテキスト断片を検索し、すべての一致箇所を新しいテキスト断片に置き換えます。この操作は、ノードに提供されたすべてのテキスト入力に対して適用されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `text` | STRING | はい | - | 処理対象のテキストです。 | +| `find` | STRING | いいえ | - | 検索・置換対象のテキスト(デフォルト:空文字列)。 | +| `replace` | STRING | いいえ | - | 検索されたテキストを置き換えるためのテキスト(デフォルト:空文字列)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `text` | STRING | 処理後のテキストで、`find` テキストのすべての出現箇所が `replace` テキストに置き換えられています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ReplaceVideoLatentFrames.mdx b/ja/built-in-nodes/ReplaceVideoLatentFrames.mdx new file mode 100644 index 000000000..abe627dc7 --- /dev/null +++ b/ja/built-in-nodes/ReplaceVideoLatentFrames.mdx @@ -0,0 +1,31 @@ +--- +title: "ReplaceVideoLatentFrames - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ReplaceVideoLatentFrames ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ReplaceVideoLatentFrames" +icon: "circle" +mode: wide +translationSourceHash: 19a322f3 +translationFrom: built-in-nodes/ReplaceVideoLatentFrames.mdx, zh-CN/built-in-nodes/ReplaceVideoLatentFrames.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ReplaceVideoLatentFrames/en.md) + +ReplaceVideoLatentFrames ノードは、ソース潜在動画から取得したフレームを、指定されたフレームインデックスから始めて、ターゲット潜在動画に挿入します。ソース潜在動画が指定されない場合は、ターゲット潜在動画を変更せずにそのまま返します。このノードは負のインデックスをサポートしており、ソースフレームがターゲット動画の範囲内に収まらない場合には警告を出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `destination` | LATENT | はい | - | フレームが置き換えられるターゲット潜在動画です。 | +| `source` | LATENT | いいえ | - | ターゲット潜在動画に挿入するフレームを提供するソース潜在動画です。指定されない場合は、ターゲット潜在動画を変更せずにそのまま返します。 | +| `index` | INT | いいえ | -MAX_RESOLUTION ~ MAX_RESOLUTION | ソース潜在動画のフレームを配置する開始位置となる、ターゲット潜在動画内の潜在フレームインデックスです。負の値は末尾からの相対位置を表します(デフォルト:0)。 | + +**制約条件:** + +* `index` はターゲット潜在動画のフレーム数の範囲内である必要があります。範囲外の場合は警告がログ出力され、ターゲット潜在動画は変更されずに返されます。 +* 指定された `index` から始まるターゲット潜在動画のフレーム領域に、ソース潜在動画の全フレームが収まらなければなりません。収まらない場合は警告がログ出力され、ターゲット潜在動画は変更されずに返されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | LATENT | フレーム置換処理を実行した後に得られる潜在動画です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Reroute.mdx b/ja/built-in-nodes/Reroute.mdx new file mode 100644 index 000000000..4ebcfbb73 --- /dev/null +++ b/ja/built-in-nodes/Reroute.mdx @@ -0,0 +1,22 @@ +--- +title: "Reroute - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の Reroute ノードに関する完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "Reroute" +icon: "circle" +mode: wide +translationSourceHash: dfd243a5 +translationFrom: built-in-nodes/Reroute.mdx, zh-CN/built-in-nodes/Reroute.mdx +--- +ノード名: Reroute ノード +ノードの目的: 主に、ComfyUI のワークフロー内で過度に長くなる接続線の論理構造を整理するために使用されます。 + +## Reroute ノードの使用方法 + +| メニュー項目 | 説明 | +| --- | --- | +| 型を表示 (Show Type) | ノードの「型」プロパティを表示します | +| 初期状態で型を非表示 (Hide Type By Default) | 初期状態でノードの「型」プロパティを非表示にします | +| 垂直方向に設定 (Set Vertical) | ノードの接続線の方向を垂直方向に設定します | +| 水平方向に設定 (Set Horizontal) | ノードの接続線の方向を水平方向に設定します | + +接続線の論理構造が長くなりすぎたり複雑になりすぎたりした場合、インターフェースを整理したいときは、2つの接続ポイント間に ```Reroute``` ノードを挿入できます。このノードの入力および出力は型制約がなく、デフォルトのスタイルは水平方向です。右クリックメニューから、接続線の方向を垂直方向に変更することもできます。 \ No newline at end of file diff --git a/ja/built-in-nodes/RescaleCFG.mdx b/ja/built-in-nodes/RescaleCFG.mdx new file mode 100644 index 000000000..494570bb1 --- /dev/null +++ b/ja/built-in-nodes/RescaleCFG.mdx @@ -0,0 +1,24 @@ +--- +title: "RescaleCFG - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RescaleCFG ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RescaleCFG" +icon: "circle" +mode: wide +translationSourceHash: a9335a36 +translationFrom: built-in-nodes/RescaleCFG.mdx, zh-CN/built-in-nodes/RescaleCFG.mdx +--- + +RescaleCFG ノードは、指定された乗数に基づいてモデル出力の条件付きスケールおよび非条件付きスケールを調整することを目的として設計されています。これにより、よりバランスが取れ、制御可能な生成プロセスを実現します。このノードは、モデル出力を再スケーリングすることで、条件付き成分および非条件付き成分の影響を変更し、結果としてモデルの性能や出力品質の向上を図ります。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `model` | MODEL | 調整対象の生成モデルを表します。このノードはモデル出力に再スケーリング関数を適用するため、生成プロセスに直接影響を与えます。 | +| `multiplier` | `FLOAT` | モデル出力に適用される再スケーリングの程度を制御するパラメーターです。元の成分と再スケーリング後の成分とのバランスを決定し、最終出力の特性に影響を与えます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `model` | MODEL | 条件付きスケールおよび非条件付きスケールが調整された、修正済みのモデルです。このモデルは、適用された再スケーリングによって、潜在的に向上した特性を持つ出力を生成することが期待されます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ResizeAndPadImage.mdx b/ja/built-in-nodes/ResizeAndPadImage.mdx new file mode 100644 index 000000000..b7475110f --- /dev/null +++ b/ja/built-in-nodes/ResizeAndPadImage.mdx @@ -0,0 +1,28 @@ +--- +title: "ResizeAndPadImage - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ResizeAndPadImage ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ResizeAndPadImage" +icon: "circle" +mode: wide +translationSourceHash: 9231bcfc +translationFrom: built-in-nodes/ResizeAndPadImage.mdx, zh-CN/built-in-nodes/ResizeAndPadImage.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ResizeAndPadImage/en.md) + +ResizeAndPadImage ノードは、元のアスペクト比を維持したまま、画像を指定された寸法内に収まるようにリサイズします。具体的には、目標の幅および高さに収まるよう、画像を等倍率で縮小した後、残った領域を周囲にパディング(余白)として埋めます。パディングの色および補間方法はカスタマイズ可能であり、これによりパディング領域の外観およびリサイズ時の画質を制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | リサイズおよびパディングを適用する入力画像 | +| `target_width` | INT | はい | 1 ~ MAX_RESOLUTION | 出力画像の目的とする幅(デフォルト:512) | +| `target_height` | INT | はい | 1 ~ MAX_RESOLUTION | 出力画像の目的とする高さ(デフォルト:512) | +| `padding_color` | COMBO | はい | "white"
"black" | リサイズ後の画像の周囲に追加されるパディング領域の色 | +| `interpolation` | COMBO | はい | "area"
"bicubic"
"nearest-exact"
"bilinear"
"lanczos" | 画像のリサイズに使用する補間方法 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | リサイズおよびパディングが適用された出力画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/ResizeImageMaskNode.mdx b/ja/built-in-nodes/ResizeImageMaskNode.mdx new file mode 100644 index 000000000..ffe826662 --- /dev/null +++ b/ja/built-in-nodes/ResizeImageMaskNode.mdx @@ -0,0 +1,38 @@ +--- +title: "ResizeImageMaskNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ResizeImageMaskNode ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ResizeImageMaskNode" +icon: "circle" +mode: wide +translationSourceHash: 0a7513f1 +translationFrom: built-in-nodes/ResizeImageMaskNode.mdx, zh-CN/built-in-nodes/ResizeImageMaskNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ResizeImageMaskNode/en.md) + +「Resize Image/Mask」ノードは、入力画像またはマスクの寸法を変更するための複数の方法を提供します。倍率によるスケーリング、特定の寸法の設定、他の入力とサイズを合わせる、またはピクセル数に基づく調整が可能であり、品質を保つためにさまざまな補間手法が利用できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `input` | IMAGE または MASK | はい | N/A | サイズ変更対象の画像またはマスクです。 | +| `resize_type` | COMBO | はい | `SCALE_BY`
`SCALE_DIMENSIONS`
`SCALE_LONGER_DIMENSION`
`SCALE_SHORTER_DIMENSION`
`SCALE_WIDTH`
`SCALE_HEIGHT`
`SCALE_TOTAL_PIXELS`
`MATCH_SIZE` | 新しいサイズを決定する方法です。選択したタイプに応じて、必要なパラメーターが変わります。 | +| `multiplier` | FLOAT | いいえ | 0.01 ~ 8.0 | スケーリング倍率です。`resize_type` が `SCALE_BY` の場合に必須です(デフォルト値:1.00)。 | +| `width` | INT | いいえ | 0 ~ 8192 | 目標幅(ピクセル単位)です。`resize_type` が `SCALE_DIMENSIONS` または `SCALE_WIDTH` の場合に必須です(デフォルト値:512)。 | +| `height` | INT | いいえ | 0 ~ 8192 | 目標高さ(ピクセル単位)です。`resize_type` が `SCALE_DIMENSIONS` または `SCALE_HEIGHT` の場合に必須です(デフォルト値:512)。 | +| `crop` | COMBO | いいえ | `"disabled"`
`"center"` | アスペクト比と寸法が一致しない場合に適用される切り抜き方法です。`resize_type` が `SCALE_DIMENSIONS` または `MATCH_SIZE` の場合にのみ利用可能です(デフォルト値:"center")。 | +| `longer_size` | INT | いいえ | 0 ~ 8192 | 画像の長い辺の目標サイズです。`resize_type` が `SCALE_LONGER_DIMENSION` の場合に必須です(デフォルト値:512)。 | +| `shorter_size` | INT | いいえ | 0 ~ 8192 | 画像の短い辺の目標サイズです。`resize_type` が `SCALE_SHORTER_DIMENSION` の場合に必須です(デフォルト値:512)。 | +| `megapixels` | FLOAT | いいえ | 0.01 ~ 16.0 | 目標総画素数(メガピクセル単位)です。`resize_type` が `SCALE_TOTAL_PIXELS` の場合に必須です(デフォルト値:1.0)。 | +| `match` | IMAGE または MASK | いいえ | N/A | 入力がそのサイズに合わせてリサイズされる、別の画像またはマスクです。`resize_type` が `MATCH_SIZE` の場合に必須です。 | +| `scale_method` | COMBO | はい | `"nearest-exact"`
`"bilinear"`
`"area"`
`"bicubic"`
`"lanczos"` | スケーリングに使用される補間アルゴリズムです(デフォルト値:"area")。 | + +**注意:** `crop` パラメーターは、`resize_type` を `SCALE_DIMENSIONS` または `MATCH_SIZE` に設定した場合にのみ利用可能かつ有効です。`SCALE_WIDTH` または `SCALE_HEIGHT` を使用する際には、元のアスペクト比を維持するために、もう一方の次元が自動的にスケーリングされます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `resized` | IMAGE または MASK | サイズ変更後の画像またはマスクです。入力と同様のデータ型になります。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ResizeImagesByLongerEdge.mdx b/ja/built-in-nodes/ResizeImagesByLongerEdge.mdx new file mode 100644 index 000000000..6a3df532f --- /dev/null +++ b/ja/built-in-nodes/ResizeImagesByLongerEdge.mdx @@ -0,0 +1,27 @@ +--- +title: "ResizeImagesByLongerEdge - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ResizeImagesByLongerEdge ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ResizeImagesByLongerEdge" +icon: "circle" +mode: wide +translationSourceHash: 46a53842 +translationFrom: built-in-nodes/ResizeImagesByLongerEdge.mdx, zh-CN/built-in-nodes/ResizeImagesByLongerEdge.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ResizeImagesByLongerEdge/en.md) + +「Resize Images by Longer Edge」ノードは、1 枚以上の画像をリサイズし、その最も長い辺(横幅または縦幅のいずれか)が指定された目標長さと一致するようにします。このノードは自動的に画像の横幅と縦幅のどちらが長いのかを判定し、元のアスペクト比を維持するために、もう一方の辺を比例的にスケーリングします。これは、画像の最大寸法に基づいてサイズを標準化する際に便利です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | リサイズ対象の入力画像、または画像のバッチ。 | +| `longer_edge` | INT | いいえ | 1 - 8192 | 最長辺の目標長さ。短い方の辺は、アスペクト比を維持するために比例的にスケーリングされます。(デフォルト値:1024) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | リサイズ後の画像、または画像のバッチ。出力される画像数は入力と同一であり、各画像の最も長い辺は指定された `longer_edge` の長さに一致します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ResizeImagesByShorterEdge.mdx b/ja/built-in-nodes/ResizeImagesByShorterEdge.mdx new file mode 100644 index 000000000..62a56449e --- /dev/null +++ b/ja/built-in-nodes/ResizeImagesByShorterEdge.mdx @@ -0,0 +1,25 @@ +--- +title: "ResizeImagesByShorterEdge - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ResizeImagesByShorterEdge ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ResizeImagesByShorterEdge" +icon: "circle" +mode: wide +translationSourceHash: 1a2e8cd0 +translationFrom: built-in-nodes/ResizeImagesByShorterEdge.mdx, zh-CN/built-in-nodes/ResizeImagesByShorterEdge.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ResizeImagesByShorterEdge/en.md) + +このノードは、画像の短辺の長さが指定された目標値と一致するように画像のサイズを調整します。元の画像のアスペクト比を維持するために新しい寸法が計算され、リサイズ後の画像が返されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | リサイズ対象の入力画像です。 | +| `shorter_edge` | INT | いいえ | 1~8192 | 短辺の目標長さです。(デフォルト値:512) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | リサイズ後の画像です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ResolutionBucket.mdx b/ja/built-in-nodes/ResolutionBucket.mdx new file mode 100644 index 000000000..eb5fb04b2 --- /dev/null +++ b/ja/built-in-nodes/ResolutionBucket.mdx @@ -0,0 +1,28 @@ +--- +title: "ResolutionBucket - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ResolutionBucket ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ResolutionBucket" +icon: "circle" +mode: wide +translationSourceHash: fdb352e4 +translationFrom: built-in-nodes/ResolutionBucket.mdx, zh-CN/built-in-nodes/ResolutionBucket.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ResolutionBucket/en.md) + +このノードは、潜在画像(latent image)のリストとそれに対応する条件付けデータ(conditioning data)を、それぞれの解像度に基づいて整理します。高さと幅が同じ項目をグループ化し、各固有の解像度ごとに独立したバッチを作成します。この処理は、効率的な学習のためのデータ準備に有用であり、モデルが同一サイズの複数の項目を同時に処理できるようにします。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `latents` | LATENT | はい | N/A | 解像度ごとにバケット分けを行う潜在辞書のリスト。 | +| `conditioning` | CONDITIONING | はい | N/A | 条件付けリスト(`latents` の長さと一致する必要があります)。 | + +**注意:** `latents` リスト内の要素数は、`conditioning` リスト内の要素数と完全に一致しなければなりません。各潜在辞書には複数のサンプルが含まれる可能性があり、対応する条件付けリストには、そのバッチに合致する数の条件付け項目が含まれている必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `latents` | LATENT | 解像度ごとのバケットごとにまとめられた潜在辞書のリスト(各解像度バケットにつき1つ)。 | +| `conditioning` | CONDITIONING | 解像度ごとのバケットごとにまとめられた条件付けリスト(各解像度バケットにつき1つ)。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Rodin3D_Detail.mdx b/ja/built-in-nodes/Rodin3D_Detail.mdx new file mode 100644 index 000000000..f0d3371b1 --- /dev/null +++ b/ja/built-in-nodes/Rodin3D_Detail.mdx @@ -0,0 +1,29 @@ +--- +title: "Rodin3D_Detail - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の Rodin3D_Detail ノードに関する完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "Rodin3D_Detail" +icon: "circle" +mode: wide +translationSourceHash: 112d76e5 +translationFrom: built-in-nodes/Rodin3D_Detail.mdx, zh-CN/built-in-nodes/Rodin3D_Detail.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Rodin3D_Detail/en.md) + +Rodin 3D Detail ノードは、Rodin API を使用して高精細な 3D アセットを生成します。このノードは入力画像を受け取り、Rodin サービスを通じて処理を行い、詳細なジオメトリとマテリアルを備えた高品質な 3D モデルを作成します。ノードは、タスクの作成から最終的な 3D モデルファイルのダウンロードに至るまでの全ワークフローを自動的に処理します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `Images` | IMAGE | はい | - | 3D モデル生成に使用する入力画像 | +| `Seed` | INT | はい | - | 再現可能な結果を得るための乱数シード値 | +| `Material_Type` | STRING | はい | - | 3D モデルに適用するマテリアルの種類 | +| `Polygon_count` | STRING | はい | - | 生成される 3D モデルの目標ポリゴン数 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `3D Model Path` | STRING | 生成された 3D モデルのファイルパス | \ No newline at end of file diff --git a/ja/built-in-nodes/Rodin3D_Gen2.mdx b/ja/built-in-nodes/Rodin3D_Gen2.mdx new file mode 100644 index 000000000..04544689a --- /dev/null +++ b/ja/built-in-nodes/Rodin3D_Gen2.mdx @@ -0,0 +1,28 @@ +--- +title: "Rodin3D_Gen2 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における Rodin3D_Gen2 ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Rodin3D_Gen2" +icon: "circle" +mode: wide +translationSourceHash: 8e963eda +translationFrom: built-in-nodes/Rodin3D_Gen2.mdx, zh-CN/built-in-nodes/Rodin3D_Gen2.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Rodin3D_Gen2/en.md) + +Rodin3D_Gen2 ノードは Rodin API を使用して 3D アセットを生成します。入力画像を受け取り、さまざまなマテリアルタイプおよびポリゴン数を持つ 3D モデルに変換します。このノードでは、タスクの作成、ステータスのポーリング、ファイルのダウンロードを含む一連の生成プロセスを自動的に処理します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `Images` | IMAGE | はい | - | 3D モデル生成に使用する入力画像 | +| `Seed` | INT | いいえ | 0–65535 | 生成時の乱数シード値(デフォルト:0) | +| `Material_Type` | COMBO | いいえ | "PBR"
"Shaded" | 3D モデルに適用するマテリアルの種類(デフォルト:"PBR") | +| `Polygon_count` | COMBO | いいえ | "4K-Quad"
"8K-Quad"
"18K-Quad"
"50K-Quad"
"2K-Triangle"
"20K-Triangle"
"150K-Triangle"
"500K-Triangle" | 生成される 3D モデルの対象ポリゴン数(デフォルト:"500K-Triangle") | +| `TAPose` | BOOLEAN | いいえ | - | TAPose 処理を適用するかどうか(デフォルト:False) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `3D Model Path` | STRING | 生成された 3D モデルのファイルパス | \ No newline at end of file diff --git a/ja/built-in-nodes/Rodin3D_Regular.mdx b/ja/built-in-nodes/Rodin3D_Regular.mdx new file mode 100644 index 000000000..7d20f3ffc --- /dev/null +++ b/ja/built-in-nodes/Rodin3D_Regular.mdx @@ -0,0 +1,27 @@ +--- +title: "Rodin3D_Regular - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における Rodin3D_Regular ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Rodin3D_Regular" +icon: "circle" +mode: wide +translationSourceHash: ba5ea1b1 +translationFrom: built-in-nodes/Rodin3D_Regular.mdx, zh-CN/built-in-nodes/Rodin3D_Regular.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Rodin3D_Regular/en.md) + +Rodin 3D Regular ノードは、Rodin API を使用して 3D アセットを生成します。このノードは入力画像を受け取り、Rodin サービスを通じて処理を行い、3D モデルを作成します。ノードは、タスクの作成から最終的な 3D モデルファイルのダウンロードに至るまでの全ワークフローを自動的に処理します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `Images` | IMAGE | はい | - | 3D モデル生成に使用する入力画像 | +| `Seed` | INT | はい | - | 再現可能な結果を得るための乱数シード値 | +| `Material_Type` | STRING | はい | - | 3D モデルに適用するマテリアルの種類 | +| `Polygon_count` | STRING | はい | - | 生成される 3D モデルの目標ポリゴン数 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `3D Model Path` | STRING | 生成された 3D モデルのファイルパス | \ No newline at end of file diff --git a/ja/built-in-nodes/Rodin3D_Sketch.mdx b/ja/built-in-nodes/Rodin3D_Sketch.mdx new file mode 100644 index 000000000..04f5172d6 --- /dev/null +++ b/ja/built-in-nodes/Rodin3D_Sketch.mdx @@ -0,0 +1,25 @@ +--- +title: "Rodin3D_Sketch - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における Rodin3D_Sketch ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Rodin3D_Sketch" +icon: "circle" +mode: wide +translationSourceHash: 059da45f +translationFrom: built-in-nodes/Rodin3D_Sketch.mdx, zh-CN/built-in-nodes/Rodin3D_Sketch.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Rodin3D_Sketch/en.md) + +このノードは Rodin API を使用して 3D アセットを生成します。入力画像を受け取り、外部サービスを通じてそれらを 3D モデルに変換します。ノードは、タスクの作成から最終的な 3D モデルファイルのダウンロードまで、一連の処理を自動的に実行します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `Images` | IMAGE | はい | - | 3D モデルに変換する入力画像 | +| `Seed` | INT | いいえ | 0–65535 | 生成時の乱数シード値(デフォルト:0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `3D Model Path` | STRING | 生成された 3D モデルのファイルパス | \ No newline at end of file diff --git a/ja/built-in-nodes/Rodin3D_Smooth.mdx b/ja/built-in-nodes/Rodin3D_Smooth.mdx new file mode 100644 index 000000000..f687da7fc --- /dev/null +++ b/ja/built-in-nodes/Rodin3D_Smooth.mdx @@ -0,0 +1,27 @@ +--- +title: "Rodin3D_Smooth - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における Rodin3D_Smooth ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Rodin3D_Smooth" +icon: "circle" +mode: wide +translationSourceHash: 996cd468 +translationFrom: built-in-nodes/Rodin3D_Smooth.mdx, zh-CN/built-in-nodes/Rodin3D_Smooth.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Rodin3D_Smooth/en.md) + +Rodin 3D Smooth ノードは、Rodin API を使用して入力画像を処理し、それらを滑らかな 3D モデルに変換することで、3D アセットを生成します。このノードは複数の画像を入力として受け取り、ダウンロード可能な 3D モデルファイルを出力します。タスクの作成、ステータスのポーリング、ファイルのダウンロードなど、生成プロセス全体を自動的に処理します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `Images` | IMAGE | はい | - | 3D モデル生成に使用する入力画像 | +| `Seed` | INT | はい | - | 生成結果の一貫性を保つための乱数シード値 | +| `Material_Type` | STRING | はい | - | 3D モデルに適用するマテリアルの種類 | +| `Polygon_count` | STRING | はい | - | 生成される 3D モデルの対象ポリゴン数 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `3D Model Path` | STRING | ダウンロードされた 3D モデルのファイルパス | \ No newline at end of file diff --git a/ja/built-in-nodes/RunwayFirstLastFrameNode.mdx b/ja/built-in-nodes/RunwayFirstLastFrameNode.mdx new file mode 100644 index 000000000..1eef6d29f --- /dev/null +++ b/ja/built-in-nodes/RunwayFirstLastFrameNode.mdx @@ -0,0 +1,38 @@ +--- +title: "RunwayFirstLastFrameNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RunwayFirstLastFrameNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RunwayFirstLastFrameNode" +icon: "circle" +mode: wide +translationSourceHash: c911664e +translationFrom: built-in-nodes/RunwayFirstLastFrameNode.mdx, zh-CN/built-in-nodes/RunwayFirstLastFrameNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RunwayFirstLastFrameNode/en.md) + +Runway「最初のフレーム・最後のフレーム」から動画生成ノード(Runway First-Last-Frame to Video)は、最初と最後のキーフレームおよびテキストプロンプトをアップロードすることで動画を生成します。このノードは Runway の Gen-3 モデルを用いて、指定された開始フレームと終了フレームの間に滑らかなトランジションを作成します。これは、終了フレームと開始フレームの差異が大きい複雑なトランジションに特に有効です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | なし | 生成に使用するテキストプロンプト(デフォルト:空文字列) | +| `start_frame` | IMAGE | はい | なし | 動画に使用する開始フレーム | +| `end_frame` | IMAGE | はい | なし | 動画に使用する終了フレーム。gen3a_turbo モデルでのみサポートされます。 | +| `duration` | COMBO | はい | 複数の選択肢あり | 利用可能な「Duration」オプションから動画の再生時間を選択します | +| `ratio` | COMBO | はい | 複数の選択肢あり | 利用可能な「RunwayGen3aAspectRatio」オプションからアスペクト比を選択します | +| `seed` | INT | いいえ | 0–4294967295 | 生成に使用する乱数シード(デフォルト:0) | + +**パラメーター制約:** + +- `prompt` には、少なくとも 1 文字を含める必要があります +- `start_frame` および `end_frame` の最大解像度はそれぞれ 7999×7999 ピクセルまでです +- `start_frame` および `end_frame` のアスペクト比は 0.5 ~ 2.0 の範囲内である必要があります +- `end_frame` パラメーターは、gen3a_turbo モデルを使用する場合のみサポートされます + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 開始フレームと終了フレーム間のトランジションを実現した生成動画 | \ No newline at end of file diff --git a/ja/built-in-nodes/RunwayImageToVideoNodeGen3a.mdx b/ja/built-in-nodes/RunwayImageToVideoNodeGen3a.mdx new file mode 100644 index 000000000..8bbb6c03e --- /dev/null +++ b/ja/built-in-nodes/RunwayImageToVideoNodeGen3a.mdx @@ -0,0 +1,36 @@ +--- +title: "RunwayImageToVideoNodeGen3a - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RunwayImageToVideoNodeGen3a ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RunwayImageToVideoNodeGen3a" +icon: "circle" +mode: wide +translationSourceHash: a5f6b897 +translationFrom: built-in-nodes/RunwayImageToVideoNodeGen3a.mdx, zh-CN/built-in-nodes/RunwayImageToVideoNodeGen3a.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RunwayImageToVideoNodeGen3a/en.md) + +Runway Image to Video (Gen3a Turbo) ノードは、Runway の Gen3a Turbo モデルを用いて、単一の開始フレームから動画を生成します。このノードはテキストプロンプトと初期画像フレームを受け取り、指定された再生時間(duration)およびアスペクト比(aspect ratio)に基づいて動画シーケンスを生成します。本ノードは Runway の API に接続し、リモートで生成処理を行います。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | なし | 生成に使用するテキストプロンプト(デフォルト:"") | +| `start_frame` | IMAGE | はい | なし | 動画生成に使用する開始フレーム | +| `duration` | COMBO | はい | 複数の選択肢あり | 利用可能なオプションから動画の再生時間を選択 | +| `ratio` | COMBO | はい | 複数の選択肢あり | 利用可能なオプションからアスペクト比を選択 | +| `seed` | INT | いいえ | 0–4294967295 | 生成に使用する乱数シード(デフォルト:0) | + +**パラメーター制約:** + +- `start_frame` の解像度は 7999×7999 ピクセルを超えてはなりません +- `start_frame` のアスペクト比は 0.5 ~ 2.0 の範囲内である必要があります +- `prompt` には少なくとも 1 文字以上含める必要があります(空欄不可) + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画シーケンス | \ No newline at end of file diff --git a/ja/built-in-nodes/RunwayImageToVideoNodeGen4.mdx b/ja/built-in-nodes/RunwayImageToVideoNodeGen4.mdx new file mode 100644 index 000000000..ad7f7178b --- /dev/null +++ b/ja/built-in-nodes/RunwayImageToVideoNodeGen4.mdx @@ -0,0 +1,36 @@ +--- +title: "RunwayImageToVideoNodeGen4 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の RunwayImageToVideoNodeGen4 ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RunwayImageToVideoNodeGen4" +icon: "circle" +mode: wide +translationSourceHash: ef7b5cc4 +translationFrom: built-in-nodes/RunwayImageToVideoNodeGen4.mdx, zh-CN/built-in-nodes/RunwayImageToVideoNodeGen4.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RunwayImageToVideoNodeGen4/en.md) + +Runway Image to Video (Gen4 Turbo) ノードは、Runway の Gen4 Turbo モデルを用いて、単一の開始フレームから動画を生成します。このノードはテキストプロンプトと初期画像フレームを受け取り、指定された再生時間およびアスペクト比設定に基づいて動画シーケンスを生成します。また、開始フレームを Runway の API へアップロードし、生成された動画を返す処理も行います。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | 生成に使用するテキストプロンプト(デフォルト:空文字列) | +| `start_frame` | IMAGE | はい | - | 動画生成に使用する開始フレーム | +| `duration` | COMBO | はい | 複数の選択肢が利用可能 | 利用可能な再生時間オプションから動画の長さを選択 | +| `ratio` | COMBO | はい | 複数の選択肢が利用可能 | 利用可能な Gen4 Turbo アスペクト比オプションから画面比率を選択 | +| `seed` | INT | いいえ | 0 ~ 4294967295 | 生成に使用する乱数シード(デフォルト:0) | + +**パラメーター制約:** + +- `start_frame` 画像の解像度は 7999×7999 ピクセルを超えてはなりません +- `start_frame` 画像のアスペクト比は 0.5 ~ 2.0 の範囲内である必要があります +- `prompt` には少なくとも 1 文字以上含める必要があります + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 入力フレームおよびプロンプトに基づいて生成された動画 | \ No newline at end of file diff --git a/ja/built-in-nodes/RunwayTextToImageNode.mdx b/ja/built-in-nodes/RunwayTextToImageNode.mdx new file mode 100644 index 000000000..76f33b1f4 --- /dev/null +++ b/ja/built-in-nodes/RunwayTextToImageNode.mdx @@ -0,0 +1,28 @@ +--- +title: "RunwayTextToImageNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における RunwayTextToImageNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "RunwayTextToImageNode" +icon: "circle" +mode: wide +translationSourceHash: ab1fd56e +translationFrom: built-in-nodes/RunwayTextToImageNode.mdx, zh-CN/built-in-nodes/RunwayTextToImageNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/RunwayTextToImageNode/en.md) + +Runway 文字から画像へノードは、Runway の Gen 4 モデルを用いてテキストプロンプトから画像を生成します。テキストによる説明を提供し、必要に応じて画像生成プロセスをガイドするための参照画像を含めることもできます。このノードは API との通信を処理し、生成された画像を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|--------------|----------|------|------|------| +| `prompt` | STRING | はい | - | 生成に使用するテキストプロンプト(デフォルト:"") | +| `ratio` | COMBO | はい | "16:9"
"1:1"
"21:9"
"2:3"
"3:2"
"4:5"
"5:4"
"9:16"
"9:21" | 生成画像のアスペクト比 | +| `reference_image` | IMAGE | いいえ | - | 画像生成をガイドするためのオプションの参照画像 | + +**注意:** 参照画像の解像度は 7999×7999 ピクセルを超えてはならず、アスペクト比は 0.5 ~ 2.0 の範囲内である必要があります。参照画像が指定された場合、その画像が画像生成プロセスをガイドします。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|---------|----------|------| +| `output` | IMAGE | テキストプロンプトおよびオプションの参照画像に基づいて生成された画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/SDTurboScheduler.mdx b/ja/built-in-nodes/SDTurboScheduler.mdx new file mode 100644 index 000000000..28fbcb8b1 --- /dev/null +++ b/ja/built-in-nodes/SDTurboScheduler.mdx @@ -0,0 +1,25 @@ +--- +title: "SDTurboScheduler - ComfyUI 組み込みノード ドキュメンテーション" +description: "ComfyUI における SDTurboScheduler ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SDTurboScheduler" +icon: "circle" +mode: wide +translationSourceHash: e85ae9d1 +translationFrom: built-in-nodes/SDTurboScheduler.mdx, zh-CN/built-in-nodes/SDTurboScheduler.mdx +--- + +SDTurboScheduler は、画像サンプリング用の一連のシグマ値(sigma 値)を生成するためのノードであり、指定された「ノイズ除去レベル(denoise)」と「ステップ数(steps)」に基づいて、そのシグマ値の列を調整します。このノードは、特定のモデルが持つサンプリング機能を活用してシグマ値を生成し、画像生成時のノイズ除去プロセスを制御するために不可欠な値を提供します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +| --- | --- | --- | +| `model` | `MODEL` | `model` パラメーターは、シグマ値の生成に使用される生成モデルを指定します。これは、スケジューラーの具体的なサンプリング動作および機能を決定する上で極めて重要です。 | +| `steps` | `INT` | `steps` パラメーターは、生成されるシグマ値の列の長さを決定し、ノイズ除去プロセスの細かさ(粒度)に直接影響を与えます。 | +| `denoise` | `FLOAT` | `denoise` パラメーターは、シグマ値の列の開始点を調整します。これにより、画像生成時に適用されるノイズ除去の強さをより精密に制御できます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +| --- | --- | --- | +| `sigmas` | `SIGMAS` | 指定されたモデル、ステップ数、およびノイズ除去レベルに基づいて生成された一連のシグマ値です。これらの値は、画像生成におけるノイズ除去プロセスを制御するために不可欠です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SD_4XUpscale_Conditioning.mdx b/ja/built-in-nodes/SD_4XUpscale_Conditioning.mdx new file mode 100644 index 000000000..f59017711 --- /dev/null +++ b/ja/built-in-nodes/SD_4XUpscale_Conditioning.mdx @@ -0,0 +1,32 @@ +--- +title: "SD_4XUpscale_Conditioning - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SD_4XUpscale_Conditioning ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SD_4XUpscale_Conditioning" +icon: "circle" +mode: wide +translationSourceHash: d542bf0f +translationFrom: built-in-nodes/SD_4XUpscale_Conditioning.mdx, zh-CN/built-in-nodes/SD_4XUpscale_Conditioning.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見した場合や、改善に関するご提案がありましたら、ぜひ貢献してください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SD_4XUpscale_Conditioning/en.md) + +SD_4XUpscale_Conditioning ノードは、拡散モデルを用いた画像の超解像処理(アップスケーリング)に必要な条件データを準備します。このノードは入力画像と条件データを受け取り、画像のスケーリングおよびノイズ付与を適用して、アップスケーリング処理をガイドする修正済みの条件データを生成します。ノードは、正の条件データおよび負の条件データに加え、アップスケール後の解像度に対応した潜在表現(latent representation)を出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `images` | IMAGE | はい | - | アップスケール対象の入力画像 | +| `positive` | CONDITIONING | はい | - | 生成プロセスを望ましいコンテンツへと誘導する正の条件データ | +| `negative` | CONDITIONING | はい | - | 生成プロセスを不要なコンテンツから遠ざける負の条件データ | +| `scale_ratio` | FLOAT | いいえ | 0.0 – 10.0 | 入力画像に適用されるスケーリング係数(デフォルト:4.0) | +| `noise_augmentation` | FLOAT | いいえ | 0.0 – 1.0 | アップスケーリング処理中に追加されるノイズ量(デフォルト:0.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `positive` | CONDITIONING | アップスケーリング情報を適用した修正済みの正の条件データ | +| `negative` | CONDITIONING | アップスケーリング情報を適用した修正済みの負の条件データ | +| `latent` | LATENT | アップスケール後の解像度に対応した空の潜在表現 | \ No newline at end of file diff --git a/ja/built-in-nodes/SV3D_Conditioning.mdx b/ja/built-in-nodes/SV3D_Conditioning.mdx new file mode 100644 index 000000000..e4b5a620b --- /dev/null +++ b/ja/built-in-nodes/SV3D_Conditioning.mdx @@ -0,0 +1,34 @@ +--- +title: "SV3D_Conditioning - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の SV3D_Conditioning ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SV3D_Conditioning" +icon: "circle" +mode: wide +translationSourceHash: 05d8372f +translationFrom: built-in-nodes/SV3D_Conditioning.mdx, zh-CN/built-in-nodes/SV3D_Conditioning.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SV3D_Conditioning/en.md) + +SV3D_Conditioning ノードは、SV3D モデルを用いた 3D 動画生成のための条件データを準備します。このノードは初期画像を入力として受け取り、CLIP ビジョンエンコーダおよび VAE エンコーダを経て処理し、正の条件データと負の条件データ、および潜在表現(latent representation)を生成します。また、指定された動画フレーム数に基づいて、マルチフレーム動画生成に必要なカメラの仰角(elevation)および方位角(azimuth)のシーケンスを生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `clip_vision` | CLIP_VISION | はい | - | 入力画像のエンコードに使用される CLIP ビジョンモデル | +| `init_image` | IMAGE | はい | - | 3D 動画生成の出発点となる初期画像 | +| `vae` | VAE | はい | - | 画像を潜在空間へエンコードする際に使用される VAE モデル | +| `width` | INT | いいえ | 16 ~ MAX_RESOLUTION | 生成される動画フレームの出力幅(デフォルト:576、8 の倍数である必要があります) | +| `height` | INT | いいえ | 16 ~ MAX_RESOLUTION | 生成される動画フレームの出力高さ(デフォルト:576、8 の倍数である必要があります) | +| `video_frames` | INT | いいえ | 1 ~ 4096 | 動画シーケンスとして生成するフレーム数(デフォルト:21) | +| `elevation` | FLOAT | いいえ | -90.0 ~ 90.0 | 3D 表示におけるカメラの仰角(単位:度、デフォルト:0.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `positive` | CONDITIONING | 生成プロセスで使用される、画像埋め込みおよびカメラパラメーターを含む正の条件データ | +| `negative` | CONDITIONING | 対比的生成のためにゼロ埋めされた埋め込みを持つ負の条件データ | +| `latent` | LATENT | 指定された動画フレーム数および解像度に一致する次元を持つ空の潜在テンソル | \ No newline at end of file diff --git a/ja/built-in-nodes/SVD_img2vid_Conditioning.mdx b/ja/built-in-nodes/SVD_img2vid_Conditioning.mdx new file mode 100644 index 000000000..5105206b2 --- /dev/null +++ b/ja/built-in-nodes/SVD_img2vid_Conditioning.mdx @@ -0,0 +1,36 @@ +--- +title: "SVD_img2vid_Conditioning - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SVD_img2vid_Conditioning ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SVD_img2vid_Conditioning" +icon: "circle" +mode: wide +translationSourceHash: 0a761d05 +translationFrom: built-in-nodes/SVD_img2vid_Conditioning.mdx, zh-CN/built-in-nodes/SVD_img2vid_Conditioning.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SVD_img2vid_Conditioning/en.md) + +SVD_img2vid_Conditioning ノードは、Stable Video Diffusion を用いた動画生成のための条件付けデータを準備します。このノードは初期画像を受け取り、CLIP ビジョンエンコーダーおよび VAE エンコーダーを通じて処理し、正の条件付けデータと負の条件付けデータのペア、および動画生成用の空の潜在空間(latent space)を生成します。また、生成される動画における動きの量、フレームレート、および拡張(augmentation)レベルを制御するための必要なパラメーターを設定します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `clip_vision` | CLIP_VISION | はい | - | 入力画像をエンコードするための CLIP ビジョンモデル | +| `init_image` | IMAGE | はい | - | 動画生成の開始点として使用する初期画像 | +| `vae` | VAE | はい | - | 画像を潜在空間にエンコードするための VAE モデル | +| `width` | INT | はい | 16 ~ MAX_RESOLUTION | 出力動画の幅(デフォルト:1024、ステップ:8) | +| `height` | INT | はい | 16 ~ MAX_RESOLUTION | 出力動画の高さ(デフォルト:576、ステップ:8) | +| `video_frames` | INT | はい | 1 ~ 4096 | 生成する動画のフレーム数(デフォルト:14) | +| `motion_bucket_id` | INT | はい | 1 ~ 1023 | 生成される動画内の動きの量を制御します(デフォルト:127) | +| `fps` | INT | はい | 1 ~ 1024 | 生成される動画のフレームレート(デフォルト:6) | +| `augmentation_level` | FLOAT | はい | 0.0 ~ 10.0 | 入力画像に適用するノイズ拡張のレベル(デフォルト:0.0、ステップ:0.01) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 画像の埋め込み表現および動画パラメーターを含む正の条件付けデータ | +| `negative` | CONDITIONING | 埋め込み表現がゼロ化された状態の負の条件付けデータおよび動画パラメーター | +| `latent` | LATENT | 動画生成に備えた空の潜在空間テンソル | \ No newline at end of file diff --git a/ja/built-in-nodes/SamplerCustom.mdx b/ja/built-in-nodes/SamplerCustom.mdx new file mode 100644 index 000000000..3ab4a22dd --- /dev/null +++ b/ja/built-in-nodes/SamplerCustom.mdx @@ -0,0 +1,34 @@ +--- +title: "SamplerCustom - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の SamplerCustom ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SamplerCustom" +icon: "circle" +mode: wide +translationSourceHash: f53e3473 +translationFrom: built-in-nodes/SamplerCustom.mdx, zh-CN/built-in-nodes/SamplerCustom.mdx +translationMismatches: + - "description" +--- + +SamplerCustom ノードは、さまざまな用途に対して柔軟かつカスタマイズ可能なサンプリング機構を提供することを目的として設計されています。ユーザーは自身の特定のニーズに応じて異なるサンプリング戦略を選択・設定でき、これによりサンプリングプロセスの適応性と効率性が向上します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `model` | `MODEL` | `model` 入力タイプは、サンプリングに使用するモデルを指定します。これはサンプリングの挙動および出力結果を決定する上で極めて重要な役割を果たします。 | +| `add_noise` | `BOOLEAN` | `add_noise` 入力タイプは、サンプリングプロセスにノイズを付加するかどうかをユーザーが指定できるようにします。これにより、生成されるサンプルの多様性および特性に影響を与えます。 | +| `noise_seed` | `INT` | `noise_seed` 入力タイプは、ノイズ生成のためのシード値を提供します。ノイズを付加する場合において、サンプリングプロセスの再現性および一貫性を保証します。 | +| `cfg` | `FLOAT` | `cfg` 入力タイプは、サンプリングプロセスの設定を定義します。これにより、サンプリングのパラメーターおよび動作を微調整できます。 | +| `positive` | `CONDITIONING` | `positive` 入力タイプは、ポジティブ(肯定的)な条件情報を表します。この情報は、指定されたポジティブな属性に合致するサンプルを生成するよう、サンプリングプロセスを誘導します。 | +| `negative` | `CONDITIONING` | `negative` 入力タイプは、ネガティブ(否定的)な条件情報を表します。この情報は、指定されたネガティブな属性を示すサンプルの生成を回避するよう、サンプリングプロセスを制御します。 | +| `sampler` | `SAMPLER` | `sampler` 入力タイプは、採用する特定のサンプリング戦略を選択します。これにより、生成されるサンプルの性質および品質に直接影響を与えます。 | +| `sigmas` | `SIGMAS` | `sigmas` 入力タイプは、サンプリングプロセスで使用されるノイズレベルを定義します。これにより、潜在空間(latent space)の探索範囲および出力の多様性に影響を与えます。 | +| `latent_image` | `LATENT` | `latent_image` 入力タイプは、サンプリングプロセスの初期潜在画像を提供します。これはサンプル生成の出発点として機能します。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `output` | `LATENT` | `output` は、サンプリングプロセスの主な結果を表し、生成されたサンプルを含みます。 | +| `denoised_output` | `LATENT` | `denoised_output` は、デノイズ処理を適用した後のサンプルを表します。これにより、生成サンプルの鮮明さおよび品質が向上する可能性があります。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SamplerCustomAdvanced.mdx b/ja/built-in-nodes/SamplerCustomAdvanced.mdx new file mode 100644 index 000000000..cc6164cf1 --- /dev/null +++ b/ja/built-in-nodes/SamplerCustomAdvanced.mdx @@ -0,0 +1,31 @@ +--- +title: "SamplerCustomAdvanced - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の SamplerCustomAdvanced ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SamplerCustomAdvanced" +icon: "circle" +mode: wide +translationSourceHash: dc81e25d +translationFrom: built-in-nodes/SamplerCustomAdvanced.mdx, zh-CN/built-in-nodes/SamplerCustomAdvanced.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SamplerCustomAdvanced/en.md) + +SamplerCustomAdvanced ノードは、カスタムノイズ、ガイド、およびサンプリング設定を用いた高度な潜在空間(latent space)サンプリングを実行します。このノードは、カスタマイズ可能なノイズ生成およびシグマ(sigma)スケジュールを備えたガイド付きサンプリング処理により潜在画像を処理し、最終的なサンプリング出力に加えて、利用可能な場合にはデノイズ済みのバージョンも生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `noise` | NOISE | はい | - | サンプリング処理に初期ノイズパターンとシードを提供するノイズ生成器 | +| `guider` | GUIDER | はい | - | サンプリング処理を所望の出力へと導くガイドモデル | +| `sampler` | SAMPLER | はい | - | 生成プロセスにおける潜在空間の探索方法を定義するサンプリングアルゴリズム | +| `sigmas` | SIGMAS | はい | - | サンプリングステップ全体におけるノイズレベルを制御するシグマスケジュール | +| `latent_image` | LATENT | はい | - | サンプリングの開始点となる初期潜在表現 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | LATENT | サンプリング処理完了後の最終的なサンプリング済み潜在表現 | +| `denoised_output` | LATENT | 利用可能な場合のデノイズ済み出力。それ以外の場合は `output` と同じ内容を返します | \ No newline at end of file diff --git a/ja/built-in-nodes/SamplerDPMAdaptative.mdx b/ja/built-in-nodes/SamplerDPMAdaptative.mdx new file mode 100644 index 000000000..b0a332d2c --- /dev/null +++ b/ja/built-in-nodes/SamplerDPMAdaptative.mdx @@ -0,0 +1,35 @@ +--- +title: "SamplerDPMAdaptative - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の SamplerDPMAdaptative ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SamplerDPMAdaptative" +icon: "circle" +mode: wide +translationSourceHash: 1107771b +translationFrom: built-in-nodes/SamplerDPMAdaptative.mdx, zh-CN/built-in-nodes/SamplerDPMAdaptative.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SamplerDPMAdaptative/en.md) + +SamplerDPMAdaptative ノードは、サンプリング処理中にステップサイズを自動的に調整するアダプティブな DPM(Diffusion Probabilistic Model:拡散確率モデル)サンプラーを実装しています。このノードは、誤差制御に許容誤差(tolerance)に基づく手法を用いて最適なステップサイズを決定し、計算効率とサンプリング精度のバランスを図ります。このようなアダプティブなアプローチにより、生成品質を維持しつつ、必要なサンプリングステップ数を削減できる可能性があります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `order` | INT | はい | 2–3 | サンプラー手法の次数(デフォルト:3) | +| `rtol` | FLOAT | はい | 0.0–100.0 | 誤差制御における相対許容誤差(デフォルト:0.05) | +| `atol` | FLOAT | はい | 0.0–100.0 | 誤差制御における絶対許容誤差(デフォルト:0.0078) | +| `h_init` | FLOAT | はい | 0.0–100.0 | 初期ステップサイズ(デフォルト:0.05) | +| `pcoeff` | FLOAT | はい | 0.0–100.0 | ステップサイズ制御の比例係数(デフォルト:0.0) | +| `icoeff` | FLOAT | はい | 0.0–100.0 | ステップサイズ制御の積分係数(デフォルト:1.0) | +| `dcoeff` | FLOAT | はい | 0.0–100.0 | ステップサイズ制御の微分係数(デフォルト:0.0) | +| `accept_safety` | FLOAT | はい | 0.0–100.0 | ステップ受諾のための安全係数(デフォルト:0.81) | +| `eta` | FLOAT | はい | 0.0–100.0 | 確率的パラメーター(デフォルト:0.0) | +| `s_noise` | FLOAT | はい | 0.0–100.0 | ノイズのスケーリング係数(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `sampler` | SAMPLER | 設定済みの DPM アダプティブサンプラーのインスタンスを返します | \ No newline at end of file diff --git a/ja/built-in-nodes/SamplerDPMPP_2M_SDE.mdx b/ja/built-in-nodes/SamplerDPMPP_2M_SDE.mdx new file mode 100644 index 000000000..f1c4c36c8 --- /dev/null +++ b/ja/built-in-nodes/SamplerDPMPP_2M_SDE.mdx @@ -0,0 +1,29 @@ +--- +title: "SamplerDPMPP_2M_SDE - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における SamplerDPMPP_2M_SDE ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SamplerDPMPP_2M_SDE" +icon: "circle" +mode: wide +translationSourceHash: 4f164555 +translationFrom: built-in-nodes/SamplerDPMPP_2M_SDE.mdx, zh-CN/built-in-nodes/SamplerDPMPP_2M_SDE.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SamplerDPMPP_2M_SDE/en.md) + +SamplerDPMPP_2M_SDE ノードは、拡散モデル向けの DPM++ 2M SDE サンプラーを作成します。このサンプラーは、確率微分方程式(SDE)を用いた二階微分方程式ソルバーを採用し、サンプルを生成します。サンプリングプロセスを制御するために、異なるソルバータイプおよびノイズ処理オプションが提供されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `solver_type` | STRING | はい | `"midpoint"`
`"heun"` | サンプリングプロセスで使用する微分方程式ソルバーの種類 | +| `eta` | FLOAT | はい | 0.0 – 100.0 | サンプリングプロセスの確率性(ランダム性)を制御します(デフォルト値:1.0) | +| `s_noise` | FLOAT | はい | 0.0 – 100.0 | サンプリング中に追加されるノイズ量を制御します(デフォルト値:1.0) | +| `noise_device` | STRING | はい | `"gpu"`
`"cpu"` | ノイズ計算を実行するデバイス | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `sampler` | SAMPLER | サンプリングパイプラインで使用可能な、設定済みのサンプラー・オブジェクト | \ No newline at end of file diff --git a/ja/built-in-nodes/SamplerDPMPP_2S_Ancestral.mdx b/ja/built-in-nodes/SamplerDPMPP_2S_Ancestral.mdx new file mode 100644 index 000000000..cd7e5760d --- /dev/null +++ b/ja/built-in-nodes/SamplerDPMPP_2S_Ancestral.mdx @@ -0,0 +1,27 @@ +--- +title: "SamplerDPMPP_2S_Ancestral - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における SamplerDPMPP_2S_Ancestral ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SamplerDPMPP_2S_Ancestral" +icon: "circle" +mode: wide +translationSourceHash: bbcbc32e +translationFrom: built-in-nodes/SamplerDPMPP_2S_Ancestral.mdx, zh-CN/built-in-nodes/SamplerDPMPP_2S_Ancestral.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SamplerDPMPP_2S_Ancestral/en.md) + +SamplerDPMPP_2S_Ancestral ノードは、画像生成に DPM++ 2S Ancestral サンプリング手法を用いるサンプラーを作成します。このサンプラーは、決定論的要素と確率的要素を組み合わせることで、一定の一貫性を保ちながらも多様な結果を生成します。また、サンプリングプロセス中のランダム性およびノイズレベルを制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `eta` | FLOAT | はい | 0.0 - 100.0 | サンプリング中に追加される確率的ノイズの量を制御します(デフォルト値:1.0) | +| `s_noise` | FLOAT | はい | 0.0 - 100.0 | サンプリングプロセス中に適用されるノイズのスケールを制御します(デフォルト値:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `sampler` | SAMPLER | サンプリングパイプラインで使用可能な、設定済みのサンプラー・オブジェクトを返します | \ No newline at end of file diff --git a/ja/built-in-nodes/SamplerDPMPP_3M_SDE.mdx b/ja/built-in-nodes/SamplerDPMPP_3M_SDE.mdx new file mode 100644 index 000000000..7537dc593 --- /dev/null +++ b/ja/built-in-nodes/SamplerDPMPP_3M_SDE.mdx @@ -0,0 +1,28 @@ +--- +title: "SamplerDPMPP_3M_SDE - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SamplerDPMPP_3M_SDE ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SamplerDPMPP_3M_SDE" +icon: "circle" +mode: wide +translationSourceHash: 55dd584e +translationFrom: built-in-nodes/SamplerDPMPP_3M_SDE.mdx, zh-CN/built-in-nodes/SamplerDPMPP_3M_SDE.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SamplerDPMPP_3M_SDE/en.md) + +SamplerDPMPP_3M_SDE ノードは、サンプリング処理で使用する DPM++ 3M SDE サンプラーを作成します。このサンプラーは、三階の多段階確率微分方程式(SDE)法を採用しており、ノイズに関するパラメーターを自由に設定できます。また、ノイズ計算を GPU で行うか CPU で行うかを選択可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `eta` | FLOAT | はい | 0.0 - 100.0 | サンプリング処理のランダム性(確率的性質)を制御します(デフォルト値:1.0) | +| `s_noise` | FLOAT | はい | 0.0 - 100.0 | サンプリング中に追加されるノイズ量を制御します(デフォルト値:1.0) | +| `noise_device` | COMBO | はい | "gpu"
"cpu" | ノイズ計算を行うデバイスとして、GPU または CPU のいずれかを選択します | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `sampler` | SAMPLER | サンプリングワークフローで使用可能な、設定済みのサンプラー・オブジェクトを返します | \ No newline at end of file diff --git a/ja/built-in-nodes/SamplerDPMPP_SDE.mdx b/ja/built-in-nodes/SamplerDPMPP_SDE.mdx new file mode 100644 index 000000000..7225b65f7 --- /dev/null +++ b/ja/built-in-nodes/SamplerDPMPP_SDE.mdx @@ -0,0 +1,29 @@ +--- +title: "SamplerDPMPP_SDE - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SamplerDPMPP_SDE ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SamplerDPMPP_SDE" +icon: "circle" +mode: wide +translationSourceHash: de89cf49 +translationFrom: built-in-nodes/SamplerDPMPP_SDE.mdx, zh-CN/built-in-nodes/SamplerDPMPP_SDE.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SamplerDPMPP_SDE/en.md) + +SamplerDPMPP_SDE ノードは、サンプリング処理で使用する DPM++ SDE(確率微分方程式)サンプラーを作成します。このサンプラーは、ノイズパラメーターおよびデバイス選択を設定可能な確率的サンプリング手法を提供し、サンプリングパイプラインで利用可能なサンプラー・オブジェクトを返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `eta` | FLOAT | はい | 0.0 - 100.0 | サンプリング処理の確率性(ランダム性)を制御します(デフォルト値:1.0) | +| `s_noise` | FLOAT | はい | 0.0 - 100.0 | サンプリング中に追加されるノイズ量を制御します(デフォルト値:1.0) | +| `r` | FLOAT | はい | 0.0 - 100.0 | サンプリング動作に影響を与えるパラメーターです(デフォルト値:0.5) | +| `noise_device` | COMBO | はい | "gpu"
"cpu" | ノイズ計算を実行するデバイスを選択します | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `sampler` | SAMPLER | サンプリングパイプラインで使用可能な、設定済みの DPM++ SDE サンプラー・オブジェクトを返します | \ No newline at end of file diff --git a/ja/built-in-nodes/SamplerDpmpp2mSde.mdx b/ja/built-in-nodes/SamplerDpmpp2mSde.mdx new file mode 100644 index 000000000..6ac227cc5 --- /dev/null +++ b/ja/built-in-nodes/SamplerDpmpp2mSde.mdx @@ -0,0 +1,26 @@ +--- +title: "SamplerDpmpp2mSde - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SamplerDpmpp2mSde ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SamplerDpmpp2mSde" +icon: "circle" +mode: wide +translationSourceHash: 6acf4f07 +translationFrom: built-in-nodes/SamplerDpmpp2mSde.mdx, zh-CN/built-in-nodes/SamplerDpmpp2mSde.mdx +--- + +このノードは、DPMPP_2M_SDE モデル用のサンプラーを生成することを目的としており、指定されたソルバーの種類、ノイズレベル、および計算デバイスの設定に応じてサンプルを作成できます。サンプラー設定に伴う複雑さを抽象化し、カスタマイズ可能な設定でサンプルを生成するための簡易なインターフェースを提供します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------------|----------------|----------------------------------------------------------------------| +| `solver_type` | COMBO[STRING] | サンプリング処理で使用するソルバーの種類を指定します(`'midpoint'` または `'heun'` のいずれか)。この選択により、サンプリング中に適用される数値積分法が決定されます。 | +| `eta` | `FLOAT` | 数値積分におけるステップサイズを決定し、サンプリング処理の細かさ(粒度)に影響を与えます。値が大きいほどステップサイズも大きくなります。 | +| `s_noise` | `FLOAT` | サンプリング処理中に導入されるノイズのレベルを制御し、生成されるサンプルの変動性(ばらつき)に影響を与えます。 | +| `noise_device` | COMBO[STRING] | ノイズ生成処理を実行する計算デバイス(`'gpu'` または `'cpu'`)を指定します。これにより、処理性能および効率が影響を受けます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|-------------|--------------------------------------------------------------| +| `sampler` | `SAMPLER` | 指定されたパラメーターに基づいて設定されたサンプラーが出力されます。このサンプラーは、サンプル生成の準備が整った状態です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SamplerDpmppSde.mdx b/ja/built-in-nodes/SamplerDpmppSde.mdx new file mode 100644 index 000000000..7ac034fe4 --- /dev/null +++ b/ja/built-in-nodes/SamplerDpmppSde.mdx @@ -0,0 +1,26 @@ +--- +title: "SamplerDpmppSde - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUIにおけるSamplerDpmppSdeノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SamplerDpmppSde" +icon: "circle" +mode: wide +translationSourceHash: e1fd3212 +translationFrom: built-in-nodes/SamplerDpmppSde.mdx, zh-CN/built-in-nodes/SamplerDpmppSde.mdx +--- + +このノードは、DPM++ SDE(確率微分方程式)モデル用のサンプラーを生成するために設計されています。CPUおよびGPUの実行環境の両方に対応しており、利用可能なハードウェアに応じてサンプラーの実装を最適化します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------------|---------------|------| +| `eta` | FLOAT | SDEソルバーのステップサイズを指定し、サンプリングプロセスの粒度に影響を与えます。| +| `s_noise` | FLOAT | サンプリングプロセス中に適用されるノイズのレベルを決定し、生成されるサンプルの多様性に影響を与えます。| +| `r` | FLOAT | サンプリングプロセスにおけるノイズ低減の比率を制御し、生成されるサンプルの鮮明さおよび品質に影響を与えます。| +| `noise_device` | COMBO[STRING] | サンプラーの実行環境(CPUまたはGPU)を選択し、利用可能なハードウェアに基づいてパフォーマンスを最適化します。| + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------------|------------|------| +| `sampler` | SAMPLER | 指定されたパラメーターで設定された生成済みサンプラーで、サンプリング操作にすぐに使用できます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SamplerER_SDE.mdx b/ja/built-in-nodes/SamplerER_SDE.mdx new file mode 100644 index 000000000..c280750f0 --- /dev/null +++ b/ja/built-in-nodes/SamplerER_SDE.mdx @@ -0,0 +1,34 @@ +--- +title: "SamplerER_SDE - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の SamplerER_SDE ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SamplerER_SDE" +icon: "circle" +mode: wide +translationSourceHash: 333e16ae +translationFrom: built-in-nodes/SamplerER_SDE.mdx, zh-CN/built-in-nodes/SamplerER_SDE.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SamplerER_SDE/en.md) + +SamplerER_SDE ノードは、拡散モデル向けに特化したサンプリング手法を提供し、ER-SDE、逆時間 SDE、ODE といった異なるソルバー方式をサポートします。このノードにより、サンプリングプロセスにおける確率的挙動および計算ステージを制御できます。また、選択されたソルバーの種類に応じて、パラメーターを自動的に調整して正常な動作を保証します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `solver_type` | COMBO | はい | "ER-SDE"
"Reverse-time SDE"
"ODE" | サンプリングに使用するソルバーの種類。拡散プロセスにおける数学的手法を決定します。 | +| `max_stage` | INT | はい | 1–3 | サンプリングプロセスの最大ステージ数(デフォルト:3)。計算の複雑さと品質を制御します。 | +| `eta` | FLOAT | はい | 0.0–100.0 | 逆時間 SDE の確率的強度(デフォルト:1.0)。`eta=0` の場合、決定論的な ODE に簡略化されます。この設定は ER-SDE ソルバーには適用されません。 | +| `s_noise` | FLOAT | はい | 0.0–100.0 | サンプリングプロセスにおけるノイズのスケーリング係数(デフォルト:1.0)。サンプリング中に適用されるノイズ量を制御します。 | + +**パラメーター制約:** + +- `solver_type` が "ODE" に設定されている場合、または "Reverse-time SDE" を使用して `eta`=0 に設定されている場合、ユーザーが入力した値に関わらず、`eta` および `s_noise` は自動的に 0 に設定されます。 +- `eta` パラメーターは "Reverse-time SDE" ソルバーにのみ影響を与え、"ER-SDE" ソルバーには一切影響しません。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `sampler` | SAMPLER | 指定されたソルバー設定で構成されたサンプラー・オブジェクトです。このオブジェクトは、サンプリングパイプライン内で使用できます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SamplerEulerAncestral.mdx b/ja/built-in-nodes/SamplerEulerAncestral.mdx new file mode 100644 index 000000000..fb61d392f --- /dev/null +++ b/ja/built-in-nodes/SamplerEulerAncestral.mdx @@ -0,0 +1,27 @@ +--- +title: "SamplerEulerAncestral - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の SamplerEulerAncestral ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SamplerEulerAncestral" +icon: "circle" +mode: wide +translationSourceHash: f4281bf4 +translationFrom: built-in-nodes/SamplerEulerAncestral.mdx, zh-CN/built-in-nodes/SamplerEulerAncestral.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SamplerEulerAncestral/en.md) + +SamplerEulerAncestral ノードは、画像生成用の「オイラー祖先サンプラー(Euler Ancestral Sampler)」を作成します。このサンプラーは、オイラー積分と祖先サンプリング技術を組み合わせた特定の数学的手法を用いて、画像のバリエーションを生成します。ノードでは、生成プロセス中のランダム性およびステップサイズを制御するパラメーターを調整することで、サンプリング動作をカスタマイズできます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `eta` | FLOAT | はい | 0.0 - 100.0 | サンプリング過程におけるステップサイズおよび確率的変動性(ランダム性)を制御します(デフォルト値:1.0) | +| `s_noise` | FLOAT | はい | 0.0 - 100.0 | サンプリング中に追加されるノイズ量を制御します(デフォルト値:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `sampler` | SAMPLER | サンプリングパイプラインで使用可能な、設定済みのオイラー祖先サンプラーを返します | \ No newline at end of file diff --git a/ja/built-in-nodes/SamplerEulerAncestralCFGPP.mdx b/ja/built-in-nodes/SamplerEulerAncestralCFGPP.mdx new file mode 100644 index 000000000..23f645729 --- /dev/null +++ b/ja/built-in-nodes/SamplerEulerAncestralCFGPP.mdx @@ -0,0 +1,27 @@ +--- +title: "SamplerEulerAncestralCFGPP - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SamplerEulerAncestralCFGPP ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SamplerEulerAncestralCFGPP" +icon: "circle" +mode: wide +translationSourceHash: ef2f4a33 +translationFrom: built-in-nodes/SamplerEulerAncestralCFGPP.mdx, zh-CN/built-in-nodes/SamplerEulerAncestralCFGPP.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SamplerEulerAncestralCFGPP/en.md) + +SamplerEulerAncestralCFGPP ノードは、分類器フリー・ガイド(classifier-free guidance)を用いた Euler Ancestral 法による画像生成に特化したサンプラーを作成します。このサンプラーは、祖先サンプリング(ancestral sampling)技術とガイド条件付け(guidance conditioning)を組み合わせることで、一貫性を保ちながら多様な画像バリエーションを生成します。また、ノイズ量やステップサイズの調整を制御するパラメーターを通じて、サンプリングプロセスの微調整が可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `eta` | FLOAT | はい | 0.0 - 1.0 | サンプリング中のステップサイズを制御します。値が大きいほど更新が激しくなります(デフォルト:1.0) | +| `s_noise` | FLOAT | はい | 0.0 - 10.0 | サンプリング過程で追加されるノイズ量を調整します(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `sampler` | SAMPLER | 画像生成パイプラインで使用可能な、設定済みのサンプラー・オブジェクトを返します | \ No newline at end of file diff --git a/ja/built-in-nodes/SamplerEulerCFGpp.mdx b/ja/built-in-nodes/SamplerEulerCFGpp.mdx new file mode 100644 index 000000000..32a4e6a2b --- /dev/null +++ b/ja/built-in-nodes/SamplerEulerCFGpp.mdx @@ -0,0 +1,24 @@ +--- +title: "SamplerEulerCFGpp - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SamplerEulerCFGpp ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SamplerEulerCFGpp" +icon: "circle" +mode: wide +translationSourceHash: 1170a1cc +translationFrom: built-in-nodes/SamplerEulerCFGpp.mdx, zh-CN/built-in-nodes/SamplerEulerCFGpp.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SamplerEulerCFGpp/en.md) + +SamplerEulerCFGpp ノードは、出力を生成するための Euler CFG++ サンプリング手法を提供します。このノードでは、ユーザーの好みに応じて選択可能な、Euler CFG++ サンプリングアルゴリズムの2種類の実装バージョンが用意されています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `version` | STRING | はい | `"regular"`
`"alternative"` | 使用する Euler CFG++ サンプリングアルゴリズムの実装バージョン | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `sampler` | SAMPLER | 設定済みの Euler CFG++ サンプリングアルゴリズムのインスタンスを返します | \ No newline at end of file diff --git a/ja/built-in-nodes/SamplerLCMUpscale.mdx b/ja/built-in-nodes/SamplerLCMUpscale.mdx new file mode 100644 index 000000000..5d9e101ed --- /dev/null +++ b/ja/built-in-nodes/SamplerLCMUpscale.mdx @@ -0,0 +1,28 @@ +--- +title: "SamplerLCMUpscale - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の SamplerLCMUpscale ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SamplerLCMUpscale" +icon: "circle" +mode: wide +translationSourceHash: 52b9409c +translationFrom: built-in-nodes/SamplerLCMUpscale.mdx, zh-CN/built-in-nodes/SamplerLCMUpscale.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SamplerLCMUpscale/en.md) + +SamplerLCMUpscale ノードは、潜在的一貫性モデル(LCM)によるサンプリングと画像のアップスケール機能を組み合わせた専用のサンプリング手法を提供します。このノードを使用すると、サンプリング処理中にさまざまな補間手法を用いて画像をアップスケールでき、画質を維持したまま高解像度の出力を生成することが可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `scale_ratio` | FLOAT | いいえ | 0.1 - 20.0 | アップスケール時に適用する拡大率(デフォルト: 1.0) | +| `scale_steps` | INT | いいえ | -1 - 1000 | アップスケール処理に使用するステップ数。自動計算を行う場合は `-1` を指定(デフォルト: -1) | +| `upscale_method` | COMBO | はい | "bislerp"
"nearest-exact"
"bilinear"
"area"
"bicubic" | 画像のアップスケールに使用する補間手法 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `sampler` | SAMPLER | サンプリングパイプラインで使用可能な、設定済みのサンプラー・オブジェクトを返します | \ No newline at end of file diff --git a/ja/built-in-nodes/SamplerLMS.mdx b/ja/built-in-nodes/SamplerLMS.mdx new file mode 100644 index 000000000..f42e5c17a --- /dev/null +++ b/ja/built-in-nodes/SamplerLMS.mdx @@ -0,0 +1,24 @@ +--- +title: "SamplerLMS - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SamplerLMS ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SamplerLMS" +icon: "circle" +mode: wide +translationSourceHash: 13e5fffa +translationFrom: built-in-nodes/SamplerLMS.mdx, zh-CN/built-in-nodes/SamplerLMS.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SamplerLMS/en.md) + +SamplerLMS ノードは、拡散モデルで使用される最小二乗法(LMS: Least Mean Squares)サンプラーを作成します。このノードは、サンプリング処理で利用可能なサンプラー・オブジェクトを生成し、数値的安定性および精度を確保するために LMS アルゴリズムの「階数(order)」を制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `order` | INT | はい | 1 ~ 100 | LMS サンプラー・アルゴリズムの階数パラメーター。数値計算手法の精度および安定性を制御します(デフォルト値:4) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `sampler` | SAMPLER | サンプリング・パイプラインで使用可能な、設定済みの LMS サンプラー・オブジェクト | \ No newline at end of file diff --git a/ja/built-in-nodes/SamplerSASolver.mdx b/ja/built-in-nodes/SamplerSASolver.mdx new file mode 100644 index 000000000..6372afbe5 --- /dev/null +++ b/ja/built-in-nodes/SamplerSASolver.mdx @@ -0,0 +1,34 @@ +--- +title: "SamplerSASolver - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の SamplerSASolver ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SamplerSASolver" +icon: "circle" +mode: wide +translationSourceHash: 2d06ef79 +translationFrom: built-in-nodes/SamplerSASolver.mdx, zh-CN/built-in-nodes/SamplerSASolver.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SamplerSASolver/en.md) + +SamplerSASolver ノードは、拡散モデル向けにカスタムのサンプリングアルゴリズムを実装しています。このノードは、予測器-補正器(Predictor-Corrector)方式を採用し、設定可能な次数(order)と確率微分方程式(SDE)のパラメーターを用いて、入力モデルからサンプルを生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `model` | MODEL | はい | - | サンプリングに使用する拡散モデル | +| `eta` | FLOAT | はい | 0.0 - 10.0 | ステップサイズのスケーリング係数を制御します(デフォルト:1.0) | +| `sde_start_percent` | FLOAT | はい | 0.0 - 1.0 | SDE サンプリングの開始割合(デフォルト:0.2) | +| `sde_end_percent` | FLOAT | はい | 0.0 - 1.0 | SDE サンプリングの終了割合(デフォルト:0.8) | +| `s_noise` | FLOAT | はい | 0.0 - 100.0 | サンプリング中に追加されるノイズ量を制御します(デフォルト:1.0) | +| `predictor_order` | INT | はい | 1 - 6 | ソルバーにおける予測器コンポーネントの次数(デフォルト:3) | +| `corrector_order` | INT | はい | 0 - 6 | ソルバーにおける補正器コンポーネントの次数(デフォルト:4) | +| `use_pece` | BOOLEAN | はい | - | PECE(Predict-Evaluate-Correct-Evaluate)手法を有効化または無効化します | +| `simple_order_2` | BOOLEAN | はい | - | 簡略化された2次計算を有効化または無効化します | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `sampler` | SAMPLER | 拡散モデルで使用可能な、事前に設定済みのサンプリングオブジェクト | \ No newline at end of file diff --git a/ja/built-in-nodes/SamplerSEEDS2.mdx b/ja/built-in-nodes/SamplerSEEDS2.mdx new file mode 100644 index 000000000..44cdc1d1b --- /dev/null +++ b/ja/built-in-nodes/SamplerSEEDS2.mdx @@ -0,0 +1,29 @@ +--- +title: "SamplerSEEDS2 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SamplerSEEDS2 ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SamplerSEEDS2" +icon: "circle" +mode: wide +translationSourceHash: eca94f8f +translationFrom: built-in-nodes/SamplerSEEDS2.mdx, zh-CN/built-in-nodes/SamplerSEEDS2.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善のための提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SamplerSEEDS2/en.md) + +このノードは、画像生成用の設定可能なサンプラーを提供します。SEEDS-2 アルゴリズムを実装しており、これは確率微分方程式(SDE)ソルバーです。パラメーターを調整することで、`seeds_2`、`exp_heun_2_x0`、`exp_heun_2_x0_sde` など、いくつかの特定のサンプラーと同様の動作を実現できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `solver_type` | COMBO | はい | `"phi_1"`
`"phi_2"` | サンプラーの基盤となるソルバー・アルゴリズムを選択します。 | +| `eta` | FLOAT | いいえ | 0.0 - 100.0 | 確率的強度(デフォルト値:1.0)。 | +| `s_noise` | FLOAT | いいえ | 0.0 - 100.0 | SDE ノイズ乗数(デフォルト値:1.0)。 | +| `r` | FLOAT | いいえ | 0.01 - 1.0 | 中間ステージ(c2 ノード)における相対ステップサイズ(デフォルト値:0.5)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `sampler` | SAMPLER | 他のサンプリング・ノードに渡すことができる、設定済みのサンプラー・オブジェクトです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SamplingPercentToSigma.mdx b/ja/built-in-nodes/SamplingPercentToSigma.mdx new file mode 100644 index 000000000..f14b3ec74 --- /dev/null +++ b/ja/built-in-nodes/SamplingPercentToSigma.mdx @@ -0,0 +1,28 @@ +--- +title: "SamplingPercentToSigma - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の SamplingPercentToSigma ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SamplingPercentToSigma" +icon: "circle" +mode: wide +translationSourceHash: 34e09005 +translationFrom: built-in-nodes/SamplingPercentToSigma.mdx, zh-CN/built-in-nodes/SamplingPercentToSigma.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SamplingPercentToSigma/en.md) + +SamplingPercentToSigma ノードは、モデルのサンプリングパラメーターを用いて、サンプリング百分率の値を対応するシグマ(σ)値に変換します。このノードは 0.0 から 1.0 の範囲の百分率値を受け取り、それをモデルのノイズスケジュールにおける適切なシグマ値にマッピングします。また、計算されたシグマ値を返すか、あるいは境界(0.0 および 1.0)における実際の最大/最小シグマ値を返すかを選択できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | 変換に使用されるサンプリングパラメーターを含むモデル | +| `sampling_percent` | FLOAT | はい | 0.0 ~ 1.0 | シグマ値に変換するサンプリング百分率(デフォルト:0.0) | +| `return_actual_sigma` | BOOLEAN | はい | - | 区間チェックに使用される値ではなく、実際のシグマ値を返します。これは 0.0 および 1.0 のときのみ結果に影響します(デフォルト:False) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `sigma_value` | FLOAT | 入力されたサンプリング百分率に対応する変換後のシグマ値 | \ No newline at end of file diff --git a/ja/built-in-nodes/SaveAnimatedPNG.mdx b/ja/built-in-nodes/SaveAnimatedPNG.mdx new file mode 100644 index 000000000..2d847e852 --- /dev/null +++ b/ja/built-in-nodes/SaveAnimatedPNG.mdx @@ -0,0 +1,26 @@ +--- +title: "SaveAnimatedPNG - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SaveAnimatedPNG ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SaveAnimatedPNG" +icon: "circle" +mode: wide +translationSourceHash: c42722c7 +translationFrom: built-in-nodes/SaveAnimatedPNG.mdx, zh-CN/built-in-nodes/SaveAnimatedPNG.mdx +--- + +SaveAnimatedPNG ノードは、一連のフレームからアニメーション付き PNG(APNG)画像を作成・保存するために設計されています。個々の画像フレームをまとめて連続したアニメーションに組み立てることをサポートし、フレーム持続時間、ループ設定、およびメタデータの埋め込みをカスタマイズできます。 + +## 入力 + +| フィールド | データ型 | 説明 | +|----------------------|-----------|------------------------------------------------------------------------------------------| +| `images` | `IMAGE` | 処理およびアニメーション付き PNG として保存される画像のリストです。リスト内の各画像は、アニメーションにおける1フレームを表します。 | +| `filename_prefix` | `STRING` | 出力ファイルの基本名を指定します。生成されたアニメーション付き PNG ファイルのファイル名の先頭にこの文字列が付加されます。 | +| `fps` | `FLOAT` | アニメーションのフレームレート(1秒あたりのフレーム数)です。フレームの表示速度を制御します。 | +| `compress_level` | `INT` | アニメーション付き PNG ファイルに適用される圧縮レベルです。ファイルサイズおよび画像の鮮明さに影響します。 | + +## 出力 + +| フィールド | データ型 | 説明 | +|------------|----------|----------------------------------------------------------------------------------------| +| `ui` | なし | 生成されたアニメーション付き PNG 画像を表示する UI コンポーネントを提供します。また、アニメーションが単一フレームか複数フレームかを示します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SaveAnimatedWEBP.mdx b/ja/built-in-nodes/SaveAnimatedWEBP.mdx new file mode 100644 index 000000000..3627a6186 --- /dev/null +++ b/ja/built-in-nodes/SaveAnimatedWEBP.mdx @@ -0,0 +1,28 @@ +--- +title: "SaveAnimatedWEBP - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUIにおけるSaveAnimatedWEBPノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SaveAnimatedWEBP" +icon: "circle" +mode: wide +translationSourceHash: 56ffb6d2 +translationFrom: built-in-nodes/SaveAnimatedWEBP.mdx, zh-CN/built-in-nodes/SaveAnimatedWEBP.mdx +--- + +このノードは、一連の画像をアニメーション付きWEBPファイルとして保存するために設計されています。個々のフレームをまとめて連続したアニメーションに変換し、指定されたメタデータを適用するとともに、画質および圧縮設定に基づいて出力を最適化します。 + +## 入力 + +| パラメーター名 | データ型 | 説明 | +|-------------------|-------------|-------------------------------------------------------------------------------------| +| `images` | `IMAGE` | アニメーション付きWEBPのフレームとして保存する画像のリストです。このパラメーターは、アニメーションの視覚的コンテンツを定義するために不可欠です。 | +| `filename_prefix` | `STRING` | 出力ファイルの基本名称を指定します。この名称にはカウンターと拡張子「.webp」が自動的に追加されます。このパラメーターは、保存されたファイルの識別および整理に不可欠です。 | +| `fps` | `FLOAT` | アニメーションの1秒あたりのフレーム数(FPS)で、再生速度に影響を与えます。 | +| `lossless` | `BOOLEAN` | 無損圧縮を使用するかどうかを示すブール値であり、アニメーションのファイルサイズおよび画質に影響を与えます。 | +| `quality` | `INT` | 0~100の範囲で圧縮品質レベルを設定する値です。数値が大きいほど画像品質が向上しますが、ファイルサイズも大きくなります。 | +| `method` | COMBO[STRING] | 使用する圧縮方式を指定します。この設定はエンコード速度およびファイルサイズに影響を与えます。 | + +## 出力 + +| パラメーター名 | データ型 | 説明 | +|-------|-------------|-----------------------------------------------------------------------------------| +| `ui` | N/A | 保存されたアニメーション付きWEBP画像およびそのメタデータを表示するUIコンポーネントを提供し、アニメーションが有効化されているかどうかを示します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SaveAudio.mdx b/ja/built-in-nodes/SaveAudio.mdx new file mode 100644 index 000000000..0d18d78d6 --- /dev/null +++ b/ja/built-in-nodes/SaveAudio.mdx @@ -0,0 +1,27 @@ +--- +title: "SaveAudio - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の SaveAudio ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SaveAudio" +icon: "circle" +mode: wide +translationSourceHash: c14daae5 +translationFrom: built-in-nodes/SaveAudio.mdx, zh-CN/built-in-nodes/SaveAudio.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SaveAudio/en.md) + +SaveAudio ノードは、音声データを FLAC 形式でファイルに保存します。このノードは音声入力を受け取り、指定された出力ディレクトリ内に与えられたファイル名プレフィックスを用いて書き込みます。ノードはファイル名の自動生成を処理し、後続の利用のために音声が正しく保存されることを保証します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `audio` | AUDIO | はい | - | 保存する音声データ | +| `filename_prefix` | STRING | いいえ | - | 出力ファイル名のプレフィックス(デフォルト: "audio/ComfyUI") | + +*注:`prompt` および `extra_pnginfo` パラメーターは非表示であり、システムによって自動的に処理されます。* + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| *なし* | - | このノードは出力データを返しませんが、音声ファイルを出力ディレクトリに保存します | \ No newline at end of file diff --git a/ja/built-in-nodes/SaveAudioMP3.mdx b/ja/built-in-nodes/SaveAudioMP3.mdx new file mode 100644 index 000000000..e0844cd9d --- /dev/null +++ b/ja/built-in-nodes/SaveAudioMP3.mdx @@ -0,0 +1,30 @@ +--- +title: "SaveAudioMP3 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の SaveAudioMP3 ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SaveAudioMP3" +icon: "circle" +mode: wide +translationSourceHash: 7b0080ff +translationFrom: built-in-nodes/SaveAudioMP3.mdx, zh-CN/built-in-nodes/SaveAudioMP3.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SaveAudioMP3/en.md) + +SaveAudioMP3 ノードは、音声データを MP3 ファイルとして保存します。このノードは音声入力を受け取り、指定された出力ディレクトリに、カスタマイズ可能なファイル名および品質設定でエクスポートします。ノードは自動的にファイル命名およびフォーマット変換を処理し、再生可能な MP3 ファイルを作成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `audio` | AUDIO | はい | - | MP3 ファイルとして保存する音声データ | +| `filename_prefix` | STRING | いいえ | - | 出力ファイル名のプレフィックス(デフォルト: "audio/ComfyUI") | +| `quality` | STRING | いいえ | "V0"
"128k"
"320k" | MP3 ファイルの音声品質設定(デフォルト: "V0") | +| `prompt` | PROMPT | いいえ | - | 内部プロンプトデータ(システムにより自動的に提供されます) | +| `extra_pnginfo` | EXTRA_PNGINFO | いいえ | - | 追加の PNG 情報(システムにより自動的に提供されます) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| *なし* | - | このノードは出力データを返しませんが、音声ファイルを出力ディレクトリに保存します | \ No newline at end of file diff --git a/ja/built-in-nodes/SaveAudioOpus.mdx b/ja/built-in-nodes/SaveAudioOpus.mdx new file mode 100644 index 000000000..af8fcf6ff --- /dev/null +++ b/ja/built-in-nodes/SaveAudioOpus.mdx @@ -0,0 +1,28 @@ +--- +title: "SaveAudioOpus - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の SaveAudioOpus ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SaveAudioOpus" +icon: "circle" +mode: wide +translationSourceHash: db4cad4f +translationFrom: built-in-nodes/SaveAudioOpus.mdx, zh-CN/built-in-nodes/SaveAudioOpus.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善のご提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SaveAudioOpus/en.md) + +SaveAudioOpus ノードは、音声データを Opus 形式のファイルとして保存します。このノードは音声入力を受け取り、設定可能な品質レベルで圧縮された Opus ファイルとしてエクスポートします。また、ファイル名の自動生成を処理し、出力を指定された出力ディレクトリに保存します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `audio` | AUDIO | はい | - | Opus ファイルとして保存する音声データ | +| `filename_prefix` | STRING | いいえ | - | 出力ファイル名のプレフィックス(デフォルト: "audio/ComfyUI") | +| `quality` | COMBO | いいえ | "64k"
"96k"
"128k"
"192k"
"320k" | Opus ファイルの音声品質設定(デフォルト: "128k") | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| - | - | このノードは、出力値を返しません。主な機能は音声ファイルをディスクに保存することです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SaveGLB.mdx b/ja/built-in-nodes/SaveGLB.mdx new file mode 100644 index 000000000..c8380653d --- /dev/null +++ b/ja/built-in-nodes/SaveGLB.mdx @@ -0,0 +1,27 @@ +--- +title: "SaveGLB - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の SaveGLB ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SaveGLB" +icon: "circle" +mode: wide +translationSourceHash: 7fe4c760 +translationFrom: built-in-nodes/SaveGLB.mdx, zh-CN/built-in-nodes/SaveGLB.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SaveGLB/en.md) + +SaveGLB ノードは、3D メッシュデータを GLB ファイル形式で保存します。GLB は 3D モデルにおいて一般的なフォーマットです。このノードはメッシュデータを入力として受け取り、指定されたファイル名プレフィックスを用いて出力ディレクトリへエクスポートします。入力に複数のメッシュオブジェクトが含まれる場合、複数のメッシュを保存することが可能です。また、メタデータ機能が有効になっている場合には、自動的にファイルにメタデータが付加されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `mesh` | MESH | はい | - | GLB ファイルとして保存する 3D メッシュデータ | +| `filename_prefix` | STRING | いいえ | - | 出力ファイル名のプレフィックス(デフォルト: "mesh/ComfyUI") | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `ui` | UI | 保存された GLB ファイルのファイル名およびサブフォルダー情報を含むユーザーインターフェース上での表示 | \ No newline at end of file diff --git a/ja/built-in-nodes/SaveImage.mdx b/ja/built-in-nodes/SaveImage.mdx new file mode 100644 index 000000000..7c0f6dedc --- /dev/null +++ b/ja/built-in-nodes/SaveImage.mdx @@ -0,0 +1,25 @@ +--- +title: "SaveImage - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の SaveImage ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SaveImage" +icon: "circle" +mode: wide +translationSourceHash: 942a9a4f +translationFrom: built-in-nodes/SaveImage.mdx, zh-CN/built-in-nodes/SaveImage.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SaveImage/en.md) + +SaveImage ノードは、受け取った画像を `ComfyUI/output` ディレクトリに保存します。各画像は PNG ファイルとして保存され、プロンプトなどのワークフローのメタデータを保存されたファイルに埋め込むことも可能です。これにより、後で参照する際に便利になります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `images` | IMAGE | はい | - | 保存する画像。 | +| `filename_prefix` | STRING | はい | - | 保存ファイルのファイル名プレフィックス。`%date:yyyy-MM-dd%` や `%Empty Latent Image.width%` のようなフォーマット指定を使用して、他のノードから取得した値を含めることもできます(デフォルト値:`"ComfyUI"`)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `ui` | UI_RESULT | このノードは、保存された画像のファイル名およびサブフォルダーを含む UI 結果を出力します。他のノードへの接続用のデータは出力しません。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SaveImageDataSetToFolder.mdx b/ja/built-in-nodes/SaveImageDataSetToFolder.mdx new file mode 100644 index 000000000..0acf477cc --- /dev/null +++ b/ja/built-in-nodes/SaveImageDataSetToFolder.mdx @@ -0,0 +1,26 @@ +--- +title: "SaveImageDataSetToFolder - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SaveImageDataSetToFolder ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SaveImageDataSetToFolder" +icon: "circle" +mode: wide +translationSourceHash: 4806be3c +translationFrom: built-in-nodes/SaveImageDataSetToFolder.mdx, zh-CN/built-in-nodes/SaveImageDataSetToFolder.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SaveImageDataSetToFolder/en.md) + +このノードは、画像のリストを ComfyUI の出力ディレクトリ内に指定されたフォルダーに保存します。複数の画像を入力として受け取り、カスタマイズ可能なファイル名プレフィックスを付けてディスクに書き出します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `images` | IMAGE | はい | N/A | 保存する画像のリストです。 | +| `folder_name` | STRING | いいえ | N/A | 画像を保存するフォルダー名(出力ディレクトリ内)。デフォルト値は `"dataset"` です。 | +| `filename_prefix` | STRING | いいえ | N/A | 保存される画像ファイル名のプレフィックスです。デフォルト値は `"image"` です。 | + +**注意:** `images` 入力はリスト型であり、一度に複数の画像を受信・処理できます。一方、`folder_name` および `filename_prefix` パラメーターはスカラー値です。リストが接続された場合、そのリストの先頭の値のみが使用されます。 + +## 出力 + +このノードには出力がありません。ファイルシステムへの保存操作を実行する「出力ノード」です。 \ No newline at end of file diff --git a/ja/built-in-nodes/SaveImageTextDataSetToFolder.mdx b/ja/built-in-nodes/SaveImageTextDataSetToFolder.mdx new file mode 100644 index 000000000..cf1cbc8d0 --- /dev/null +++ b/ja/built-in-nodes/SaveImageTextDataSetToFolder.mdx @@ -0,0 +1,29 @@ +--- +title: "SaveImageTextDataSetToFolder - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SaveImageTextDataSetToFolder ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SaveImageTextDataSetToFolder" +icon: "circle" +mode: wide +translationSourceHash: 768a742e +translationFrom: built-in-nodes/SaveImageTextDataSetToFolder.mdx, zh-CN/built-in-nodes/SaveImageTextDataSetToFolder.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SaveImageTextDataSetToFolder/en.md) + +「Save Image and Text Dataset to Folder」ノードは、一連の画像とそれに対応するテキストキャプション(説明文)を、ComfyUI の出力ディレクトリ内に指定したフォルダーに保存します。各画像は PNG ファイルとして保存され、そのファイル名のベース名と同じ名前の `.txt` ファイルが併せて作成され、そこにキャプションが格納されます。この機能は、生成された画像とその説明文から構成される整理されたデータセットを作成する際に非常に有用です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `images` | IMAGE | はい | - | 保存する画像のリストです。 | +| `texts` | STRING | はい | - | 保存するテキストキャプション(説明文)のリストです。 | +| `folder_name` | STRING | いいえ | - | 画像を保存するフォルダー名(出力ディレクトリ内)。(デフォルト: "dataset") | +| `filename_prefix` | STRING | いいえ | - | 保存される画像ファイル名の接頭辞です。(デフォルト: "image") | + +**注意:** `images` および `texts` の入力はリストです。このノードでは、提供されるテキストキャプションの数と画像の数が一致している必要があります。各キャプションは、対応する画像と同じベース名を持つ `.txt` ファイルに保存されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| - | - | このノードには出力がありません。ファイルは直接ファイルシステムに保存されます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SaveLatent.mdx b/ja/built-in-nodes/SaveLatent.mdx new file mode 100644 index 000000000..647843cf9 --- /dev/null +++ b/ja/built-in-nodes/SaveLatent.mdx @@ -0,0 +1,27 @@ +--- +title: "SaveLatent - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における SaveLatent ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SaveLatent" +icon: "circle" +mode: wide +translationSourceHash: 89406a4d +translationFrom: built-in-nodes/SaveLatent.mdx, zh-CN/built-in-nodes/SaveLatent.mdx +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SaveLatent/en.md) + +SaveLatent ノードは、潜在テンソルをファイル形式でディスクに保存し、後続の処理や共有のために利用できるようにします。このノードは潜在サンプルを受け取り、プロンプト情報などのメタデータを含めて出力ディレクトリに保存します。また、潜在データ構造を保持したまま、ファイル名の付与やディレクトリ内の整理を自動的に処理します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `samples` | LATENT | はい | - | ディスクに保存する潜在サンプル | +| `filename_prefix` | STRING | いいえ | - | 出力ファイル名のプレフィックス(デフォルト: "latents/ComfyUI") | +| `prompt` | PROMPT | いいえ | - | メタデータに含めるプロンプト情報(非表示パラメーター) | +| `extra_pnginfo` | EXTRA_PNGINFO | いいえ | - | メタデータに含める追加の PNG 情報(非表示パラメーター) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `ui` | UI | ComfyUI インターフェース上で保存された潜在ファイルの保存場所を示す情報を提供します | \ No newline at end of file diff --git a/ja/built-in-nodes/SaveLoRA.mdx b/ja/built-in-nodes/SaveLoRA.mdx new file mode 100644 index 000000000..99b09d2d6 --- /dev/null +++ b/ja/built-in-nodes/SaveLoRA.mdx @@ -0,0 +1,28 @@ +--- +title: "SaveLoRA - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SaveLoRA ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SaveLoRA" +icon: "circle" +mode: wide +translationSourceHash: 48156f9f +translationFrom: built-in-nodes/SaveLoRA.mdx, zh-CN/built-in-nodes/SaveLoRA.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SaveLoRA/en.md) + +SaveLoRA ノードは、LoRA(低ランク適応:Low-Rank Adaptation)モデルをファイルに保存します。このノードは LoRA モデルを入力として受け取り、出力ディレクトリ内に `.safetensors` 形式のファイルとして書き出します。ファイル名のプレフィックスを指定でき、また任意で訓練ステップ数を含めた最終的なファイル名を生成することもできます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `lora` | MODEL | はい | 該当なし | 保存する LoRA モデルです。LoRA レイヤーが適用済みのモデルは使用しないでください。 | +| `prefix` | STRING | はい | 該当なし | 保存される LoRA ファイルのファイル名プレフィックス(デフォルト: `"loras/ComfyUI_trained_lora"`)。 | +| `steps` | INT | いいえ | 該当なし | オプション:LoRA の訓練ステップ数。保存ファイルの命名に使用されます。 | + +**注意:** `lora` 入力には、純粋な LoRA モデルのみを指定してください。LoRA レイヤーが適用されたベースモデルを提供しないでください。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| *なし* | 該当なし | このノードはワークフローへデータを出力しません。ディスク上へファイルを保存するための出力専用ノードです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SaveLoRANode.mdx b/ja/built-in-nodes/SaveLoRANode.mdx new file mode 100644 index 000000000..6b9f074b5 --- /dev/null +++ b/ja/built-in-nodes/SaveLoRANode.mdx @@ -0,0 +1,26 @@ +--- +title: "SaveLoRANode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の SaveLoRANode ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SaveLoRANode" +icon: "circle" +mode: wide +translationSourceHash: f5a23e16 +translationFrom: built-in-nodes/SaveLoRANode.mdx, zh-CN/built-in-nodes/SaveLoRANode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SaveLoRANode/en.md) + +SaveLoRA ノードは、LoRA(Low-Rank Adaptation:低ランク適応)モデルを出力ディレクトリに保存します。このノードは LoRA モデルを入力として受け取り、自動生成されたファイル名で safetensors 形式のファイルを作成します。ファイル名のプレフィックスをカスタマイズでき、また任意で訓練ステップ数をファイル名に含めることも可能です。これにより、ファイルの整理・管理がより容易になります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `lora` | LORA_MODEL | はい | - | 保存する LoRA モデルです。LoRA レイヤーを含むモデルは使用しないでください。 | +| `prefix` | STRING | はい | - | 保存される LoRA ファイルのファイル名プレフィックス(デフォルト: `"loras/ComfyUI_trained_lora"`)。 | +| `steps` | INT | いいえ | - | オプション:LoRA の訓練ステップ数。保存ファイルの命名に使用されます。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| *なし* | - | このノードは出力を返しませんが、LoRA モデルを出力ディレクトリに保存します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SaveSVGNode.mdx b/ja/built-in-nodes/SaveSVGNode.mdx new file mode 100644 index 000000000..42ee0bcca --- /dev/null +++ b/ja/built-in-nodes/SaveSVGNode.mdx @@ -0,0 +1,27 @@ +--- +title: "SaveSVGNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の SaveSVGNode ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SaveSVGNode" +icon: "circle" +mode: wide +translationSourceHash: 92d99ee1 +translationFrom: built-in-nodes/SaveSVGNode.mdx, zh-CN/built-in-nodes/SaveSVGNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SaveSVGNode/en.md) + +SVG ファイルをディスクに保存します。このノードは SVG データを入力として受け取り、オプションでメタデータを埋め込んだ状態で出力ディレクトリに保存します。ノードは自動的にカウンター付きのファイル名を生成し、ワークフローのプロンプト情報を直接 SVG ファイルに埋め込むことができます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `svg` | SVG | はい | - | ディスクに保存する SVG データ | +| `filename_prefix` | STRING | はい | - | 保存するファイルの接頭辞です。`%date:yyyy-MM-dd%` や `%Empty Latent Image.width%` のようなフォーマット文字列を含めることができ、ノードから取得した値を挿入できます。(デフォルト値:`"svg/ComfyUI"`) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `ui` | DICT | ComfyUI インターフェース上での表示用に、ファイル名、サブフォルダー、タイプなどのファイル情報を返します | + +**注意:** このノードは、利用可能な場合にワークフローメタデータ(プロンプトおよび追加の PNG 情報)を自動的に SVG ファイルに埋め込みます。メタデータは、SVG の `` 要素内に CDATA セクションとして挿入されます。 \ No newline at end of file diff --git a/ja/built-in-nodes/SaveTrainingDataset.mdx b/ja/built-in-nodes/SaveTrainingDataset.mdx new file mode 100644 index 000000000..19f8f2931 --- /dev/null +++ b/ja/built-in-nodes/SaveTrainingDataset.mdx @@ -0,0 +1,27 @@ +--- +title: "SaveTrainingDataset - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の SaveTrainingDataset ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SaveTrainingDataset" +icon: "circle" +mode: wide +translationSourceHash: c70fd4e5 +translationFrom: built-in-nodes/SaveTrainingDataset.mdx, zh-CN/built-in-nodes/SaveTrainingDataset.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SaveTrainingDataset/en.md) + +このノードは、準備済みの訓練データセットをコンピューターのハードディスクに保存します。ノードは、画像の潜在表現(ラテント)とそれに対応するテキスト条件付け情報を含む符号化済みデータを受け取り、管理を容易にするために「シャード」と呼ばれる複数の小さなファイルに整理して保存します。ノードは自動的に出力ディレクトリ内にフォルダーを作成し、データファイルとデータセットの内容を記述したメタデータファイルの両方を保存します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `latents` | LATENT | はい | N/A | `MakeTrainingDataset` ノードから得られる潜在表現(ラテント)の辞書リスト。 | +| `conditioning` | CONDITIONING | はい | N/A | `MakeTrainingDataset` ノードから得られる条件付け情報のリスト。 | +| `folder_name` | STRING | いいえ | N/A | データセットを保存するフォルダー名(出力ディレクトリ内)。(デフォルト: `"training_dataset"`) | +| `shard_size` | INT | いいえ | 1 ~ 100000 | 各シャードファイルに含まれるサンプル数。(デフォルト: `1000`) | + +**注意:** `latents` リスト内の要素数は、`conditioning` リスト内の要素数と完全に一致しなければなりません。一致しない場合、ノードはエラーを発生させます。 + +## 出力 + +このノードは、出力データを生成しません。その機能は、ファイルをディスクに保存することに特化しています。 \ No newline at end of file diff --git a/ja/built-in-nodes/SaveVideo.mdx b/ja/built-in-nodes/SaveVideo.mdx new file mode 100644 index 000000000..1713eda02 --- /dev/null +++ b/ja/built-in-nodes/SaveVideo.mdx @@ -0,0 +1,27 @@ +--- +title: "SaveVideo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の SaveVideo ノードに関する完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "SaveVideo" +icon: "circle" +mode: wide +translationSourceHash: eda64cee +translationFrom: built-in-nodes/SaveVideo.mdx, zh-CN/built-in-nodes/SaveVideo.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SaveVideo/en.md) + +SaveVideo ノードは、入力された動画コンテンツを ComfyUI の出力ディレクトリに保存します。保存ファイルのファイル名プレフィックス、動画フォーマット、およびコーデックを指定できます。このノードは、カウンターによる連番付きのファイル名の自動生成をサポートしており、保存される動画にワークフローのメタデータを含めることも可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `video` | VIDEO | はい | - | 保存する動画。 | +| `filename_prefix` | STRING | いいえ | - | 保存ファイルのプレフィックス。`%date:yyyy-MM-dd%` や `%Empty Latent Image.width%` のようなフォーマット文字列を含めることができ、ノードから取得した値を挿入できます(デフォルト: `"video/ComfyUI"`)。 | +| `format` | COMBO | いいえ | 複数の選択肢あり | 動画を保存するフォーマット(デフォルト: `"auto"`)。 | +| `codec` | COMBO | いいえ | 複数の選択肢あり | 動画に使用するコーデック(デフォルト: `"auto"`)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| *出力なし* | - | このノードは、いかなる出力データも返しません。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SaveWEBM.mdx b/ja/built-in-nodes/SaveWEBM.mdx new file mode 100644 index 000000000..80dcbd077 --- /dev/null +++ b/ja/built-in-nodes/SaveWEBM.mdx @@ -0,0 +1,28 @@ +--- +title: "SaveWEBM - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の SaveWEBM ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SaveWEBM" +icon: "circle" +mode: wide +translationSourceHash: 87e3bb18 +translationFrom: built-in-nodes/SaveWEBM.mdx, zh-CN/built-in-nodes/SaveWEBM.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SaveWEBM/en.md) + +SaveWEBM ノードは、画像シーケンスを WEBM 動画ファイルとして保存します。このノードは複数の入力画像を受け取り、VP9 または AV1 コーデックを用いて、設定可能な品質とフレームレートで動画にエンコードします。生成された動画ファイルは出力ディレクトリに保存され、プロンプト情報などのメタデータが付与されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `images` | IMAGE | はい | - | 動画フレームとしてエンコードする入力画像のシーケンス | +| `filename_prefix` | STRING | いいえ | - | 出力ファイル名のプレフィックス(デフォルト: "ComfyUI") | +| `codec` | COMBO | はい | "vp9"
"av1" | エンコードに使用する動画コーデック | +| `fps` | FLOAT | いいえ | 0.01–1000.0 | 出力動画のフレームレート(デフォルト: 24.0) | +| `crf` | FLOAT | いいえ | 0–63.0 | 品質設定。CRF 値が高いほど品質は低くなりファイルサイズも小さくなり、CRF 値が低いほど品質は高くなりファイルサイズも大きくなります(デフォルト: 32.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `ui` | PREVIEW | 保存された WEBM ファイルの動画プレビューを表示 | \ No newline at end of file diff --git a/ja/built-in-nodes/ScaleROPE.mdx b/ja/built-in-nodes/ScaleROPE.mdx new file mode 100644 index 000000000..f3bb8d034 --- /dev/null +++ b/ja/built-in-nodes/ScaleROPE.mdx @@ -0,0 +1,30 @@ +--- +title: "ScaleROPE - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ScaleROPE ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ScaleROPE" +icon: "circle" +mode: wide +translationSourceHash: 19e8352e +translationFrom: built-in-nodes/ScaleROPE.mdx, zh-CN/built-in-nodes/ScaleROPE.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ScaleROPE/en.md) + +ScaleROPE ノードは、モデルの回転位置埋め込み(ROPE)を X、Y、および T(時間)成分に対してそれぞれ独立したスケーリング係数とシフト値を適用することで変更することを可能にします。これは、モデルの位置エンコーディング動作を調整するために用いられる高度かつ実験的なノードです。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | ROPE パラメーターを変更する対象のモデルです。 | +| `scale_x` | FLOAT | いいえ | 0.0 - 100.0 | ROPE の X 成分に適用するスケーリング係数(デフォルト: 1.0)。 | +| `shift_x` | FLOAT | いいえ | -256.0 - 256.0 | ROPE の X 成分に適用するシフト値(デフォルト: 0.0)。 | +| `scale_y` | FLOAT | いいえ | 0.0 - 100.0 | ROPE の Y 成分に適用するスケーリング係数(デフォルト: 1.0)。 | +| `shift_y` | FLOAT | いいえ | -256.0 - 256.0 | ROPE の Y 成分に適用するシフト値(デフォルト: 0.0)。 | +| `scale_t` | FLOAT | いいえ | 0.0 - 100.0 | ROPE の T(時間)成分に適用するスケーリング係数(デフォルト: 1.0)。 | +| `shift_t` | FLOAT | いいえ | -256.0 - 256.0 | ROPE の T(時間)成分に適用するシフト値(デフォルト: 0.0)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 新しい ROPE スケーリングおよびシフトパラメーターが適用されたモデルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Sd4xupscaleConditioning.mdx b/ja/built-in-nodes/Sd4xupscaleConditioning.mdx new file mode 100644 index 000000000..260f44f15 --- /dev/null +++ b/ja/built-in-nodes/Sd4xupscaleConditioning.mdx @@ -0,0 +1,29 @@ +--- +title: "Sd4xupscaleConditioning - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における Sd4xupscaleConditioning ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Sd4xupscaleConditioning" +icon: "circle" +mode: wide +translationSourceHash: 2ee7dfa8 +translationFrom: built-in-nodes/Sd4xupscaleConditioning.mdx, zh-CN/built-in-nodes/Sd4xupscaleConditioning.mdx +--- + +このノードは、4倍アップスケール処理を用いて画像の解像度を向上させることに特化しており、出力を精緻化するための条件付け要素を組み込みます。拡散技術を活用して画像をアップスケールするとともに、スケール比率およびノイズ増幅の調整を可能とし、アップスケール処理を微調整できます。 + +## 入力 + +| パラメーター | Comfy のデータ型 | 説明 | +|-------------------------|------------------|------| +| `images` | `IMAGE` | アップスケール対象の入力画像です。このパラメーターは極めて重要であり、出力画像の画質および解像度に直接影響を与えます。 | +| `positive` | `CONDITIONING` | アップスケール処理を、出力画像における望ましい属性や特徴へと導く「正の」条件付け要素です。 | +| `negative` | `CONDITIONING` | アップスケール処理において回避すべき「負の」条件付け要素です。これにより、出力が望ましくない属性や特徴から逸脱するよう制御されます。 | +| `scale_ratio` | `FLOAT` | 画像解像度を拡大する倍率を決定します。より高いスケール比率を設定すると、より大きな出力画像が得られ、細部や鮮明さが向上します。 | +| `noise_augmentation` | `FLOAT` | アップスケール処理中に適用されるノイズ増幅の強度を制御します。これにより、出力画像の多様性を導入し、ロバスト性を高めることができます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------------|------------------|------| +| `positive` | `CONDITIONING` | アップスケール処理によって精緻化された「正の」条件付け要素です。 | +| `negative` | `CONDITIONING` | アップスケール処理によって精緻化された「負の」条件付け要素です。 | +| `latent` | `LATENT` | アップスケール処理中に生成される潜在表現で、その後の処理やモデル学習などに利用可能です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SelfAttentionGuidance.mdx b/ja/built-in-nodes/SelfAttentionGuidance.mdx new file mode 100644 index 000000000..53a8da11c --- /dev/null +++ b/ja/built-in-nodes/SelfAttentionGuidance.mdx @@ -0,0 +1,28 @@ +--- +title: "SelfAttentionGuidance - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における SelfAttentionGuidance ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SelfAttentionGuidance" +icon: "circle" +mode: wide +translationSourceHash: d75979b7 +translationFrom: built-in-nodes/SelfAttentionGuidance.mdx, zh-CN/built-in-nodes/SelfAttentionGuidance.mdx +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SelfAttentionGuidance/en.md) + +Self-Attention Guidance(自己注意機構によるガイド)ノードは、サンプリング過程においてアテンション機構を変更することで、拡散モデルにガイドを適用します。このノードは、無条件のデノイズステップからアテンションスコアを取得し、それらを用いて最終出力に影響を与えるぼかし処理されたガイドマップを作成します。この手法は、モデル自身のアテンションパターンを活用して生成プロセスを制御します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | 自己注意機構によるガイドを適用する拡散モデル | +| `scale` | FLOAT | いいえ | -2.0 ~ 5.0 | 自己注意機構によるガイド効果の強さ(デフォルト:0.5) | +| `blur_sigma` | FLOAT | いいえ | 0.0 ~ 10.0 | ガイドマップ作成時に適用されるぼかしの程度(デフォルト:2.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 自己注意機構によるガイドが適用された修正済みモデル | + +**注意:** このノードは現在実験段階であり、チャンク化されたバッチに対して制限があります。1 回の UNet 呼び出し分のアテンションスコアのみを保存可能であり、大きなバッチサイズでは正しく動作しない可能性があります。 \ No newline at end of file diff --git a/ja/built-in-nodes/SetClipHooks.mdx b/ja/built-in-nodes/SetClipHooks.mdx new file mode 100644 index 000000000..ce7a9e16a --- /dev/null +++ b/ja/built-in-nodes/SetClipHooks.mdx @@ -0,0 +1,29 @@ +--- +title: "SetClipHooks - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SetClipHooks ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SetClipHooks" +icon: "circle" +mode: wide +translationSourceHash: af4746b8 +translationFrom: built-in-nodes/SetClipHooks.mdx, zh-CN/built-in-nodes/SetClipHooks.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SetClipHooks/en.md) + +SetClipHooks ノードを使用すると、CLIP モデルにカスタムフックを適用し、その動作を高度に変更できます。このノードでは、条件付き出力(conditioning outputs)へのフック適用が可能であり、オプションで CLIP スケジューリング機能を有効化することもできます。本ノードは、入力された CLIP モデルのクローンを作成し、指定されたフック設定を適用した状態で出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `clip` | CLIP | はい | - | フックを適用する対象の CLIP モデル | +| `apply_to_conds` | BOOLEAN | はい | - | 条件付き出力(conditioning outputs)にフックを適用するかどうか(デフォルト:True) | +| `schedule_clip` | BOOLEAN | はい | - | CLIP スケジューリングを有効化するかどうか(デフォルト:False) | +| `hooks` | HOOKS | いいえ | - | CLIP モデルに適用するオプションのフックグループ | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `clip` | CLIP | 指定されたフックが適用された CLIP モデルのクローン | \ No newline at end of file diff --git a/ja/built-in-nodes/SetFirstSigma.mdx b/ja/built-in-nodes/SetFirstSigma.mdx new file mode 100644 index 000000000..3351829a8 --- /dev/null +++ b/ja/built-in-nodes/SetFirstSigma.mdx @@ -0,0 +1,25 @@ +--- +title: "SetFirstSigma - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の SetFirstSigma ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SetFirstSigma" +icon: "circle" +mode: wide +translationSourceHash: cb21412f +translationFrom: built-in-nodes/SetFirstSigma.mdx, zh-CN/built-in-nodes/SetFirstSigma.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SetFirstSigma/en.md) + +SetFirstSigma ノードは、シグマ値のシーケンスにおいて先頭のシグマ値をカスタム値に置き換えることで、そのシーケンスを変更します。このノードは既存のシグマシーケンスと新しいシグマ値を入力として受け取り、先頭の要素のみが変更され、他のすべてのシグマ値はそのまま保持された新しいシグマシーケンスを出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `sigmas` | SIGMAS | はい | - | 変更対象となる入力シグマ値のシーケンス | +| `sigma` | FLOAT | はい | 0.0 ~ 20000.0 | シーケンスの先頭要素として設定する新しいシグマ値(デフォルト:136.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `sigmas` | SIGMAS | 先頭要素がカスタムのシグマ値に置き換えられた、変更後のシグマシーケンス | \ No newline at end of file diff --git a/ja/built-in-nodes/SetHookKeyframes.mdx b/ja/built-in-nodes/SetHookKeyframes.mdx new file mode 100644 index 000000000..476086bd6 --- /dev/null +++ b/ja/built-in-nodes/SetHookKeyframes.mdx @@ -0,0 +1,27 @@ +--- +title: "SetHookKeyframes - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の SetHookKeyframes ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SetHookKeyframes" +icon: "circle" +mode: wide +translationSourceHash: a0fed32f +translationFrom: built-in-nodes/SetHookKeyframes.mdx, zh-CN/built-in-nodes/SetHookKeyframes.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や、改善のための提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SetHookKeyframes/en.md) + +Set Hook Keyframes ノードを使用すると、既存のフックグループにキーフレームスケジューリングを適用できます。このノードはフックグループを入力として受け取り、オプションでフックの実行タイミングを制御するためのキーフレーム時刻情報を適用します。キーフレームが指定された場合、ノードはフックグループを複製し、そのグループ内のすべてのフックにキーフレーム時刻を設定します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `hooks` | HOOKS | はい | - | キーフレームスケジューリングを適用する対象のフックグループ | +| `hook_kf` | HOOK_KEYFRAMES | いいえ | - | フック実行のタイミング情報を含むオプションのキーフレームグループ | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `hooks` | HOOKS | キーフレームスケジューリングが適用された修正済みフックグループ(キーフレームが指定された場合は複製されます) | \ No newline at end of file diff --git a/ja/built-in-nodes/SetLatentNoiseMask.mdx b/ja/built-in-nodes/SetLatentNoiseMask.mdx new file mode 100644 index 000000000..025e569b0 --- /dev/null +++ b/ja/built-in-nodes/SetLatentNoiseMask.mdx @@ -0,0 +1,24 @@ +--- +title: "SetLatentNoiseMask - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における SetLatentNoiseMask ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SetLatentNoiseMask" +icon: "circle" +mode: wide +translationSourceHash: b08b7a11 +translationFrom: built-in-nodes/SetLatentNoiseMask.mdx, zh-CN/built-in-nodes/SetLatentNoiseMask.mdx +--- + +このノードは、一連の潜在変数(latent)サンプルにノイズマスクを適用するために設計されています。指定されたマスクを統合することで入力サンプルを変更し、それらのノイズ特性を調整します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `samples` | `LATENT` | ノイズマスクを適用する潜在変数サンプルです。このパラメーターは、変更されるベースとなるコンテンツを決定する上で非常に重要です。 | +| `mask` | `MASK` | 潜在変数サンプルに適用するマスクです。サンプル内のノイズ変更の対象領域およびその強度を定義します。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `latent` | `LATENT` | ノイズマスクが適用された、変更後の潜在変数サンプルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SetModelHooksOnCond.mdx b/ja/built-in-nodes/SetModelHooksOnCond.mdx new file mode 100644 index 000000000..0a4236183 --- /dev/null +++ b/ja/built-in-nodes/SetModelHooksOnCond.mdx @@ -0,0 +1,25 @@ +--- +title: "SetModelHooksOnCond - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SetModelHooksOnCond ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SetModelHooksOnCond" +icon: "circle" +mode: wide +translationSourceHash: 64f3061c +translationFrom: built-in-nodes/SetModelHooksOnCond.mdx, zh-CN/built-in-nodes/SetModelHooksOnCond.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SetModelHooksOnCond/en.md) + +このノードは、カスタムフックを条件付けデータ(conditioning data)にアタッチし、モデル実行中に条件付け処理をインターセプトして変更することを可能にします。指定された一連のフックを受け取り、提供された条件付けデータに適用することで、テキストから画像を生成するワークフローの高度なカスタマイズを実現します。フックがアタッチされた修正済みの条件付けデータは、その後の処理ステップで使用するために返されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `conditioning` | CONDITIONING | はい | - | フックをアタッチする対象となる条件付けデータ | +| `hooks` | HOOKS | はい | - | 条件付けデータに適用されるフックの定義 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `conditioning` | CONDITIONING | フックがアタッチされた修正済みの条件付けデータ | \ No newline at end of file diff --git a/ja/built-in-nodes/SetUnionControlNetType.mdx b/ja/built-in-nodes/SetUnionControlNetType.mdx new file mode 100644 index 000000000..b4dceacd9 --- /dev/null +++ b/ja/built-in-nodes/SetUnionControlNetType.mdx @@ -0,0 +1,25 @@ +--- +title: "SetUnionControlNetType - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SetUnionControlNetType ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SetUnionControlNetType" +icon: "circle" +mode: wide +translationSourceHash: b2f68b38 +translationFrom: built-in-nodes/SetUnionControlNetType.mdx, zh-CN/built-in-nodes/SetUnionControlNetType.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SetUnionControlNetType/en.md) + +SetUnionControlNetType ノードを使用すると、条件付けに使用するコントロールネットワークのタイプを指定できます。このノードは既存のコントロールネットワークを受け取り、選択したタイプに基づいてそのコントロールタイプを設定し、指定されたタイプ設定を持つ変更済みのコントロールネットワークのコピーを作成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `control_net` | CONTROL_NET | はい | - | 新しいタイプ設定を適用する対象となるコントロールネットワーク | +| `type` | STRING | はい | `"auto"`
利用可能なすべての `UNION_CONTROLNET_TYPES` キー | 適用するコントロールネットワークのタイプです。「auto」を指定すると自動タイプ検出が行われ、または利用可能なオプションから特定のコントロールネットワークタイプを選択できます | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `control_net` | CONTROL_NET | 指定されたタイプ設定が適用された、変更済みのコントロールネットワーク | \ No newline at end of file diff --git a/ja/built-in-nodes/ShuffleDataset.mdx b/ja/built-in-nodes/ShuffleDataset.mdx new file mode 100644 index 000000000..86f50af67 --- /dev/null +++ b/ja/built-in-nodes/ShuffleDataset.mdx @@ -0,0 +1,25 @@ +--- +title: "ShuffleDataset - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ShuffleDataset ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ShuffleDataset" +icon: "circle" +mode: wide +translationSourceHash: e64ee2d3 +translationFrom: built-in-nodes/ShuffleDataset.mdx, zh-CN/built-in-nodes/ShuffleDataset.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ShuffleDataset/en.md) + +Shuffle Dataset ノードは、画像のリストを受け取り、その順序をランダムに変更します。このノードでは、乱数の制御にシード値を使用しており、同一のシャッフル順序を再現可能にしています。これは、処理前にデータセット内の画像の順序をランダム化する際に非常に有用です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `images` | IMAGE | はい | - | シャッフル対象の画像リストです。 | +| `seed` | INT | いいえ | 0 ~ 18446744073709551615 | 乱数シード値です。値が 0 の場合、実行ごとに異なるシャッフル順序が生成されます。(デフォルト値:0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `images` | IMAGE | 同じ画像リストですが、新しいランダムな順序でシャッフルされています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ShuffleImageTextDataset.mdx b/ja/built-in-nodes/ShuffleImageTextDataset.mdx new file mode 100644 index 000000000..a74037888 --- /dev/null +++ b/ja/built-in-nodes/ShuffleImageTextDataset.mdx @@ -0,0 +1,31 @@ +--- +title: "ShuffleImageTextDataset - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の ShuffleImageTextDataset ノードに関する完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "ShuffleImageTextDataset" +icon: "circle" +mode: wide +translationSourceHash: d81212bb +translationFrom: built-in-nodes/ShuffleImageTextDataset.mdx, zh-CN/built-in-nodes/ShuffleImageTextDataset.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ShuffleImageTextDataset/en.md) + +このノードは、画像のリストとテキストのリストをペアの関係を保ったまま一緒にシャッフルします。シャッフル順序はランダムシードによって決定され、同じ入力リストに対して同一のシードを再利用した場合、毎回同じ順序でシャッフルされます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `images` | IMAGE | はい | - | シャッフル対象の画像リストです。 | +| `texts` | STRING | はい | - | シャッフル対象のテキストリストです。 | +| `seed` | INT | いいえ | 0 ~ 18446744073709551615 | ランダムシードです。シャッフル順序はこの値によって決定されます(デフォルト値:0)。 | + +**注意:** `images` および `texts` の入力は、長さが等しいリストである必要があります。このノードは、まず最初の画像と最初のテキスト、2 番目の画像と 2 番目のテキストといった具合にペアを作成し、その後、これらのペアをまとめてシャッフルします。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `images` | IMAGE | シャッフル後の画像リストです。 | +| `texts` | STRING | シャッフル後のテキストリストです。画像との元のペア関係は維持されます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SkipLayerGuidanceDiT.mdx b/ja/built-in-nodes/SkipLayerGuidanceDiT.mdx new file mode 100644 index 000000000..ddc0c5e7f --- /dev/null +++ b/ja/built-in-nodes/SkipLayerGuidanceDiT.mdx @@ -0,0 +1,32 @@ +--- +title: "SkipLayerGuidanceDiT - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SkipLayerGuidanceDiT ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SkipLayerGuidanceDiT" +icon: "circle" +mode: wide +translationSourceHash: f4dac563 +translationFrom: built-in-nodes/SkipLayerGuidanceDiT.mdx, zh-CN/built-in-nodes/SkipLayerGuidanceDiT.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SkipLayerGuidanceDiT/en.md) + +別のセットの「スキップされた層」を用いた CFG 負のプロンプトを活用することで、詳細な構造へのガイド(誘導)を強化します。この汎用版 SkipLayerGuidance は、すべての DiT モデルで使用可能であり、Perturbed Attention Guidance(摂動注意ガイド)に着想を得ています。元の実験的実装は SD3 向けに作成されました。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | スキップ層ガイドを適用するモデル | +| `double_layers` | STRING | はい | - | スキップ対象のダブルブロック層の、カンマ区切りの層番号(デフォルト: "7, 8, 9") | +| `single_layers` | STRING | はい | - | スキップ対象のシングルブロック層の、カンマ区切りの層番号(デフォルト: "7, 8, 9") | +| `scale` | FLOAT | はい | 0.0 - 10.0 | ガイドスケール係数(デフォルト: 3.0) | +| `start_percent` | FLOAT | はい | 0.0 - 1.0 | ガイド適用の開始割合(デフォルト: 0.01) | +| `end_percent` | FLOAT | はい | 0.0 - 1.0 | ガイド適用の終了割合(デフォルト: 0.15) | +| `rescaling_scale` | FLOAT | はい | 0.0 - 10.0 | 再スケーリング係数(デフォルト: 0.0) | + +**注意:** `double_layers` および `single_layers` の両方が空(層番号を含まない)の場合、このノードはガイドを適用せずに元のモデルをそのまま返します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | スキップ層ガイドが適用された修正済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/SkipLayerGuidanceDiTSimple.mdx b/ja/built-in-nodes/SkipLayerGuidanceDiTSimple.mdx new file mode 100644 index 000000000..679204d9a --- /dev/null +++ b/ja/built-in-nodes/SkipLayerGuidanceDiTSimple.mdx @@ -0,0 +1,32 @@ +--- +title: "SkipLayerGuidanceDiTSimple - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SkipLayerGuidanceDiTSimple ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SkipLayerGuidanceDiTSimple" +icon: "circle" +mode: wide +translationSourceHash: 59f170af +translationFrom: built-in-nodes/SkipLayerGuidanceDiTSimple.mdx, zh-CN/built-in-nodes/SkipLayerGuidanceDiTSimple.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SkipLayerGuidanceDiTSimple/en.md) + +SkipLayerGuidanceDiT ノードの簡易版であり、デノイジング処理中の無条件パス(unconditional pass)のみを変更します。このノードは、指定されたタイミングおよびレイヤー・パラメーターに基づき、無条件パスにおいて特定のレイヤーを意図的にスキップすることで、DiT(Diffusion Transformer:拡散変換器)モデル内の特定のトランスフォーマー・レイヤーに「ジャンプ層ガイド」(skip layer guidance)を適用します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | ジャンプ層ガイドを適用するモデル | +| `double_layers` | STRING | はい | - | スキップ対象のダブルブロック・レイヤーのインデックスをカンマ区切りで並べたリスト(デフォルト: "7, 8, 9") | +| `single_layers` | STRING | はい | - | スキップ対象のシングルブロック・レイヤーのインデックスをカンマ区切りで並べたリスト(デフォルト: "7, 8, 9") | +| `start_percent` | FLOAT | はい | 0.0 - 1.0 | ジャンプ層ガイドを開始するデノイジング処理の進行率(百分率)(デフォルト: 0.0) | +| `end_percent` | FLOAT | はい | 0.0 - 1.0 | ジャンプ層ガイドを終了するデノイジング処理の進行率(百分率)(デフォルト: 1.0) | + +**注意:** ジャンプ層ガイドは、`double_layers` および `single_layers` の両方に有効なレイヤーインデックスが含まれている場合にのみ適用されます。両方が空の場合、このノードは元のモデルを変更せずにそのまま返します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 指定されたレイヤーにジャンプ層ガイドが適用された、変更済みのモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/SkipLayerGuidanceSD3.mdx b/ja/built-in-nodes/SkipLayerGuidanceSD3.mdx new file mode 100644 index 000000000..f6068250e --- /dev/null +++ b/ja/built-in-nodes/SkipLayerGuidanceSD3.mdx @@ -0,0 +1,28 @@ +--- +title: "SkipLayerGuidanceSD3 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SkipLayerGuidanceSD3 ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SkipLayerGuidanceSD3" +icon: "circle" +mode: wide +translationSourceHash: 7aeff41a +translationFrom: built-in-nodes/SkipLayerGuidanceSD3.mdx, zh-CN/built-in-nodes/SkipLayerGuidanceSD3.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SkipLayerGuidanceSD3/en.md) + +SkipLayerGuidanceSD3 ノードは、スキップされた層を用いた追加の分類器不要ガイド(classifier-free guidance)を適用することで、詳細な構造に対するガイド効果を強化します。この実験的な実装は「摂動注意力ガイド(Perturbed Attention Guidance)」に着想を得ており、負の条件付け処理において特定の層を意図的にバイパスすることにより、生成結果の構造的ディテールを向上させます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `model` | MODEL | はい | - | スキップ層ガイドを適用するモデル | +| `layers` | STRING | はい | - | スキップする層のインデックスをカンマ区切りで指定したリスト(デフォルト: `"7, 8, 9"`) | +| `scale` | FLOAT | はい | 0.0 - 10.0 | スキップ層ガイドの効果の強さ(デフォルト: `3.0`) | +| `start_percent` | FLOAT | はい | 0.0 - 1.0 | ガイド適用の開始タイミング(全ステップ数に対する割合)(デフォルト: `0.01`) | +| `end_percent` | FLOAT | はい | 0.0 - 1.0 | ガイド適用の終了タイミング(全ステップ数に対する割合)(デフォルト: `0.15`) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `model` | MODEL | スキップ層ガイドが適用された修正済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/SolidMask.mdx b/ja/built-in-nodes/SolidMask.mdx new file mode 100644 index 000000000..5e018b12b --- /dev/null +++ b/ja/built-in-nodes/SolidMask.mdx @@ -0,0 +1,25 @@ +--- +title: "SolidMask - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における SolidMask ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SolidMask" +icon: "circle" +mode: wide +translationSourceHash: e17939ff +translationFrom: built-in-nodes/SolidMask.mdx, zh-CN/built-in-nodes/SolidMask.mdx +--- + +SolidMask ノードは、指定された値で全体が均一なマスクを生成します。これは、特定のサイズおよび強度を持つマスクを作成するために設計されており、さまざまな画像処理およびマスキングタスクで活用されます。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `value` | FLOAT | マスクの強度値を指定します。これにより、マスクの全体的な外観および後続処理における実用性が影響を受けます。 | +| `width` | INT | 生成されるマスクの幅を決定します。これにより、マスクのサイズおよびアスペクト比が直接的に影響を受けます。 | +| `height` | INT | 生成されるマスクの高さを設定します。これにより、マスクのサイズおよびアスペクト比が影響を受けます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `mask` | MASK | 指定された寸法および値を持つ均一なマスクを出力します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SplitAudioChannels.mdx b/ja/built-in-nodes/SplitAudioChannels.mdx new file mode 100644 index 000000000..72d96dcc7 --- /dev/null +++ b/ja/built-in-nodes/SplitAudioChannels.mdx @@ -0,0 +1,27 @@ +--- +title: "SplitAudioChannels - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の SplitAudioChannels ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SplitAudioChannels" +icon: "circle" +mode: wide +translationSourceHash: 09ea5d67 +translationFrom: built-in-nodes/SplitAudioChannels.mdx, zh-CN/built-in-nodes/SplitAudioChannels.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SplitAudioChannels/en.md) + +SplitAudioChannels ノードは、ステレオ音声を個別の左チャンネルと右チャンネルに分離します。このノードは、2つのチャンネルを持つステレオ音声入力を受け取り、左チャンネル用と右チャンネル用のそれぞれ独立した音声ストリームを出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `audio` | AUDIO | はい | - | チャンネルごとに分離するステレオ音声入力 | + +**注意:** 入力音声は、必ず正確に2つのチャンネル(ステレオ)を持つ必要があります。入力音声が1つのチャンネルのみの場合、このノードはエラーを発生させます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `left` | AUDIO | 分離された左チャンネルの音声 | +| `right` | AUDIO | 分離された右チャンネルの音声 | \ No newline at end of file diff --git a/ja/built-in-nodes/SplitImageWithAlpha.mdx b/ja/built-in-nodes/SplitImageWithAlpha.mdx new file mode 100644 index 000000000..109a4ec8c --- /dev/null +++ b/ja/built-in-nodes/SplitImageWithAlpha.mdx @@ -0,0 +1,24 @@ +--- +title: "SplitImageWithAlpha - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における SplitImageWithAlpha ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SplitImageWithAlpha" +icon: "circle" +mode: wide +translationSourceHash: e81029f2 +translationFrom: built-in-nodes/SplitImageWithAlpha.mdx, zh-CN/built-in-nodes/SplitImageWithAlpha.mdx +--- + +SplitImageWithAlpha ノードは、画像の色成分(RGB)とアルファ成分(透明度)を分離するためのものです。このノードは入力画像テンソルを処理し、RGB チャンネルを「色成分」として抽出するとともに、アルファチャンネルを「透明度成分」として抽出します。これにより、これらの異なる画像要素を個別に操作する必要がある場合の処理を容易にします。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `image` | `IMAGE` | `image` パラメーターは、RGB チャンネルおよびアルファチャンネルを分離する対象となる入力画像テンソルです。分離処理の元となるデータを提供するため、このパラメーターはノードの動作において極めて重要です。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `image` | `IMAGE` | `image` 出力は、入力画像から分離された RGB チャンネルを表し、透明度情報を含まない「色成分」を提供します。 | +| `mask` | `MASK` | `mask` 出力は、入力画像から分離されたアルファチャンネルを表し、「透明度情報」を提供します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SplitSigmas.mdx b/ja/built-in-nodes/SplitSigmas.mdx new file mode 100644 index 000000000..1c75a4d55 --- /dev/null +++ b/ja/built-in-nodes/SplitSigmas.mdx @@ -0,0 +1,24 @@ +--- +title: "SplitSigmas - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SplitSigmas ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SplitSigmas" +icon: "circle" +mode: wide +translationSourceHash: c18d10d6 +translationFrom: built-in-nodes/SplitSigmas.mdx, zh-CN/built-in-nodes/SplitSigmas.mdx +--- + +SplitSigmas ノードは、指定されたステップに基づいてシグマ値の系列を2つの部分に分割するためのものです。この機能は、シグマ系列の初期部分と後続部分を異なる方法で処理・操作する必要がある場合に不可欠であり、これらの値をより柔軟かつ目的に応じた形で操作することを可能にします。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `sigmas` | `SIGMAS` | `sigmas` パラメーターは、分割対象となるシグマ値の系列を表します。分割位置の決定および結果として得られる2つのシグマ値系列の生成に不可欠であり、ノードの実行および出力結果に直接影響を与えます。 | +| `step` | `INT` | `step` パラメーターは、シグマ系列を分割するインデックス(位置)を指定します。これは、得られる2つのシグマ系列の境界を定義する上で極めて重要な役割を果たし、ノードの機能および出力の特性に影響を与えます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `sigmas` | `SIGMAS` | このノードは2つのシグマ値系列を出力します。それぞれは、指定されたステップ位置で分割された元の系列の一部を表します。これらの出力は、シグマ値を差別的に処理する必要がある後続の処理において極めて重要です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SplitSigmasDenoise.mdx b/ja/built-in-nodes/SplitSigmasDenoise.mdx new file mode 100644 index 000000000..fbb5148c1 --- /dev/null +++ b/ja/built-in-nodes/SplitSigmasDenoise.mdx @@ -0,0 +1,28 @@ +--- +title: "SplitSigmasDenoise - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の SplitSigmasDenoise ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SplitSigmasDenoise" +icon: "circle" +mode: wide +translationSourceHash: dbe5a589 +translationFrom: built-in-nodes/SplitSigmasDenoise.mdx, zh-CN/built-in-nodes/SplitSigmasDenoise.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/SplitSigmasDenoise/en.md) + +SplitSigmasDenoise ノードは、ノイズ除去強度(デノイズ係数)パラメーターに基づいて、一連のシグマ値を2つの部分に分割します。このノードは入力シグマ列を「高シグマ列」と「低シグマ列」に分割し、分割点は全ステップ数にデノイズ係数を乗算した値によって決定されます。これにより、ノイズスケジュールを異なる強度範囲に分離し、専門的な処理を可能にします。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `sigmas` | SIGMAS | はい | - | ノイズスケジュールを表す入力シグマ値の列 | +| `denoise` | FLOAT | はい | 0.0 – 1.0 | シグマ列の分割位置を決定するノイズ除去強度係数(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `high_sigmas` | SIGMAS | より高いシグマ値を含むシグマ列の前半部分 | +| `low_sigmas` | SIGMAS | より低いシグマ値を含むシグマ列の後半部分 | \ No newline at end of file diff --git a/ja/built-in-nodes/StabilityAudioInpaint.mdx b/ja/built-in-nodes/StabilityAudioInpaint.mdx new file mode 100644 index 000000000..e19520650 --- /dev/null +++ b/ja/built-in-nodes/StabilityAudioInpaint.mdx @@ -0,0 +1,35 @@ +--- +title: "StabilityAudioInpaint - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における StabilityAudioInpaint ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StabilityAudioInpaint" +icon: "circle" +mode: wide +translationSourceHash: df7ad656 +translationFrom: built-in-nodes/StabilityAudioInpaint.mdx, zh-CN/built-in-nodes/StabilityAudioInpaint.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見した場合、または改善のための提案がある場合は、ぜひご貢献ください! [GitHubで編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StabilityAudioInpaint/en.md) + +テキストによる指示を用いて、既存の音声サンプルの一部を変換します。このノードでは、記述的なプロンプトを指定することで音声の特定区間を編集可能であり、指定された部分を「修復(インペイント)」または再生成する一方で、音声の他の部分はそのまま保持します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|--------------|----------|------|------|------| +| `model` | COMBO | はい | "stable-audio-2.5"
| 音声インペイントに使用するAIモデルです。 | +| `prompt` | STRING | はい | — | 音声の変換方法を指示するテキスト記述(デフォルト:空文字列)。 | +| `audio` | AUDIO | はい | — | 変換対象の入力音声ファイルです。音声の長さは6~190秒である必要があります。 | +| `duration` | INT | いいえ | 1–190 | 生成される音声の長さ(単位:秒)を制御します(デフォルト:190)。 | +| `seed` | INT | いいえ | 0–4294967294 | 生成時に使用される乱数シードです(デフォルト:0)。 | +| `steps` | INT | いいえ | 4–8 | サンプリングステップ数を制御します(デフォルト:8)。 | +| `mask_start` | INT | いいえ | 0–190 | 変換対象の音声区間の開始位置(単位:秒)です(デフォルト:30)。 | +| `mask_end` | INT | いいえ | 0–190 | 変換対象の音声区間の終了位置(単位:秒)です(デフォルト:190)。 | + +**注意:** `mask_end` の値は `mask_start` の値より大きくなければなりません。また、入力音声の長さは6~190秒の範囲内である必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|---------|----------|------| +| `audio` | AUDIO | プロンプトに基づき指定区間が変更された、変換後の音声出力です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/StabilityAudioToAudio.mdx b/ja/built-in-nodes/StabilityAudioToAudio.mdx new file mode 100644 index 000000000..1d2bafe71 --- /dev/null +++ b/ja/built-in-nodes/StabilityAudioToAudio.mdx @@ -0,0 +1,32 @@ +--- +title: "StabilityAudioToAudio - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における StabilityAudioToAudio ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StabilityAudioToAudio" +icon: "circle" +mode: wide +translationSourceHash: 764f129b +translationFrom: built-in-nodes/StabilityAudioToAudio.mdx, zh-CN/built-in-nodes/StabilityAudioToAudio.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StabilityAudioToAudio/en.md) + +テキストによる指示を用いて、既存の音声サンプルを新しい高品質な音声作品に変換します。このノードは入力音声ファイルを受け取り、指定したテキストプロンプトに基づいてその音声を変更し、新たな音声コンテンツを生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | "stable-audio-2.5"
| 音声変換に使用するAIモデル | +| `prompt` | STRING | はい | | 音声をどのように変換するかを記述するテキスト指示(デフォルト:空) | +| `audio` | AUDIO | はい | | 音声の長さは6秒以上190秒以下である必要があります | +| `duration` | INT | いいえ | 1–190 | 生成される音声の長さ(単位:秒)を制御します(デフォルト:190) | +| `seed` | INT | いいえ | 0–4294967294 | 生成に使用される乱数シード(デフォルト:0) | +| `steps` | INT | いいえ | 4–8 | サンプリングステップ数を制御します(デフォルト:8) | +| `strength` | FLOAT | いいえ | 0.01–1.0 | 入力音声パラメーターが生成音声に与える影響の大きさを制御します(デフォルト:1.0) | + +**注意:** 入力音声の長さは6秒以上190秒以下である必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `audio` | AUDIO | 入力音声およびテキストプロンプトに基づいて生成された変換済み音声 | \ No newline at end of file diff --git a/ja/built-in-nodes/StabilityStableImageSD_3_5Node.mdx b/ja/built-in-nodes/StabilityStableImageSD_3_5Node.mdx new file mode 100644 index 000000000..5cddd4e6a --- /dev/null +++ b/ja/built-in-nodes/StabilityStableImageSD_3_5Node.mdx @@ -0,0 +1,36 @@ +--- +title: "StabilityStableImageSD_3_5Node - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における StabilityStableImageSD_3_5Node ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StabilityStableImageSD_3_5Node" +icon: "circle" +mode: wide +translationSourceHash: 2ac21a99 +translationFrom: built-in-nodes/StabilityStableImageSD_3_5Node.mdx, zh-CN/built-in-nodes/StabilityStableImageSD_3_5Node.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StabilityStableImageSD_3_5Node/en.md) + +このノードは、Stability AI の Stable Diffusion 3.5 モデルを用いて、テキストプロンプトに基づいて画像を同期的に生成します。また、入力として既存の画像が提供された場合には、その画像を修正・変換することも可能です。出力画像のカスタマイズのために、さまざまなアスペクト比およびスタイルプリセットがサポートされています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | 出力画像に含めたい内容です。要素、色、被写体などを明確に定義した、具体的かつ表現力豊かなプロンプトを使用すると、より高品質な結果が得られます。(デフォルト:空文字列) | +| `model` | COMBO | はい | 複数の選択肢あり | 生成に使用する Stable Diffusion 3.5 モデルです。 | +| `aspect_ratio` | COMBO | はい | 複数の選択肢あり | 生成される画像のアスペクト比です。(デフォルト:1:1) | +| `style_preset` | COMBO | いいえ | 複数の選択肢あり | 生成画像のオプションとして指定可能なスタイルです。 | +| `cfg_scale` | FLOAT | はい | 1.0 ~ 10.0 | 拡散プロセスがプロンプトテキストにどれだけ厳密に従うかを制御します(値が高いほど、出力画像はプロンプトに近くなります)。(デフォルト:4.0) | +| `seed` | INT | はい | 0 ~ 4294967294 | ノイズ生成に使用される乱数シードです。(デフォルト:0) | +| `image` | IMAGE | いいえ | - | 画像から画像への生成(img2img)に使用する、オプションの入力画像です。 | +| `negative_prompt` | STRING | いいえ | - | 出力画像に含めたくないキーワードです。高度な機能です。(デフォルト:空文字列) | +| `image_denoise` | FLOAT | いいえ | 0.0 ~ 1.0 | 入力画像のデノイズ強度です。0.0 では入力画像と同一の画像が出力され、1.0 では入力画像がまったく存在しない状態と同じになります。(デフォルト:0.5) | + +**注意:** `image` が提供された場合、ノードは画像から画像への生成モードに切り替わり、`aspect_ratio` パラメーターは自動的に入力画像のアスペクト比に基づいて決定されます。`image` が提供されていない場合は、`image_denoise` パラメーターは無視されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 生成または修正された画像です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/StabilityStableImageUltraNode.mdx b/ja/built-in-nodes/StabilityStableImageUltraNode.mdx new file mode 100644 index 000000000..ffdfba2e6 --- /dev/null +++ b/ja/built-in-nodes/StabilityStableImageUltraNode.mdx @@ -0,0 +1,34 @@ +--- +title: "StabilityStableImageUltraNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における StabilityStableImageUltraNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StabilityStableImageUltraNode" +icon: "circle" +mode: wide +translationSourceHash: 8d2b6a05 +translationFrom: built-in-nodes/StabilityStableImageUltraNode.mdx, zh-CN/built-in-nodes/StabilityStableImageUltraNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StabilityStableImageUltraNode/en.md) + +プロンプトと解像度に基づいて、同期的に画像を生成します。このノードは Stability AI の Stable Image Ultra モデルを用いて画像を作成し、入力されたテキストプロンプトを処理し、指定されたアスペクト比およびスタイルに対応する画像を生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | 出力画像に含めたい内容です。要素、色、被写体を明確かつ詳細に記述した強力なプロンプトを使用すると、より良い結果が得られます。特定の単語の重みを制御するには、`(単語:重み)` の形式を使用します。ここで `単語` は重みを調整したい単語、`重み` は 0 から 1 の間の値です。例:`空は鮮やかな (青:0.3) と (緑:0.8)` とすると、青と緑の空が生成されますが、緑の割合が青よりも高くなります。 | +| `aspect_ratio` | COMBO | はい | 複数の選択肢あり | 生成される画像のアスペクト比です。 | +| `style_preset` | COMBO | いいえ | 複数の選択肢あり | 生成される画像の任意のスタイル設定です。 | +| `seed` | INT | はい | 0–4294967294 | ノイズ生成に使用される乱数シードです。 | +| `image` | IMAGE | いいえ | - | 任意の入力画像です。 | +| `negative_prompt` | STRING | いいえ | - | 出力画像に含めたくない内容を記述したテキストです。これは高度な機能です。 | +| `image_denoise` | FLOAT | いいえ | 0.0–1.0 | 入力画像のデノイズ強度です。0.0 では入力画像と同一の画像が出力され、1.0 では入力画像がまったく存在しないかのように処理されます。デフォルト値:0.5 | + +**注意:** 入力画像が指定されていない場合、`image_denoise` パラメーターは自動的に無効化されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | IMAGE | 入力パラメーターに基づいて生成された画像です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/StabilityTextToAudio.mdx b/ja/built-in-nodes/StabilityTextToAudio.mdx new file mode 100644 index 000000000..a2d4ab14d --- /dev/null +++ b/ja/built-in-nodes/StabilityTextToAudio.mdx @@ -0,0 +1,28 @@ +--- +title: "StabilityTextToAudio - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における StabilityTextToAudio ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StabilityTextToAudio" +icon: "circle" +mode: wide +translationSourceHash: 0f57dd2a +translationFrom: built-in-nodes/StabilityTextToAudio.mdx, zh-CN/built-in-nodes/StabilityTextToAudio.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StabilityTextToAudio/en.md) + +テキストによる説明から高品質な音楽および効果音を生成します。このノードは Stability AI の音声生成技術を活用し、指定したテキストプロンプトに基づいて音声コンテンツを作成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"stable-audio-2.5"` | 使用する音声生成モデル(デフォルト:`"stable-audio-2.5"`) | +| `prompt` | STRING | はい | - | 音声コンテンツを生成するために用いるテキスト説明(デフォルト:空文字列) | +| `duration` | INT | いいえ | 1–190 | 生成される音声の長さ(秒単位)を制御します(デフォルト:190) | +| `seed` | INT | いいえ | 0–4294967294 | 生成時に使用する乱数シード(デフォルト:0) | +| `steps` | INT | いいえ | 4–8 | サンプリングステップ数を制御します(デフォルト:8) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `audio` | AUDIO | テキストプロンプトに基づいて生成された音声ファイル | \ No newline at end of file diff --git a/ja/built-in-nodes/StabilityUpscaleConservativeNode.mdx b/ja/built-in-nodes/StabilityUpscaleConservativeNode.mdx new file mode 100644 index 000000000..9a81ad4a1 --- /dev/null +++ b/ja/built-in-nodes/StabilityUpscaleConservativeNode.mdx @@ -0,0 +1,30 @@ +--- +title: "StabilityUpscaleConservativeNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における StabilityUpscaleConservativeNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StabilityUpscaleConservativeNode" +icon: "circle" +mode: wide +translationSourceHash: 3e991d05 +translationFrom: built-in-nodes/StabilityUpscaleConservativeNode.mdx, zh-CN/built-in-nodes/StabilityUpscaleConservativeNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご協力ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StabilityUpscaleConservativeNode/en.md) + +画像を最小限の変更で 4K 解像度にアップスケールします。このノードでは、Stability AI の「保守的アップスケーリング」技術を用いて、元の画像の内容を保持しつつ解像度を向上させ、わずかな変更のみを行うことができます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | アップスケール対象の入力画像 | +| `prompt` | STRING | はい | - | 出力画像に含めてほしい内容です。要素、色、被写体などを明確に定義した、具体的で表現力豊かなプロンプトを使用すると、より良い結果が得られます。(デフォルト:空文字列) | +| `creativity` | FLOAT | はい | 0.2–0.5 | 初期画像(init image)による制約を受けにくい追加的なディテールを生成する可能性を制御します。(デフォルト:0.35) | +| `seed` | INT | はい | 0–4294967294 | ノイズ生成に使用される乱数シードです。(デフォルト:0) | +| `negative_prompt` | STRING | いいえ | - | 出力画像に含めたくないキーワードです。これは高度な機能です。(デフォルト:空文字列) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 4K 解像度でアップスケールされた画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/StabilityUpscaleCreativeNode.mdx b/ja/built-in-nodes/StabilityUpscaleCreativeNode.mdx new file mode 100644 index 000000000..c5bc14b23 --- /dev/null +++ b/ja/built-in-nodes/StabilityUpscaleCreativeNode.mdx @@ -0,0 +1,31 @@ +--- +title: "StabilityUpscaleCreativeNode - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における StabilityUpscaleCreativeNode ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StabilityUpscaleCreativeNode" +icon: "circle" +mode: wide +translationSourceHash: 326a6c1c +translationFrom: built-in-nodes/StabilityUpscaleCreativeNode.mdx, zh-CN/built-in-nodes/StabilityUpscaleCreativeNode.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StabilityUpscaleCreativeNode/en.md) + +画像を 4K 解像度までアップスケールし、元の画像への変更を最小限に抑えます。このノードでは Stability AI の「クリエイティブアップスケーリング」技術を用いて、画像の解像度を向上させるとともに、元のコンテンツを保持し、繊細なクリエイティブなディテールを追加します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | アップスケール対象の入力画像 | +| `prompt` | STRING | はい | - | 出力画像に含めてほしい内容です。要素、色、被写体などを明確に定義した、具体的かつ表現力豊かなプロンプトを使用すると、より優れた結果が得られます。(デフォルト:空文字列) | +| `creativity` | FLOAT | はい | 0.1–0.5 | 初期画像(init image)による制約を受けずに追加のディテールを生成する可能性を制御します。(デフォルト:0.3) | +| `style_preset` | COMBO | はい | 複数のオプションあり | 生成される画像のスタイルとして任意で指定可能なプリセットです。Stability AI が提供するさまざまなスタイルプリセットから選択できます。 | +| `seed` | INT | はい | 0–4294967294 | ノイズ生成に使用される乱数シードです。(デフォルト:0) | +| `negative_prompt` | STRING | いいえ | - | 出力画像に含めたくないキーワードです。これは高度な機能です。(デフォルト:空文字列) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 4K 解像度にアップスケールされた画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/StabilityUpscaleFastNode.mdx b/ja/built-in-nodes/StabilityUpscaleFastNode.mdx new file mode 100644 index 000000000..0d03605f9 --- /dev/null +++ b/ja/built-in-nodes/StabilityUpscaleFastNode.mdx @@ -0,0 +1,24 @@ +--- +title: "StabilityUpscaleFastNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における StabilityUpscaleFastNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StabilityUpscaleFastNode" +icon: "circle" +mode: wide +translationSourceHash: eaa50c53 +translationFrom: built-in-nodes/StabilityUpscaleFastNode.mdx, zh-CN/built-in-nodes/StabilityUpscaleFastNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や、改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StabilityUpscaleFastNode/en.md) + +Stability API を呼び出して、画像を元のサイズの 4 倍に高速でアップスケールします。このノードは、低品質または圧縮された画像を Stability AI の高速アップスケールサービスに送信することで、それらの画像をアップスケールすることを目的としています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | アップスケール対象の入力画像 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | IMAGE | Stability AI API から返されたアップスケール済みの画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/StableCascade_EmptyLatentImage.mdx b/ja/built-in-nodes/StableCascade_EmptyLatentImage.mdx new file mode 100644 index 000000000..e513e3453 --- /dev/null +++ b/ja/built-in-nodes/StableCascade_EmptyLatentImage.mdx @@ -0,0 +1,30 @@ +--- +title: "StableCascade_EmptyLatentImage - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における StableCascade_EmptyLatentImage ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StableCascade_EmptyLatentImage" +icon: "circle" +mode: wide +translationSourceHash: cb23e2d2 +translationFrom: built-in-nodes/StableCascade_EmptyLatentImage.mdx, zh-CN/built-in-nodes/StableCascade_EmptyLatentImage.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StableCascade_EmptyLatentImage/en.md) + +StableCascade_EmptyLatentImage ノードは、Stable Cascade モデル向けの空の潜在テンソルを生成します。このノードは、入力解像度および圧縮設定に基づいて適切な次元を持つ、2 つの独立した潜在表現(ステージ C 用とステージ B 用)を生成します。このノードは、Stable Cascade の生成パイプラインの出発点となります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `width` | INT | はい | 256 ~ MAX_RESOLUTION | 出力画像の幅(ピクセル単位)(デフォルト:1024、ステップ:8) | +| `height` | INT | はい | 256 ~ MAX_RESOLUTION | 出力画像の高さ(ピクセル単位)(デフォルト:1024、ステップ:8) | +| `compression` | INT | はい | 4 ~ 128 | ステージ C の潜在次元を決定する圧縮係数(デフォルト:42、ステップ:1) | +| `batch_size` | INT | いいえ | 1 ~ 4096 | 1 バッチあたりに生成する潜在サンプル数(デフォルト:1) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `stage_c` | LATENT | 次元が `[batch_size, 16, height//compression, width//compression]` のステージ C 潜在テンソル | +| `stage_b` | LATENT | 次元が `[batch_size, 4, height//4, width//4]` のステージ B 潜在テンソル | \ No newline at end of file diff --git a/ja/built-in-nodes/StableCascade_StageB_Conditioning.mdx b/ja/built-in-nodes/StableCascade_StageB_Conditioning.mdx new file mode 100644 index 000000000..9ed46e6c8 --- /dev/null +++ b/ja/built-in-nodes/StableCascade_StageB_Conditioning.mdx @@ -0,0 +1,27 @@ +--- +title: "StableCascade_StageB_Conditioning - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における StableCascade_StageB_Conditioning ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StableCascade_StageB_Conditioning" +icon: "circle" +mode: wide +translationSourceHash: 249ff9d6 +translationFrom: built-in-nodes/StableCascade_StageB_Conditioning.mdx, zh-CN/built-in-nodes/StableCascade_StageB_Conditioning.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StableCascade_StageB_Conditioning/en.md) + +StableCascade_StageB_Conditioning ノードは、既存の条件情報と Stage C から得られる事前潜在表現を統合することにより、Stable Cascade Stage B の生成に必要な条件データを準備します。このノードは、Stage C からの潜在サンプルを条件データに組み込むことで、生成プロセスが事前情報を活用してより一貫性のある出力を得られるようにします。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `conditioning` | CONDITIONING | はい | - | Stage C の事前情報を付与して修正される条件データ | +| `stage_c` | LATENT | はい | - | 条件処理に用いる事前サンプルを含む、Stage C 由来の潜在表現 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `CONDITIONING` | CONDITIONING | Stage C の事前情報が統合された、修正済みの条件データ | \ No newline at end of file diff --git a/ja/built-in-nodes/StableCascade_StageC_VAEEncode.mdx b/ja/built-in-nodes/StableCascade_StageC_VAEEncode.mdx new file mode 100644 index 000000000..744dc6e10 --- /dev/null +++ b/ja/built-in-nodes/StableCascade_StageC_VAEEncode.mdx @@ -0,0 +1,27 @@ +--- +title: "StableCascade_StageC_VAEEncode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における StableCascade_StageC_VAEEncode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StableCascade_StageC_VAEEncode" +icon: "circle" +mode: wide +translationSourceHash: 0aa0fdc6 +translationFrom: built-in-nodes/StableCascade_StageC_VAEEncode.mdx, zh-CN/built-in-nodes/StableCascade_StageC_VAEEncode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StableCascade_StageC_VAEEncode/en.md) + +StableCascade_StageC_VAEEncode ノードは、VAE エンコーダーを用いて画像を処理し、Stable Cascade モデル向けの潜在表現(ラテント表現)を生成します。このノードは入力画像を受け取り、指定された VAE モデルを用いて圧縮した後、2つの潜在表現を出力します:1つはステージ C 用、もう1つはステージ B のプレースホルダーです。`compression`(圧縮)パラメーターは、エンコード前に画像をどの程度縮小するかを制御します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 潜在空間へエンコードする入力画像 | +| `vae` | VAE | はい | - | 画像のエンコードに使用される VAE モデル | +| `compression` | INT | いいえ | 4–128 | エンコード前に画像に適用される圧縮係数(デフォルト値:42) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `stage_c` | LATENT | Stable Cascade モデルのステージ C 向けにエンコードされた潜在表現 | +| `stage_b` | LATENT | ステージ B 向けのプレースホルダー潜在表現(現時点ではゼロ値を返します) | \ No newline at end of file diff --git a/ja/built-in-nodes/StableCascade_SuperResolutionControlnet.mdx b/ja/built-in-nodes/StableCascade_SuperResolutionControlnet.mdx new file mode 100644 index 000000000..7408e8407 --- /dev/null +++ b/ja/built-in-nodes/StableCascade_SuperResolutionControlnet.mdx @@ -0,0 +1,27 @@ +--- +title: "StableCascade_SuperResolutionControlnet - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における StableCascade_SuperResolutionControlnet ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StableCascade_SuperResolutionControlnet" +icon: "circle" +mode: wide +translationSourceHash: e7e6e5be +translationFrom: built-in-nodes/StableCascade_SuperResolutionControlnet.mdx, zh-CN/built-in-nodes/StableCascade_SuperResolutionControlnet.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StableCascade_SuperResolutionControlnet/en.md) + +StableCascade_SuperResolutionControlnet ノードは、Stable Cascade の超解像処理に必要な入力を準備します。このノードは入力画像を受け取り、VAE を用いてエンコードすることで ControlNet 入力を作成するとともに、Stable Cascade パイプラインのステージ C およびステージ B 用のプレースホルダー潜在表現(latent representation)を生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 超解像処理対象の入力画像 | +| `vae` | VAE | はい | - | 入力画像をエンコードするために使用される VAE モデル | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `controlnet_input` | IMAGE | ControlNet 入力として適した、エンコード済みの画像表現 | +| `stage_c` | LATENT | Stable Cascade 処理のステージ C 用のプレースホルダー潜在表現 | +| `stage_b` | LATENT | Stable Cascade 処理のステージ B 用のプレースホルダー潜在表現 | \ No newline at end of file diff --git a/ja/built-in-nodes/StableZero123_Conditioning.mdx b/ja/built-in-nodes/StableZero123_Conditioning.mdx new file mode 100644 index 000000000..a9ba7eacf --- /dev/null +++ b/ja/built-in-nodes/StableZero123_Conditioning.mdx @@ -0,0 +1,37 @@ +--- +title: "StableZero123_Conditioning - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における StableZero123_Conditioning ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StableZero123_Conditioning" +icon: "circle" +mode: wide +translationSourceHash: 234f15b7 +translationFrom: built-in-nodes/StableZero123_Conditioning.mdx, zh-CN/built-in-nodes/StableZero123_Conditioning.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください![GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StableZero123_Conditioning/en.md) + +StableZero123_Conditioning ノードは、入力画像とカメラ角度を処理し、3Dモデル生成に用いる条件データおよび潜在表現(latent representation)を生成します。このノードでは、CLIPビジョンモデルを用いて画像特徴をエンコードし、仰角(elevation)および方位角(azimuth)に基づくカメラ埋め込み情報をそれらと結合します。その結果として、後続の3D生成タスク向けに正の条件データ(positive conditioning)、負の条件データ(negative conditioning)、および潜在表現が生成されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `clip_vision` | CLIP_VISION | はい | - | 画像特徴をエンコードするために使用されるCLIPビジョンモデル | +| `init_image` | IMAGE | はい | - | 処理およびエンコード対象の入力画像 | +| `vae` | VAE | はい | - | ピクセルを潜在空間へエンコードするためのVAEモデル | +| `width` | INT | いいえ | 16 ~ MAX_RESOLUTION | 潜在表現の出力幅(デフォルト:256、8で割り切れる必要があります) | +| `height` | INT | いいえ | 16 ~ MAX_RESOLUTION | 潜在表現の出力高さ(デフォルト:256、8で割り切れる必要があります) | +| `batch_size` | INT | いいえ | 1 ~ 4096 | バッチ内で生成するサンプル数(デフォルト:1) | +| `elevation` | FLOAT | いいえ | -180.0 ~ 180.0 | カメラの仰角(単位:度、デフォルト:0.0) | +| `azimuth` | FLOAT | いいえ | -180.0 ~ 180.0 | カメラの方位角(単位:度、デフォルト:0.0) | + +**注意:** `width` および `height` パラメーターは、ノードが内部でこれらの値を8で除算して潜在表現の次元を算出するため、必ず8で割り切れる値を指定する必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `positive` | CONDITIONING | 画像特徴とカメラ埋め込み情報を統合した正の条件データ | +| `negative` | CONDITIONING | 特徴がゼロ初期化された負の条件データ | +| `latent` | LATENT | 次元が `[batch_size, 4, height//8, width//8]` の潜在表現 | \ No newline at end of file diff --git a/ja/built-in-nodes/StableZero123_Conditioning_Batched.mdx b/ja/built-in-nodes/StableZero123_Conditioning_Batched.mdx new file mode 100644 index 000000000..e7e945860 --- /dev/null +++ b/ja/built-in-nodes/StableZero123_Conditioning_Batched.mdx @@ -0,0 +1,39 @@ +--- +title: "StableZero123_Conditioning_Batched - ComfyUI 組み込みノード ドキュメンテーション" +description: "ComfyUI における StableZero123_Conditioning_Batched ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StableZero123_Conditioning_Batched" +icon: "circle" +mode: wide +translationSourceHash: 564b022f +translationFrom: built-in-nodes/StableZero123_Conditioning_Batched.mdx, zh-CN/built-in-nodes/StableZero123_Conditioning_Batched.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StableZero123_Conditioning_Batched/en.md) + +StableZero123_Conditioning_Batched ノードは、入力画像を処理し、3Dモデル生成用の条件データを生成します。このノードでは、CLIPビジョンモデルとVAEモデルを用いて画像をエンコードし、仰角(elevation)および方位角(azimuth)に基づいてカメラ埋め込み(camera embeddings)を作成します。これにより、正の条件データおよび負の条件データ、ならびにバッチ処理用の潜在表現(latent representations)が生成されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `clip_vision` | CLIP_VISION | はい | - | 入力画像のエンコードに使用されるCLIPビジョンモデル | +| `init_image` | IMAGE | はい | - | 処理およびエンコード対象となる初期入力画像 | +| `vae` | VAE | はい | - | 画像ピクセルを潜在空間へエンコードするためのVAEモデル | +| `width` | INT | いいえ | 16 ~ MAX_RESOLUTION | 処理後の画像の出力幅(デフォルト:256、8で割り切れる必要があります) | +| `height` | INT | いいえ | 16 ~ MAX_RESOLUTION | 処理後の画像の出力高さ(デフォルト:256、8で割り切れる必要があります) | +| `batch_size` | INT | いいえ | 1 ~ 4096 | バッチ内で生成する条件サンプル数(デフォルト:1) | +| `elevation` | FLOAT | いいえ | -180.0 ~ 180.0 | 初期カメラの仰角(単位:度、デフォルト:0.0) | +| `azimuth` | FLOAT | いいえ | -180.0 ~ 180.0 | 初期カメラの方位角(単位:度、デフォルト:0.0) | +| `elevation_batch_increment` | FLOAT | いいえ | -180.0 ~ 180.0 | 各バッチ項目ごとの仰角の増分(デフォルト:0.0) | +| `azimuth_batch_increment` | FLOAT | いいえ | -180.0 ~ 180.0 | 各バッチ項目ごとの方位角の増分(デフォルト:0.0) | + +**注意:** `width` および `height` パラメーターは、ノード内部でこれらの次元を8で除算して潜在空間を生成するため、8で割り切れる必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 画像の埋め込みおよびカメラパラメーターを含む正の条件データ | +| `negative` | CONDITIONING | ゼロ初期化された埋め込みを持つ負の条件データ | +| `latent` | LATENT | バッチインデックス情報を含む、処理済み画像の潜在表現 | \ No newline at end of file diff --git a/ja/built-in-nodes/Stablezero123Conditioning.mdx b/ja/built-in-nodes/Stablezero123Conditioning.mdx new file mode 100644 index 000000000..3d1e49283 --- /dev/null +++ b/ja/built-in-nodes/Stablezero123Conditioning.mdx @@ -0,0 +1,32 @@ +--- +title: "Stablezero123Conditioning - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における Stablezero123Conditioning ノードの完全なドキュメンテーションです。入力、出力、パラメータおよび使用方法について学びましょう。" +sidebarTitle: "Stablezero123Conditioning" +icon: "circle" +mode: wide +translationSourceHash: 42d13bac +translationFrom: built-in-nodes/Stablezero123Conditioning.mdx, zh-CN/built-in-nodes/Stablezero123Conditioning.mdx +--- + +このノードは、StableZero123 モデルで使用するためのデータを処理・条件付けすることを目的として設計されており、特にこれらのモデルと互換性があり、最適化された特定のフォーマットで入力を準備することに焦点を当てています。 + +## 入力 + +| パラメータ名 | Comfy のデータ型 | 説明 | +|------------------|------------------|------| +| `clip_vision` | `CLIP_VISION` | モデルの要件に合わせて視覚データを処理し、モデルが視覚的文脈をより正確に理解できるようにします。 | +| `init_image` | `IMAGE` | モデルへの初期画像入力として機能し、その後の画像ベースの処理の基準点を設定します。 | +| `vae` | `VAE` | 変分自己符号化器(VAE)の出力を統合し、モデルによる画像生成または画像変更の能力を高めます。 | +| `width` | `INT` | 出力画像の幅を指定し、モデルの要件に応じた動的なサイズ変更を可能にします。 | +| `height` | `INT` | 出力画像の高さを決定し、出力サイズのカスタマイズを実現します。 | +| `batch_size` | `INT` | 1回のバッチ処理で処理される画像の数を制御し、計算効率を最適化します。 | +| `elevation` | `FLOAT` | 3D モデルのレンダリングにおける仰角を調整し、モデルの空間的理解を向上させます。 | +| `azimuth` | `FLOAT` | 3D モデルの可視化における方位角を変更し、モデルの方向認識を改善します。 | + +## 出力 + +| パラメータ名 | データ型 | 説明 | +|--------------|------------------|------| +| `positive` | `CONDITIONING` | 正の条件付けベクトルを生成し、モデルによる正の特徴の強化を支援します。 | +| `negative` | `CONDITIONING` | 負の条件付けベクトルを生成し、モデルが特定の特徴を回避するのを支援します。 | +| `latent` | `LATENT` | 潜在表現を作成し、モデルがデータをより深く理解できるようにします。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Stablezero123ConditioningBatched.mdx b/ja/built-in-nodes/Stablezero123ConditioningBatched.mdx new file mode 100644 index 000000000..b4fe396d4 --- /dev/null +++ b/ja/built-in-nodes/Stablezero123ConditioningBatched.mdx @@ -0,0 +1,36 @@ +--- +title: "Stablezero123ConditioningBatched - ComfyUI 組み込みノード ドキュメンテーション" +description: "ComfyUI における Stablezero123ConditioningBatched ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Stablezero123ConditioningBatched" +icon: "circle" +mode: wide +translationSourceHash: 1be94fcb +translationFrom: built-in-nodes/Stablezero123ConditioningBatched.mdx, zh-CN/built-in-nodes/Stablezero123ConditioningBatched.mdx +translationMismatches: + - "description" +--- + +このノードは、StableZero123 モデル専用に設計されており、条件付け情報をバッチ処理方式で効率的に処理します。複数の条件データセットを同時に高速に処理することに重点を置き、バッチ処理が特に重要なシナリオにおけるワークフローを最適化します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|----------------------|--------------|-------------| +| `clip_vision` | `CLIP_VISION` | 条件付けプロセスにおける視覚的文脈を提供する CLIP ビジョン埋め込みです。 | +| `init_image` | `IMAGE` | 条件付けの対象となる初期画像で、生成プロセスの出発点として機能します。 | +| `vae` | `VAE` | 条件付けプロセスにおいて画像のエンコードおよびデコードに使用される変分自己符号化器(VAE)です。 | +| `width` | `INT` | 出力画像の幅です。 | +| `height` | `INT` | 出力画像の高さです。 | +| `batch_size` | `INT` | 1 回のバッチ処理で処理する条件データセットの数です。 | +| `elevation` | `FLOAT` | 3D モデルの条件付けにおける仰角で、生成される画像の視点に影響を与えます。 | +| `azimuth` | `FLOAT` | 3D モデルの条件付けにおける方位角で、生成される画像の向きに影響を与えます。 | +| `elevation_batch_increment` | `FLOAT` | バッチ内における仰角の増分値で、異なる視点を実現するために使用されます。 | +| `azimuth_batch_increment` | `FLOAT` | バッチ内における方位角の増分値で、異なる向きを実現するために使用されます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|---------------|--------------|-------------| +| `positive` | `CONDITIONING` | 正の条件付け出力で、生成コンテンツ内の特定の特徴や要素を促進するように設計されています。 | +| `negative` | `CONDITIONING` | 負の条件付け出力で、生成コンテンツ内の特定の特徴や要素を抑制するように設計されています。 | +| `latent` | `LATENT` | 条件付けプロセスから得られた潜在表現で、その後の処理または生成ステップへと引き渡すことができます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/StringCompare.mdx b/ja/built-in-nodes/StringCompare.mdx new file mode 100644 index 000000000..71b67b7b3 --- /dev/null +++ b/ja/built-in-nodes/StringCompare.mdx @@ -0,0 +1,27 @@ +--- +title: "StringCompare - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の StringCompare ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StringCompare" +icon: "circle" +mode: wide +translationSourceHash: 4c5ede76 +translationFrom: built-in-nodes/StringCompare.mdx, zh-CN/built-in-nodes/StringCompare.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StringCompare/en.md) + +StringCompare ノードは、異なる比較方法を用いて2つのテキスト文字列を比較します。具体的には、ある文字列が別の文字列で始まるか、別の文字列で終わるか、あるいは両方の文字列が完全に等しいかをチェックできます。また、比較時にアルファベットの大文字・小文字の違いを区別するかどうかを選択できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `string_a` | STRING | はい | - | 比較対象となる最初の文字列 | +| `string_b` | STRING | はい | - | 比較対象となる2番目の文字列 | +| `mode` | COMBO | はい | "Starts With"
"Ends With"
"Equal" | 使用する比較方法 | +| `case_sensitive` | BOOLEAN | いいえ | - | 比較時にアルファベットの大文字・小文字の違いを区別するかどうか(デフォルト値:true) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | BOOLEAN | 比較条件が満たされた場合は `true` を返し、それ以外の場合は `false` を返します | \ No newline at end of file diff --git a/ja/built-in-nodes/StringConcatenate.mdx b/ja/built-in-nodes/StringConcatenate.mdx new file mode 100644 index 000000000..beaa831ce --- /dev/null +++ b/ja/built-in-nodes/StringConcatenate.mdx @@ -0,0 +1,26 @@ +--- +title: "StringConcatenate - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の StringConcatenate ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StringConcatenate" +icon: "circle" +mode: wide +translationSourceHash: b0fba153 +translationFrom: built-in-nodes/StringConcatenate.mdx, zh-CN/built-in-nodes/StringConcatenate.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StringConcatenate/en.md) + +StringConcatenate ノードは、指定された区切り文字(デリミタ)を用いて、2つのテキスト文字列を1つに結合します。このノードは2つの入力文字列と区切り文字(または区切り文字列)を受け取り、`string_a` と `string_b` の間に区切り文字を挿入した単一の文字列を出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `string_a` | STRING | はい | - | 結合する最初のテキスト文字列 | +| `string_b` | STRING | はい | - | 結合する2番目のテキスト文字列 | +| `delimiter` | STRING | いいえ | - | 2つの入力文字列の間に挿入する文字または文字列(デフォルト:空文字列) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | STRING | `string_a` と `string_b` の間に区切り文字を挿入した結合後の文字列 | \ No newline at end of file diff --git a/ja/built-in-nodes/StringContains.mdx b/ja/built-in-nodes/StringContains.mdx new file mode 100644 index 000000000..302009cde --- /dev/null +++ b/ja/built-in-nodes/StringContains.mdx @@ -0,0 +1,26 @@ +--- +title: "StringContains - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の StringContains ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StringContains" +icon: "circle" +mode: wide +translationSourceHash: 3451bba1 +translationFrom: built-in-nodes/StringContains.mdx, zh-CN/built-in-nodes/StringContains.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StringContains/en.md) + +StringContains ノードは、指定された文字列に特定の部分文字列が含まれているかどうかをチェックします。このチェックは、大文字と小文字を区別する(case-sensitive)モードまたは区別しない(case-insensitive)モードのいずれかで実行でき、部分文字列が主文字列内に存在するかどうかを示すブール値を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `string` | STRING | はい | - | 検索対象となるメインのテキスト文字列 | +| `substring` | STRING | はい | - | メイン文字列内で検索するテキスト | +| `case_sensitive` | BOOLEAN | いいえ | - | 検索を大文字・小文字を区別して行うかどうかを指定します(デフォルト値:true) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `contains` | BOOLEAN | 文字列内に部分文字列が見つかった場合は `true`、それ以外の場合は `false` を返します | \ No newline at end of file diff --git a/ja/built-in-nodes/StringLength.mdx b/ja/built-in-nodes/StringLength.mdx new file mode 100644 index 000000000..7ff0a14e4 --- /dev/null +++ b/ja/built-in-nodes/StringLength.mdx @@ -0,0 +1,24 @@ +--- +title: "StringLength - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の StringLength ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StringLength" +icon: "circle" +mode: wide +translationSourceHash: aaa14d43 +translationFrom: built-in-nodes/StringLength.mdx, zh-CN/built-in-nodes/StringLength.mdx +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StringLength/en.md) + +StringLength ノードは、テキスト文字列に含まれる文字数を計算します。任意のテキスト入力を受け取り、スペースや句読点を含むすべての文字の合計数を返します。この機能は、テキストの長さを測定したり、文字列のサイズ要件を検証したりする際に役立ちます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `string` | STRING | はい | なし | 長さを測定する対象のテキスト文字列です。複数行の入力に対応しています。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `length` | INT | 入力文字列に含まれる文字の総数(スペースおよび特殊文字を含む)。 | \ No newline at end of file diff --git a/ja/built-in-nodes/StringReplace.mdx b/ja/built-in-nodes/StringReplace.mdx new file mode 100644 index 000000000..0aa99af7f --- /dev/null +++ b/ja/built-in-nodes/StringReplace.mdx @@ -0,0 +1,26 @@ +--- +title: "StringReplace - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の StringReplace ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StringReplace" +icon: "circle" +mode: wide +translationSourceHash: d1bd1843 +translationFrom: built-in-nodes/StringReplace.mdx, zh-CN/built-in-nodes/StringReplace.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StringReplace/en.md) + +StringReplace ノードは、入力文字列に対してテキスト置換操作を行います。このノードは、入力テキスト内に指定された部分文字列を検索し、すべての一致箇所を別の部分文字列に置き換えます。このノードは、すべての置換が適用された後の変更済み文字列を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `string` | STRING | はい | - | 置換操作を実行する対象となる入力テキスト文字列 | +| `find` | STRING | はい | - | 入力テキスト内で検索する部分文字列 | +| `replace` | STRING | はい | - | 発見されたすべての一致箇所を置き換えるためのテキスト | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | STRING | `find` で指定されたテキストのすべての出現箇所が `replace` で指定されたテキストに置き換えられた、変更済みの文字列 | \ No newline at end of file diff --git a/ja/built-in-nodes/StringSubstring.mdx b/ja/built-in-nodes/StringSubstring.mdx new file mode 100644 index 000000000..2e1963784 --- /dev/null +++ b/ja/built-in-nodes/StringSubstring.mdx @@ -0,0 +1,28 @@ +--- +title: "StringSubstring - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の StringSubstring ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StringSubstring" +icon: "circle" +mode: wide +translationSourceHash: 3ec499e8 +translationFrom: built-in-nodes/StringSubstring.mdx, zh-CN/built-in-nodes/StringSubstring.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StringSubstring/en.md) + +StringSubstring ノードは、長い文字列から一部のテキストを抽出します。抽出したい範囲を開始位置と終了位置で指定し、その2つの位置の間にあるテキストを返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `string` | STRING | はい | - | 子文字列を抽出する対象となる入力テキスト文字列 | +| `start` | INT | はい | - | 子文字列の開始位置インデックス | +| `end` | INT | はい | - | 子文字列の終了位置インデックス | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `output` | STRING | 入力テキストから抽出された子文字列 | \ No newline at end of file diff --git a/ja/built-in-nodes/StringTrim.mdx b/ja/built-in-nodes/StringTrim.mdx new file mode 100644 index 000000000..80f66e88a --- /dev/null +++ b/ja/built-in-nodes/StringTrim.mdx @@ -0,0 +1,25 @@ +--- +title: "StringTrim - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の StringTrim ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StringTrim" +icon: "circle" +mode: wide +translationSourceHash: d6634881 +translationFrom: built-in-nodes/StringTrim.mdx, zh-CN/built-in-nodes/StringTrim.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StringTrim/en.md) + +StringTrim ノードは、テキスト文字列の先頭、末尾、または両端から空白文字(スペース、タブ、改行など)を削除します。文字列の左側(先頭)、右側(末尾)、または両側からトリムするかを選択できます。これは、不要なスペース、タブ、改行文字などを除去してテキスト入力をクリーンアップする際に便利です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `string` | STRING | はい | - | 処理対象のテキスト文字列です。複数行の入力に対応しています。 | +| `mode` | COMBO | はい | "Both"
"Left"
"Right" | 文字列のどの側をトリムするかを指定します。「Both」は両端の空白文字を削除、「Left」は先頭のみ、「Right」は末尾のみを削除します。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | STRING | 選択されたモードに従って空白文字が削除された、トリム済みのテキスト文字列です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/StripWhitespace.mdx b/ja/built-in-nodes/StripWhitespace.mdx new file mode 100644 index 000000000..8d51b104d --- /dev/null +++ b/ja/built-in-nodes/StripWhitespace.mdx @@ -0,0 +1,24 @@ +--- +title: "StripWhitespace - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の StripWhitespace ノードに関する完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "StripWhitespace" +icon: "circle" +mode: wide +translationSourceHash: 38f6d04f +translationFrom: built-in-nodes/StripWhitespace.mdx, zh-CN/built-in-nodes/StripWhitespace.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/StripWhitespace/en.md) + +このノードは、テキスト文字列の先頭および末尾にある余分な空白、タブ、改行をすべて削除します。テキスト入力を受け取り、先頭および末尾の空白文字を除去したクリーンなバージョンを返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `text` | STRING | はい | N/A | 先頭および末尾の空白文字を削除する対象となるテキスト文字列です。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `text` | STRING | 先頭および末尾のすべての空白文字が削除された、処理済みのテキストです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/StyleModelApply.mdx b/ja/built-in-nodes/StyleModelApply.mdx new file mode 100644 index 000000000..d419c56e5 --- /dev/null +++ b/ja/built-in-nodes/StyleModelApply.mdx @@ -0,0 +1,27 @@ +--- +title: "StyleModelApply - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の StyleModelApply ノードに関する完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "StyleModelApply" +icon: "circle" +mode: wide +translationSourceHash: e2986eb3 +translationFrom: built-in-nodes/StyleModelApply.mdx, zh-CN/built-in-nodes/StyleModelApply.mdx +--- + +このノードは、与えられたコンディショニング(条件付け)にスタイルモデルを適用し、CLIPビジョンモデルの出力をもとにそのスタイルを強化または変更します。スタイルモデルが生成したコンディショニングを既存のコンディショニングに統合することで、画像生成プロセスにおけるスタイルのシームレスな融合を実現します。 + +## 入力 + +### 必須 + +| パラメーター | Comfy dtype | 説明 | +|-------------------------|-----------------------|------| +| `conditioning` | `CONDITIONING` | スタイルモデルのコンディショニングを適用する元のコンディショニングデータです。強化または変更されるベースとなるコンテキストやスタイルを定義するために不可欠です。 | +| `style_model` | `STYLE_MODEL` | CLIPビジョンモデルの出力をもとに新しいコンディショニングを生成するためのスタイルモデルです。適用される新しいスタイルを定義する上で重要な役割を果たします。 | +| `clip_vision_output` | `CLIP_VISION_OUTPUT` | CLIPビジョンモデルから得られる出力で、スタイルモデルが新しいコンディショニングを生成するために利用します。スタイル適用に必要な視覚的コンテキストを提供します。 | + +## 出力 + +| パラメーター | Comfy dtype | 説明 | +|------------------------|-----------------------|------| +| `conditioning` | `CONDITIONING` | スタイルモデルの出力を統合した、強化または変更されたコンディショニングです。これにより、さらに処理を行うか、画像生成に直接使用可能な最終的なスタイル化されたコンディショニングが得られます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/StyleModelLoader.mdx b/ja/built-in-nodes/StyleModelLoader.mdx new file mode 100644 index 000000000..6e664e66a --- /dev/null +++ b/ja/built-in-nodes/StyleModelLoader.mdx @@ -0,0 +1,24 @@ +--- +title: "StyleModelLoader - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における StyleModelLoader ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "StyleModelLoader" +icon: "circle" +mode: wide +translationSourceHash: b52260e2 +translationFrom: built-in-nodes/StyleModelLoader.mdx, zh-CN/built-in-nodes/StyleModelLoader.mdx +--- +このノードは、`ComfyUI/models/style_models` フォルダー内に配置されたモデルを検出し、さらに `extra_model_paths.yaml` ファイルで設定された追加パス上のモデルも読み込みます。場合によっては、対応するフォルダー内のモデルファイルを読み込むために **ComfyUI インターフェースを更新する** 必要があることがあります。 + +StyleModelLoader ノードは、指定されたパスからスタイルモデルを読み込むことを目的としています。このノードは、画像に特定の芸術的スタイルを適用するために利用可能なスタイルモデルを取得・初期化することに特化しており、読み込まれたスタイルモデルに基づいて視覚的な出力をカスタマイズできるようにします。 + +## 入力 + +| パラメーター名 | Comfy データ型 | Python データ型 | 説明 | +|----------------------|--------------------|-----------------|--------------------------------------------------------------------------------------------| +| `style_model_name` | COMBO[STRING] | `str` | 読み込むスタイルモデルの名称を指定します。この名称は、事前に定義されたディレクトリ構造内でモデルファイルを特定するために使用され、ユーザーの入力やアプリケーションの要件に応じて、異なるスタイルモデルを動的に読み込むことを可能にします。 | + +## 出力 + +| パラメーター名 | Comfy データ型 | Python データ型 | 説明 | +|-----------------|------------------|-----------------|--------------------------------------------------------------------------------------------| +| `style_model` | `STYLE_MODEL` | `StyleModel` | 読み込まれたスタイルモデルを返します。これにより、画像へのスタイル適用が可能となり、異なる芸術的スタイルを適用することで、視覚的な出力を動的にカスタマイズできます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/SvdImg2vidConditioning.mdx b/ja/built-in-nodes/SvdImg2vidConditioning.mdx new file mode 100644 index 000000000..8623ba09b --- /dev/null +++ b/ja/built-in-nodes/SvdImg2vidConditioning.mdx @@ -0,0 +1,35 @@ +--- +title: "SvdImg2vidConditioning - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における SvdImg2vidConditioning ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "SvdImg2vidConditioning" +icon: "circle" +mode: wide +translationSourceHash: 0e1df96a +translationFrom: built-in-nodes/SvdImg2vidConditioning.mdx, zh-CN/built-in-nodes/SvdImg2vidConditioning.mdx +translationMismatches: + - "description" +--- + +このノードは、動画生成タスク向けの条件付けデータを生成するために設計されており、特に SVD_img2vid モデルとの連携に特化しています。初期画像、動画パラメーター、VAE モデルなどの各種入力を受けて、動画フレームの生成を制御するための条件付けデータを生成します。 + +## 入力 + +| パラメーター | Comfy データ型 | 説明 | +|----------------------|--------------------|-------------| +| `clip_vision` | `CLIP_VISION` | 初期画像から視覚的特徴をエンコードするための CLIP ビジョンモデルで、動画生成における画像の内容および文脈を理解する上で重要な役割を果たします。 | +| `init_image` | `IMAGE` | 動画生成の起点となる初期画像で、動画生成プロセスの出発点として機能します。 | +| `vae` | `VAE` | 初期画像を潜在空間へエンコードするための変分自己符号化器(VAE)モデルで、一貫性と連続性のある動画フレームの生成を支援します。 | +| `width` | `INT` | 生成される動画フレームの幅(ピクセル単位)で、動画の解像度をカスタマイズできます。 | +| `height` | `INT` | 生成される動画フレームの高さ(ピクセル単位)で、動画のアスペクト比および解像度を制御できます。 | +| `video_frames` | `INT` | 動画として生成するフレーム数で、動画の長さを決定します。 | +| `motion_bucket_id` | `INT` | 動画生成時に適用される運動の種類を分類するための識別子で、ダイナミックかつ魅力的な動画の作成を支援します。 | +| `fps` | `INT` | 動画のフレームレート(1秒あたりのフレーム数)で、生成された動画の滑らかさおよびリアルさに影響を与えます。 | +| `augmentation_level` | `FLOAT` | 初期画像に適用されるデータ拡張の強度を制御するパラメーターで、生成される動画フレームの多様性および変動性に影響を与えます。 | + +## 出力 + +| パラメーター | Comfy データ型 | 説明 | +|---------------|--------------------|-------------| +| `positive` | `CONDITIONING` | 正の条件付けデータで、エンコードされた特徴およびパラメーターから構成され、動画生成プロセスを所望の方向へ誘導します。 | +| `negative` | `CONDITIONING` | 負の条件付けデータで、正の条件付けと対照的な役割を果たし、生成される動画内での特定のパターンや特徴の出現を回避するために利用できます。 | +| `latent` | `LATENT` | 動画の各フレームに対して生成された潜在表現で、動画生成プロセスの基盤となる要素です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/T5TokenizerOptions.mdx b/ja/built-in-nodes/T5TokenizerOptions.mdx new file mode 100644 index 000000000..6c3d537c5 --- /dev/null +++ b/ja/built-in-nodes/T5TokenizerOptions.mdx @@ -0,0 +1,26 @@ +--- +title: "T5TokenizerOptions - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における T5TokenizerOptions ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "T5TokenizerOptions" +icon: "circle" +mode: wide +translationSourceHash: 9d66c19b +translationFrom: built-in-nodes/T5TokenizerOptions.mdx, zh-CN/built-in-nodes/T5TokenizerOptions.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/T5TokenizerOptions/en.md) + +T5TokenizerOptions ノードを使用すると、さまざまな T5 モデルタイプ向けのトークナイザ設定を構成できます。このノードは、`t5xxl`、`pile_t5xl`、`t5base`、`mt5xl`、`umt5xxl` などの複数の T5 モデル変種に対して、最小パディング値および最小長さ値を設定します。本ノードは CLIP を入力として受け取り、指定されたトークナイザオプションを適用した修正済み CLIP を出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `clip` | CLIP | はい | - | トークナイザオプションを設定する対象となる CLIP モデル | +| `min_padding` | INT | いいえ | 0–10000 | すべての T5 モデルタイプに設定される最小パディング値(デフォルト:0) | +| `min_length` | INT | いいえ | 0–10000 | すべての T5 モデルタイプに設定される最小長さ値(デフォルト:0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | CLIP | 更新されたトークナイザオプションが適用された修正済み CLIP モデル(すべての T5 変種に適用済み) | \ No newline at end of file diff --git a/ja/built-in-nodes/TCFG.mdx b/ja/built-in-nodes/TCFG.mdx new file mode 100644 index 000000000..dddc58220 --- /dev/null +++ b/ja/built-in-nodes/TCFG.mdx @@ -0,0 +1,24 @@ +--- +title: "TCFG - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の TCFG ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TCFG" +icon: "circle" +mode: wide +translationSourceHash: 9b425610 +translationFrom: built-in-nodes/TCFG.mdx, zh-CN/built-in-nodes/TCFG.mdx +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TCFG/en.md) + +TCFG(切向減衰 CFG)は、無条件(ネガティブ)予測を条件付き(ポジティブ)予測によりよく一致させるように精緻化するガイド手法を実装します。この手法は、参考文献 2503.18137 に掲載された研究論文に基づき、無条件ガイドに切向減衰を適用することで出力品質を向上させます。本ノードは、分類器フリー・ガイド(classifier-free guidance)処理中に無条件予測がどのように処理されるかを調整することにより、モデルのサンプリング動作を変更します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | 切向減衰 CFG を適用するモデル | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `patched_model` | MODEL | 切向減衰 CFG が適用された修正済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/TemporalScoreRescaling.mdx b/ja/built-in-nodes/TemporalScoreRescaling.mdx new file mode 100644 index 000000000..57d68723d --- /dev/null +++ b/ja/built-in-nodes/TemporalScoreRescaling.mdx @@ -0,0 +1,28 @@ +--- +title: "TemporalScoreRescaling - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の TemporalScoreRescaling ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TemporalScoreRescaling" +icon: "circle" +mode: wide +translationSourceHash: a1dea3a7 +translationFrom: built-in-nodes/TemporalScoreRescaling.mdx, zh-CN/built-in-nodes/TemporalScoreRescaling.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TemporalScoreRescaling/en.md) + +このノードは、拡散モデルに対して時系列スコア再スケーリング(Temporal Score Rescaling: TSR)を適用します。TSR は、デノイジング処理中に予測されるノイズまたはスコアを再スケーリングすることで、モデルのサンプリング動作を変更し、生成される出力の多様性を制御します。本機能は、CFG(Classifier-Free Guidance:分類器不要ガイド)後の処理として実装されています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | TSR 関数を適用してパッチを当てる対象の拡散モデルです。 | +| `tsr_k` | FLOAT | いいえ | 0.01 – 100.0 | 再スケーリングの強さを制御します。k 値が小さいほど詳細な結果が得られ、大きいほど画像生成時に滑らかな結果が得られます。k = 1 と設定すると再スケーリングは無効になります。(デフォルト値:0.95) | +| `tsr_sigma` | FLOAT | いいえ | 0.01 – 100.0 | 再スケーリングがいつから適用されるかを制御します。値が大きいほど、より早いステップから適用されます。(デフォルト値:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `patched_model` | MODEL | 入力モデルであり、そのサンプリング処理に時系列スコア再スケーリング関数が適用された状態(パッチ済み)です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Tencent3DPartNode.mdx b/ja/built-in-nodes/Tencent3DPartNode.mdx new file mode 100644 index 000000000..94401540e --- /dev/null +++ b/ja/built-in-nodes/Tencent3DPartNode.mdx @@ -0,0 +1,27 @@ +--- +title: "Tencent3DPartNode - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における Tencent3DPartNode ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Tencent3DPartNode" +icon: "circle" +mode: wide +translationSourceHash: e89e52fc +translationFrom: built-in-nodes/Tencent3DPartNode.mdx, zh-CN/built-in-nodes/Tencent3DPartNode.mdx +--- +> このドキュメンテーションはAIによって生成されました。誤りを発見した場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Tencent3DPartNode/en.md) + +このノードは腾讯(テンセント)の「Hunyuan3D」APIを用いて、3Dモデルを自動的に解析し、その構造に基づいてコンポーネントを生成または識別します。モデルを処理した後、新しいFBXファイルを返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model_3d` | FILE3D | はい | FBX、任意 | 処理対象の3Dモデルです。モデルはFBX形式である必要があり、面数は30,000未満である必要があります。 | +| `seed` | INT | いいえ | 0 ~ 2147483647 | ノードを再実行するかどうかを制御するためのシード値です。結果はシード値にかかわらず非決定的です。(デフォルト:0) | + +**注意:** `model_3d` 入力はFBX形式のファイルのみをサポートしています。他の3Dファイル形式が指定された場合、ノードはエラーを発生させます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `FBX` | FILE3DFBX | 処理済みの3DモデルをFBXファイル形式で返します。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Tencent3DTextureEditNode.mdx b/ja/built-in-nodes/Tencent3DTextureEditNode.mdx new file mode 100644 index 000000000..d9be70843 --- /dev/null +++ b/ja/built-in-nodes/Tencent3DTextureEditNode.mdx @@ -0,0 +1,29 @@ +--- +title: "Tencent3DTextureEditNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における Tencent3DTextureEditNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Tencent3DTextureEditNode" +icon: "circle" +mode: wide +translationSourceHash: a3a2e329 +translationFrom: built-in-nodes/Tencent3DTextureEditNode.mdx, zh-CN/built-in-nodes/Tencent3DTextureEditNode.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Tencent3DTextureEditNode/en.md) + +このノードでは、腾讯(テンセント)社の「Hunyuan3D」API を用いて、3Dモデルのテクスチャを編集します。ユーザーが3Dモデルと、望ましい変更内容を記述したテキストプロンプトを提供すると、ノードはそのプロンプトに基づいてテクスチャを再描画した新しいバージョンのモデルを返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model_3d` | FILE3D | はい | FBX、任意 | FBX形式の3Dモデル。モデルの面数は100,000未満である必要があります。 | +| `prompt` | STRING | はい | — | テクスチャ編集の内容を記述します。UTF-8文字で最大1024文字までサポートされます。 | +| `seed` | INT | いいえ | 0 ~ 2147483647 | シード値はノードの再実行を制御しますが、結果はシード値に関わらず非決定的です。(デフォルト値:0) | + +**注意:** `model_3d` 入力は、FBX形式のファイルである必要があります。このノードでは、他の3Dファイル形式はサポートされていません。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `GLB` | FILE3D | GLB形式で処理済みの3Dモデル。 | +| `FBX` | FILE3D | FBX形式で処理済みの3Dモデル。 | \ No newline at end of file diff --git a/ja/built-in-nodes/TencentImageToModelNode.mdx b/ja/built-in-nodes/TencentImageToModelNode.mdx new file mode 100644 index 000000000..db3b69f50 --- /dev/null +++ b/ja/built-in-nodes/TencentImageToModelNode.mdx @@ -0,0 +1,39 @@ +--- +title: "TencentImageToModelNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の TencentImageToModelNode ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TencentImageToModelNode" +icon: "circle" +mode: wide +translationSourceHash: 961b57f1 +translationFrom: built-in-nodes/TencentImageToModelNode.mdx, zh-CN/built-in-nodes/TencentImageToModelNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TencentImageToModelNode/en.md) + +このノードは、腾讯(テンセント)社の Hunyuan3D Pro API を使用して、1 枚または複数枚の入力画像から 3D モデルを生成します。入力画像を処理し、API に送信した後、GLB 形式および OBJ 形式の生成済み 3D モデルファイルを返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"3.0"`
`"3.1"` | 使用する Hunyuan3D モデルのバージョンです。`3.1` モデルでは LowPoly オプションは利用できません。 | +| `image` | IMAGE | はい | - | 3D モデル生成に使用される主な入力画像です。 | +| `image_left` | IMAGE | いいえ | - | 多視点生成用のオプション画像で、対象物体の左側面を撮影したものです。 | +| `image_right` | IMAGE | いいえ | - | 多視点生成用のオプション画像で、対象物体の右側面を撮影したものです。 | +| `image_back` | IMAGE | いいえ | - | 多視点生成用のオプション画像で、対象物体の背面を撮影したものです。 | +| `face_count` | INT | はい | 40000 - 1500000 | 生成される 3D モデルの目標ポリゴン面数(デフォルト値:500000)。 | +| `generate_type` | DYNAMICCOMBO | はい | `"Normal"`
`"LowPoly"`
`"Geometry"` | 生成する 3D モデルの種類です。いずれかのオプションを選択すると、関連する追加パラメーターが表示されます。 | +| `generate_type.pbr` | BOOLEAN | いいえ | - | 物理ベースレンダリング(PBR)マテリアルの生成を有効化します。このパラメーターは `generate_type` が `"Normal"` または `"LowPoly"` の場合のみ表示されます(デフォルト値:False)。 | +| `generate_type.polygon_type` | COMBO | いいえ | `"triangle"`
`"quadrilateral"` | メッシュに使用するポリゴンの種類です。このパラメーターは `generate_type` が `"LowPoly"` の場合のみ表示されます。 | +| `seed` | INT | はい | 0 - 2147483647 | 生成プロセスのシード値です。シード値はノードの再実行を制御しますが、結果はシード値に関わらず非決定的です(デフォルト値:0)。 | + +**注意:** すべての入力画像は、最小幅および最小高さがそれぞれ 128 ピクセルである必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model_file` | STRING | 後方互換性のためのレガシー出力です。 | +| `GLB` | FILE3DGLB | GLB(バイナリ GL トランスミッション形式)ファイル形式で生成された 3D モデルです。 | +| `OBJ` | FILE3DOBJ | OBJ(Wavefront)ファイル形式で生成された 3D モデルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/TencentModelTo3DUVNode.mdx b/ja/built-in-nodes/TencentModelTo3DUVNode.mdx new file mode 100644 index 000000000..9851297c3 --- /dev/null +++ b/ja/built-in-nodes/TencentModelTo3DUVNode.mdx @@ -0,0 +1,27 @@ +--- +title: "TencentModelTo3DUVNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における TencentModelTo3DUVNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TencentModelTo3DUVNode" +icon: "circle" +mode: wide +translationSourceHash: 539aedd7 +translationFrom: built-in-nodes/TencentModelTo3DUVNode.mdx, zh-CN/built-in-nodes/TencentModelTo3DUVNode.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TencentModelTo3DUVNode/en.md) + +このノードは、腾讯(テンセント)の「Hunyuan3D」APIを用いて3DモデルのUV展開を実行します。入力として3Dモデルファイルを受け取り、APIへ送信して処理を行い、処理済みのOBJ形式およびFBX形式の3Dモデルファイルと、生成されたUVテクスチャ画像を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model_3d` | FILE3D | はい | GLB
OBJ
FBX | 入力3Dモデル(GLB、OBJ、またはFBX形式)。モデルの面数は30,000未満である必要があります。 | +| `seed` | INT | いいえ | 0 ~ 2147483647 | シード値(デフォルト:1)。この値はノードの再実行を制御しますが、シード値にかかわらず結果は非決定的です。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `OBJ` | FILE3D | 処理済みの3Dモデルファイル(OBJ形式)。 | +| `FBX` | FILE3D | 処理済みの3Dモデルファイル(FBX形式)。 | +| `Image` | IMAGE | 生成されたUVテクスチャ画像。 | \ No newline at end of file diff --git a/ja/built-in-nodes/TencentTextToModelNode.mdx b/ja/built-in-nodes/TencentTextToModelNode.mdx new file mode 100644 index 000000000..a01ee04fc --- /dev/null +++ b/ja/built-in-nodes/TencentTextToModelNode.mdx @@ -0,0 +1,36 @@ +--- +title: "TencentTextToModelNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における TencentTextToModelNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TencentTextToModelNode" +icon: "circle" +mode: wide +translationSourceHash: 1795890a +translationFrom: built-in-nodes/TencentTextToModelNode.mdx, zh-CN/built-in-nodes/TencentTextToModelNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TencentTextToModelNode/en.md) + +このノードは、腾讯(テンセント)社の Hunyuan3D Pro API を使用して、テキストによる説明から 3D モデルを生成します。生成タスクを作成するリクエストを送信し、結果をポーリングして、最終的なモデルファイル(GLB 形式および OBJ 形式)をダウンロードします。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"3.0"`
`"3.1"` | 使用する Hunyuan3D モデルのバージョンです。`3.1` モデルでは LowPoly オプションは利用できません。 | +| `prompt` | STRING | はい | - | 生成する 3D モデルのテキストによる説明です。最大 1024 文字まで対応しています。 | +| `face_count` | INT | はい | 40000 - 1500000 | 生成される 3D モデルの目標面数です。デフォルト値:500000。 | +| `generate_type` | DYNAMICCOMBO | はい | `"Normal"`
`"LowPoly"`
`"Geometry"` | 生成する 3D モデルの種類です。利用可能なオプションとその関連パラメーターは以下の通りです:
- **Normal**:標準的なモデルを生成します。`pbr` パラメーター(デフォルト:`False`)が含まれます。
- **LowPoly**:低ポリゴン数のモデルを生成します。`polygon_type`(`"triangle"` または `"quadrilateral"`)および `pbr`(デフォルト:`False`)パラメーターが含まれます。
- **Geometry**:ジオメトリのみのモデルを生成します。 | +| `seed` | INT | いいえ | 0 - 2147483647 | 生成に使用するシード値です。シード値を設定しても結果は非決定的です。新しいシード値を設定することで、ノードが再実行されるかどうかを制御できます。デフォルト値:0。 | + +**注釈:** `generate_type` パラメーターは動的です。`"LowPoly"` を選択すると、`polygon_type` および `pbr` の追加入力項目が表示されます。`"Normal"` を選択すると、`pbr` の入力項目が表示されます。`"Geometry"` を選択した場合は、追加の入力項目は表示されません。 + +**制約:** `"LowPoly"` 生成タイプは `"3.1"` モデルと併用できません。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model_file` | STRING | 後方互換性のためのレガシー出力です。 | +| `GLB` | FILE3DGLB | GLB ファイル形式で生成された 3D モデルです。 | +| `OBJ` | FILE3DOBJ | OBJ ファイル形式で生成された 3D モデルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/TerminalLog.mdx b/ja/built-in-nodes/TerminalLog.mdx new file mode 100644 index 000000000..eef78a12e --- /dev/null +++ b/ja/built-in-nodes/TerminalLog.mdx @@ -0,0 +1,11 @@ +--- +title: "TerminalLog - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の TerminalLog ノードに関する完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "TerminalLog" +icon: "circle" +mode: wide +translationSourceHash: 0c24ee92 +translationFrom: built-in-nodes/TerminalLog.mdx, zh-CN/built-in-nodes/TerminalLog.mdx +--- +Terminal Log(Manager)ノードは、主に ComfyUI インターフェース内に、CMD ターミナルにおける ComfyUI の実行情報を表示するために使用されます。このノードを利用するには、`mode` を **logging** モードに設定する必要があります。これにより、画像生成タスク実行中に該当するログ情報が記録されます。一方、`mode` を **stop** モードに設定した場合は、ログ情報の記録は行われません。 +リモート接続やローカルエリアネットワーク(LAN)経由で ComfyUI にアクセス・利用する場合、Terminal Log(Manager)ノードは特に有用です。このノードにより、ComfyUI インターフェース内で直接 CMD 上のエラーメッセージを確認できるため、現在の ComfyUI の動作状況をより容易に把握できます。 \ No newline at end of file diff --git a/ja/built-in-nodes/TextEncodeAceStepAudio.mdx b/ja/built-in-nodes/TextEncodeAceStepAudio.mdx new file mode 100644 index 000000000..6223a0060 --- /dev/null +++ b/ja/built-in-nodes/TextEncodeAceStepAudio.mdx @@ -0,0 +1,29 @@ +--- +title: "TextEncodeAceStepAudio - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の TextEncodeAceStepAudio ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TextEncodeAceStepAudio" +icon: "circle" +mode: wide +translationSourceHash: b0e03f60 +translationFrom: built-in-nodes/TextEncodeAceStepAudio.mdx, zh-CN/built-in-nodes/TextEncodeAceStepAudio.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションはAIによって生成されました。誤りを発見した場合や改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TextEncodeAceStepAudio/en.md) + +TextEncodeAceStepAudio ノードは、タグと歌詞をトークンに統合し、可変の歌詞強度でエンコードすることで、音声条件付け用のテキスト入力を処理します。このノードは CLIP モデルおよびテキスト説明(タグ)と歌詞を受け取り、これらを統合してトークン化し、音声生成タスクに適した条件付けデータを生成します。また、歌詞が最終出力に与える影響を制御する「歌詞強度」パラメーターを用いて、歌詞の影響力を微調整できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `clip` | CLIP | はい | - | トークン化およびエンコーディングに使用される CLIP モデル | +| `tags` | STRING | はい | - | 音声条件付け用のテキストタグまたは説明(複数行入力および動的プロンプトをサポート) | +| `lyrics` | STRING | はい | - | 音声条件付け用の歌詞テキスト(複数行入力および動的プロンプトをサポート) | +| `lyrics_strength` | FLOAT | いいえ | 0.0 – 10.0 | 条件付け出力における歌詞の影響強度を制御します(デフォルト値:1.0、ステップ:0.01) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `conditioning` | CONDITIONING | 処理済みテキストトークンを含み、歌詞強度が適用されたエンコード済み条件付けデータ | \ No newline at end of file diff --git a/ja/built-in-nodes/TextEncodeAceStepAudio1.5.mdx b/ja/built-in-nodes/TextEncodeAceStepAudio1.5.mdx new file mode 100644 index 000000000..75939cf88 --- /dev/null +++ b/ja/built-in-nodes/TextEncodeAceStepAudio1.5.mdx @@ -0,0 +1,39 @@ +--- +title: "TextEncodeAceStepAudio1.5 - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における TextEncodeAceStepAudio1.5 ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TextEncodeAceStepAudio1.5" +icon: "circle" +mode: wide +translationSourceHash: 9d4a5a3f +translationFrom: built-in-nodes/TextEncodeAceStepAudio1.5.mdx, zh-CN/built-in-nodes/TextEncodeAceStepAudio1.5.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TextEncodeAceStepAudio1.5/en.md) + +TextEncodeAceStepAudio1.5 ノードは、AceStepAudio 1.5 モデルで使用するためのテキストおよび音声関連のメタデータを準備します。このノードは、説明的なタグ、歌詞、および音楽パラメーターを受け取り、CLIP モデルを用いてそれらを音声生成に適した条件付け(conditioning)形式に変換します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `clip` | CLIP | はい | N/A | 入力テキストのトークン化およびエンコーディングに使用される CLIP モデルです。 | +| `tags` | STRING | はい | N/A | 音声のジャンル、ムード、使用楽器などの説明的タグです。複数行入力および動的プロンプトをサポートします。 | +| `lyrics` | STRING | はい | N/A | 音声トラックの歌詞です。複数行入力および動的プロンプトをサポートします。 | +| `seed` | INT | いいえ | 0 ~ 18446744073709551615 | 再現可能な生成のための乱数シード値です。「control_after_generate」ウィジェットが付属しています。デフォルト値:0。 | +| `bpm` | INT | いいえ | 10 ~ 300 | 生成される音声のビート・パー・ミニッツ(BPM)です。デフォルト値:120。 | +| `duration` | FLOAT | いいえ | 0.0 ~ 2000.0 | 生成したい音声の長さ(秒単位)です。デフォルト値:120.0。 | +| `timesignature` | COMBO | いいえ | `"2"`
`"3"`
`"4"`
`"6"` | 音楽の拍子記号(タイム・シグネチャー)です。 | +| `language` | COMBO | いいえ | `"en"`
`"ja"`
`"zh"`
`"es"`
`"de"`
`"fr"`
`"pt"`
`"ru"`
`"it"`
`"nl"`
`"pl"`
`"tr"`
`"vi"`
`"cs"`
`"fa"`
`"id"`
`"ko"`
`"uk"`
`"hu"`
`"ar"`
`"sv"`
`"ro"`
`"el"` | 入力テキストの言語です。 | +| `keyscale` | COMBO | いいえ | `"C major"`
`"C minor"`
`"C# major"`
`"C# minor"`
`"Db major"`
`"Db minor"`
`"D major"`
`"D minor"`
`"D# major"`
`"D# minor"`
`"Eb major"`
`"Eb minor"`
`"E major"`
`"E minor"`
`"F major"`
`"F minor"`
`"F# major"`
`"F# minor"`
`"Gb major"`
`"Gb minor"`
`"G major"`
`"G minor"`
`"G# major"`
`"G# minor"`
`"Ab major"`
`"Ab minor"`
`"A major"`
`"A minor"`
`"A# major"`
`"A# minor"`
`"Bb major"`
`"Bb minor"`
`"B major"`
`"B minor"` | 音楽の調性およびスケール(長調または短調)です。 | +| `generate_audio_codes` | BOOLEAN | いいえ | N/A | 音声コードを生成する LLM を有効化します。処理が遅くなる可能性がありますが、生成される音声の品質が向上します。モデルに音声参照を提供する場合は、このオプションを無効にしてください。デフォルト値:True。 | +| `cfg_scale` | FLOAT | いいえ | 0.0 ~ 100.0 | クラシファイアフリー・ガイダンス・スケールです。値が大きいほど、出力がプロンプトに忠実になります。デフォルト値:2.0。 | +| `temperature` | FLOAT | いいえ | 0.0 ~ 2.0 | サンプリング温度です。値が小さいほど、出力が決定論的になります。デフォルト値:0.85。 | +| `top_p` | FLOAT | いいえ | 0.0 ~ 2000.0 | ヌクレウス・サンプリング確率(top-p)です。デフォルト値:0.9。 | +| `top_k` | INT | いいえ | 0 ~ 100 | 考慮対象とする最も高い確率のトークン数(top-k)です。デフォルト値:0。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `CONDITIONING` | CONDITIONING | 条件付けデータで、AceStepAudio 1.5 モデル向けにエンコードされたテキストおよび音声パラメーターを含みます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/TextEncodeHunyuanVideo_ImageToVideo.mdx b/ja/built-in-nodes/TextEncodeHunyuanVideo_ImageToVideo.mdx new file mode 100644 index 000000000..11a40cc2b --- /dev/null +++ b/ja/built-in-nodes/TextEncodeHunyuanVideo_ImageToVideo.mdx @@ -0,0 +1,29 @@ +--- +title: "TextEncodeHunyuanVideo_ImageToVideo - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における TextEncodeHunyuanVideo_ImageToVideo ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TextEncodeHunyuanVideo_ImageToVideo" +icon: "circle" +mode: wide +translationSourceHash: 33d8abdd +translationFrom: built-in-nodes/TextEncodeHunyuanVideo_ImageToVideo.mdx, zh-CN/built-in-nodes/TextEncodeHunyuanVideo_ImageToVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TextEncodeHunyuanVideo_ImageToVideo/en.md) + +TextEncodeHunyuanVideo_ImageToVideo ノードは、テキストプロンプトと画像埋め込み(エンベディング)を組み合わせることで、動画生成用の条件付けデータ(コンディショニング・データ)を作成します。このノードでは CLIP モデルを用いて、テキスト入力および CLIP ビジョン出力から得られる視覚情報を処理し、指定された「画像インターリーブ設定」に従って、これら二つの情報源を統合したトークンを生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `clip` | CLIP | はい | - | トークン化およびエンコーディングに使用される CLIP モデル | +| `clip_vision_output` | CLIP_VISION_OUTPUT | はい | - | 画像の文脈情報を提供する、CLIP ビジョンモデルからの視覚的埋め込み(エンベディング) | +| `prompt` | STRING | はい | - | 動画生成をガイドするテキスト記述。複数行入力および動的プロンプトに対応しています | +| `image_interleave` | INT | はい | 1–512 | 画像とテキストプロンプトのどちらがより強く影響を与えるかを制御するパラメーター。数値が大きいほど、テキストプロンプトの影響が強くなります。(デフォルト:2) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `CONDITIONING` | CONDITIONING | 動画生成に用いる、テキストおよび画像情報を統合した条件付けデータ | \ No newline at end of file diff --git a/ja/built-in-nodes/TextEncodeQwenImageEdit.mdx b/ja/built-in-nodes/TextEncodeQwenImageEdit.mdx new file mode 100644 index 000000000..b7fa9a168 --- /dev/null +++ b/ja/built-in-nodes/TextEncodeQwenImageEdit.mdx @@ -0,0 +1,31 @@ +--- +title: "TextEncodeQwenImageEdit - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における TextEncodeQwenImageEdit ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TextEncodeQwenImageEdit" +icon: "circle" +mode: wide +translationSourceHash: 3f18e66b +translationFrom: built-in-nodes/TextEncodeQwenImageEdit.mdx, zh-CN/built-in-nodes/TextEncodeQwenImageEdit.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見した場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TextEncodeQwenImageEdit/en.md) + +TextEncodeQwenImageEdit ノードは、テキストプロンプトおよび任意の画像を処理し、画像生成または編集に用いる条件データを生成します。このノードでは、入力のトークン化に CLIP モデルが使用され、またオプションとして VAE を用いて参照画像をエンコードし、参照潜在表現(reference latents)を作成することもできます。画像が指定された場合、一貫した処理サイズを保つために、画像は自動的にリサイズされます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `clip` | CLIP | はい | - | テキストおよび画像のトークン化に使用される CLIP モデル | +| `prompt` | STRING | はい | - | 条件付き生成のためのテキストプロンプト。複数行入力および動的プロンプトをサポート | +| `vae` | VAE | いいえ | - | 参照画像を潜在表現にエンコードするためのオプションの VAE モデル | +| `image` | IMAGE | いいえ | - | 参照または編集目的で使用するオプションの入力画像 | + +**注意:** `image` と `vae` の両方が指定された場合、ノードは画像を参照潜在表現にエンコードし、その結果を条件出力に付加します。画像は、およそ 1024×1024 ピクセルという一貫した処理スケールを維持するために自動的にリサイズされます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `CONDITIONING` | CONDITIONING | 画像生成に用いる、テキストトークンおよび任意の参照潜在表現を含む条件データ | \ No newline at end of file diff --git a/ja/built-in-nodes/TextEncodeQwenImageEditPlus.mdx b/ja/built-in-nodes/TextEncodeQwenImageEditPlus.mdx new file mode 100644 index 000000000..f7e24c5ba --- /dev/null +++ b/ja/built-in-nodes/TextEncodeQwenImageEditPlus.mdx @@ -0,0 +1,33 @@ +--- +title: "TextEncodeQwenImageEditPlus - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における TextEncodeQwenImageEditPlus ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TextEncodeQwenImageEditPlus" +icon: "circle" +mode: wide +translationSourceHash: ca863a71 +translationFrom: built-in-nodes/TextEncodeQwenImageEditPlus.mdx, zh-CN/built-in-nodes/TextEncodeQwenImageEditPlus.mdx +translationMismatches: + - "description" +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TextEncodeQwenImageEditPlus/en.md) + +TextEncodeQwenImageEditPlus ノードは、テキストプロンプトおよび任意の画像を処理し、画像生成または編集タスク向けの条件付けデータ(conditioning data)を生成します。このノードは専用のテンプレートを用いて入力画像を解析し、テキストによる指示が画像をどのように変更すべきかを理解した上で、その情報を後続の生成ステップで利用可能な形式に符号化します。本ノードは最大3枚の入力画像を処理でき、VAEが指定された場合にはオプションで参照用の潜在表現(reference latents)を生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `clip` | CLIP | はい | - | トークン化および符号化に使用されるCLIPモデル | +| `prompt` | STRING | はい | - | 望ましい画像変更内容を記述するテキスト指示(複数行入力および動的プロンプトをサポート) | +| `vae` | VAE | いいえ | - | 入力画像から参照用潜在表現を生成するためのオプションのVAEモデル | +| `image1` | IMAGE | いいえ | - | 解析および変更対象となる最初のオプション入力画像 | +| `image2` | IMAGE | いいえ | - | 解析および変更対象となる2番目のオプション入力画像 | +| `image3` | IMAGE | いいえ | - | 解析および変更対象となる3番目のオプション入力画像 | + +**注意:** VAEが指定された場合、ノードはすべての入力画像から参照用潜在表現を生成します。本ノードは最大3枚の画像を同時に処理可能であり、画像は自動的に処理に適したサイズにリサイズされます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `CONDITIONING` | CONDITIONING | 画像生成に用いる、テキストトークンおよびオプションの参照用潜在表現を含む符号化済み条件付けデータ | \ No newline at end of file diff --git a/ja/built-in-nodes/TextEncodeZImageOmni.mdx b/ja/built-in-nodes/TextEncodeZImageOmni.mdx new file mode 100644 index 000000000..5c5d2d102 --- /dev/null +++ b/ja/built-in-nodes/TextEncodeZImageOmni.mdx @@ -0,0 +1,33 @@ +--- +title: "TextEncodeZImageOmni - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における TextEncodeZImageOmni ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TextEncodeZImageOmni" +icon: "circle" +mode: wide +translationSourceHash: 223dad0a +translationFrom: built-in-nodes/TextEncodeZImageOmni.mdx, zh-CN/built-in-nodes/TextEncodeZImageOmni.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TextEncodeZImageOmni/en.md) + +TextEncodeZImageOmni ノードは、高度な条件付け(conditioning)ノードであり、テキストプロンプトに加えて、オプションの参照画像を含む条件フォーマットへとエンコードします。このフォーマットは、画像生成モデルに適しています。本ノードは最大で3枚の画像を処理可能であり、必要に応じてビジョンエンコーダーおよび/またはVAEを用いてこれらの画像をエンコードし、参照用の潜在表現(reference latents)を生成します。さらに、特定のテンプレート構造を用いて、こうした視覚的参照とテキストプロンプトを統合します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `clip` | CLIP | はい | | テキストプロンプトのトークン化およびエンコードに使用される CLIP モデルです。 | +| `image_encoder` | CLIPVision | いいえ | | オプションのビジョンエンコーダーモデルです。指定された場合、入力画像のエンコードに使用され、生成された埋め込みベクトル(embeddings)が条件情報に追加されます。 | +| `prompt` | STRING | はい | | エンコード対象のテキストプロンプトです。このフィールドは複数行入力および動的プロンプトをサポートします。 | +| `auto_resize_images` | BOOLEAN | いいえ | | 有効化されている場合(デフォルト:True)、入力画像は VAE によるエンコード前に、そのピクセル面積に基づいて自動的にリサイズされます。 | +| `vae` | VAE | いいえ | | オプションの VAE モデルです。指定された場合、入力画像を潜在表現(latent representations)へとエンコードし、これらの潜在表現は参照用の潜在変数(reference latents)として条件情報に追加されます。 | +| `image1` | IMAGE | いいえ | | 最初のオプションの参照画像です。 | +| `image2` | IMAGE | いいえ | | 2番目のオプションの参照画像です。 | +| `image3` | IMAGE | いいえ | | 3番目のオプションの参照画像です。 | + +**注意:** このノードは最大で3枚の画像(`image1`、`image2`、`image3`)を受け付けることができます。`image_encoder` および `vae` の入力は、少なくとも1枚の画像が提供された場合にのみ使用されます。`auto_resize_images` が True であり、かつ `vae` が接続されている場合、画像はエンコード前に、総ピクセル面積がおよそ 1024×1024 となるようにリサイズされます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `CONDITIONING` | CONDITIONING | 最終的な条件出力です。エンコード済みのテキストプロンプトを含み、参照画像が提供された場合には、エンコード済みの画像埋め込みベクトルおよび/または参照用の潜在変数も含まれます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/TextGenerate.mdx b/ja/built-in-nodes/TextGenerate.mdx new file mode 100644 index 000000000..fd40dd1cf --- /dev/null +++ b/ja/built-in-nodes/TextGenerate.mdx @@ -0,0 +1,38 @@ +--- +title: "TextGenerate - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の TextGenerate ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TextGenerate" +icon: "circle" +mode: wide +translationSourceHash: 6ca90b95 +translationFrom: built-in-nodes/TextGenerate.mdx, zh-CN/built-in-nodes/TextGenerate.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善のための提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TextGenerate/en.md) + +TextGenerate ノードは CLIP モデルを用いて、ユーザーが指定したプロンプトに基づいてテキストを生成します。また、オプションとして画像を視覚的な参照として利用し、テキスト生成を補助することもできます。出力の長さを制御したり、さまざまな設定を備えたランダム・サンプリングを利用するか、あるいはサンプリングを行わずにテキストを生成するかを選択できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `clip` | CLIP | はい | 不適用 | プロンプトのトークン化およびテキスト生成に使用される CLIP モデルです。 | +| `prompt` | STRING | はい | 不適用 | 生成をガイドするテキスト・プロンプトです。このフィールドは複数行および動的プロンプトをサポートしています。デフォルト値は空文字列です。 | +| `image` | IMAGE | いいえ | 不適用 | オプションの画像で、テキスト・プロンプトと併用して生成されるテキストに影響を与えることができます。 | +| `max_length` | INT | はい | 1 ~ 2048 | モデルが生成する最大トークン数です。デフォルト値は 256 です。 | +| `sampling_mode` | COMBO | はい | `"on"`
`"off"` | テキスト生成時にランダム・サンプリングを使用するかどうかを制御します。「on」に設定すると、サンプリングを制御するための追加パラメーターが利用可能になります。デフォルト値は「on」です。 | +| `temperature` | FLOAT | いいえ | 0.01 ~ 2.0 | 出力のランダム性を制御します。値が小さいほど出力は予測可能になり、大きいほど創造性が高まります。このパラメーターは `sampling_mode` が「on」の場合のみ有効です。デフォルト値は 0.7 です。 | +| `top_k` | INT | いいえ | 0 ~ 1000 | サンプリング候補を、最も可能性の高い上位 K 個の次のトークンに制限します。値が 0 の場合はこのフィルターが無効になります。このパラメーターは `sampling_mode` が「on」の場合のみ有効です。デフォルト値は 64 です。 | +| `top_p` | FLOAT | いいえ | 0.0 ~ 1.0 | ヌクレウス・サンプリング(核サンプリング)を用い、累積確率がこの値より小さいトークンのみを候補とします。このパラメーターは `sampling_mode` が「on」の場合のみ有効です。デフォルト値は 0.95 です。 | +| `min_p` | FLOAT | いいえ | 0.0 ~ 1.0 | トークンが候補として考慮されるための最小確率閾値を設定します。このパラメーターは `sampling_mode` が「on」の場合のみ有効です。デフォルト値は 0.05 です。 | +| `repetition_penalty` | FLOAT | いいえ | 0.0 ~ 5.0 | すでに生成済みのトークンに対してペナルティを課し、反復を抑制します。値が 1.0 の場合はペナルティが適用されません。このパラメーターは `sampling_mode` が「on」の場合のみ有効です。デフォルト値は 1.05 です。 | +| `seed` | INT | いいえ | 0 ~ 18446744073709551615 | サンプリングが「on」の場合に、再現可能な結果を得るために乱数生成器を初期化する際に使用される数値です。デフォルト値は 0 です。 | + +**注意:** パラメーター `temperature`、`top_k`、`top_p`、`min_p`、`repetition_penalty`、および `seed` は、`sampling_mode` が「on」に設定されている場合にのみ、ノードのインターフェース上で有効かつ表示されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `generated_text` | STRING | 入力プロンプトおよびオプションの画像に基づき、モデルによって生成されたテキストです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/TextGenerateLTX2Prompt.mdx b/ja/built-in-nodes/TextGenerateLTX2Prompt.mdx new file mode 100644 index 000000000..a48ff82e8 --- /dev/null +++ b/ja/built-in-nodes/TextGenerateLTX2Prompt.mdx @@ -0,0 +1,32 @@ +--- +title: "TextGenerateLTX2Prompt - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の TextGenerateLTX2Prompt ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TextGenerateLTX2Prompt" +icon: "circle" +mode: wide +translationSourceHash: 03b9d211 +translationFrom: built-in-nodes/TextGenerateLTX2Prompt.mdx, zh-CN/built-in-nodes/TextGenerateLTX2Prompt.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TextGenerateLTX2Prompt/en.md) + +TextGenerateLTX2Prompt ノードは、テキスト生成を専門とするノードの特殊化バージョンです。このノードはユーザーが入力したテキストプロンプトを受け取り、言語モデルへ送信して強化または補完を行う前に、特定のシステム指示を用いて自動的にフォーマットします。このノードは「テキストのみ」モードと「画像参照付き」モードの2種類の動作モードを持ち、それぞれ異なるシステムプロンプトを使用します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `clip` | CLIP | はい | | テキストエンコーディングに使用される CLIP モデルです。 | +| `prompt` | STRING | はい | | ユーザーから入力された生のテキストで、強化または補完の対象となります。 | +| `max_length` | INT | はい | | 言語モデルが生成することを許可される最大トークン数です。 | +| `sampling_mode` | COMBO | はい | `"greedy"`
`"top_k"`
`"top_p"`
`"temperature"` | テキスト生成時に次のトークンを選択するためのサンプリング戦略です。 | +| `image` | IMAGE | いいえ | | オプションの入力画像です。指定された場合、ノードは画像コンテキストを含むプレースホルダーを備えた別のシステムプロンプトを使用します。 | + +**注意:** ノードの動作は `image` 入力の有無によって変化します。画像が提供された場合、生成されるプロンプトは「画像→動画」タスク向けにフォーマットされます。画像が提供されない場合は、「テキスト→動画」タスク向けにフォーマットされます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | STRING | 言語モデルによって生成された、強化または補完済みのテキスト文字列です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/TextToLowercase.mdx b/ja/built-in-nodes/TextToLowercase.mdx new file mode 100644 index 000000000..aab537161 --- /dev/null +++ b/ja/built-in-nodes/TextToLowercase.mdx @@ -0,0 +1,24 @@ +--- +title: "TextToLowercase - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の TextToLowercase ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TextToLowercase" +icon: "circle" +mode: wide +translationSourceHash: 47ae273d +translationFrom: built-in-nodes/TextToLowercase.mdx, zh-CN/built-in-nodes/TextToLowercase.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TextToLowercase/en.md) + +Text to Lowercase ノードは、テキスト文字列を入力として受け取り、そのすべての文字を小文字に変換します。これは、テキストの大文字・小文字を標準化するためのシンプルなユーティリティです。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `text` | STRING | はい | 任意のテキスト文字列 | 小文字に変換されるテキスト文字列です。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `text` | STRING | 全ての文字が小文字に変換された入力テキストです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/TextToUppercase.mdx b/ja/built-in-nodes/TextToUppercase.mdx new file mode 100644 index 000000000..67cd77273 --- /dev/null +++ b/ja/built-in-nodes/TextToUppercase.mdx @@ -0,0 +1,24 @@ +--- +title: "TextToUppercase - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における TextToUppercase ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TextToUppercase" +icon: "circle" +mode: wide +translationSourceHash: a838bd73 +translationFrom: built-in-nodes/TextToUppercase.mdx, zh-CN/built-in-nodes/TextToUppercase.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TextToUppercase/en.md) + +Text to Uppercase ノードは、テキスト入力を受け取り、そのすべての文字を大文字に変換します。これは、指定された文字列のケース(大文字・小文字)を変更するシンプルなテキスト処理ユーティリティです。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `text` | STRING | はい | 該当なし | 大文字に変換するテキスト文字列です。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `text` | STRING | すべての文字が大文字に変換された結果のテキストです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ThresholdMask.mdx b/ja/built-in-nodes/ThresholdMask.mdx new file mode 100644 index 000000000..ba9b079b8 --- /dev/null +++ b/ja/built-in-nodes/ThresholdMask.mdx @@ -0,0 +1,25 @@ +--- +title: "ThresholdMask - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における ThresholdMask ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ThresholdMask" +icon: "circle" +mode: wide +translationSourceHash: 1bb37d05 +translationFrom: built-in-nodes/ThresholdMask.mdx, zh-CN/built-in-nodes/ThresholdMask.mdx +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ThresholdMask/en.md) + +ThresholdMask ノードは、指定されたしきい値を適用することにより、入力マスクを2値マスク(バイナリマスク)に変換します。このノードは、入力マスクの各ピクセルを指定されたしきい値と比較し、しきい値より大きいピクセルを1(白)に、しきい値以下(または等しい)ピクセルを0(黒)とする新しいマスクを生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `mask` | MASK | はい | - | 処理対象の入力マスク | +| `value` | FLOAT | はい | 0.0 – 1.0 | 二値化に用いるしきい値(デフォルト: 0.5) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `mask` | MASK | しきい値処理後の2値マスク | \ No newline at end of file diff --git a/ja/built-in-nodes/TomePatchModel.mdx b/ja/built-in-nodes/TomePatchModel.mdx new file mode 100644 index 000000000..6e2b9308c --- /dev/null +++ b/ja/built-in-nodes/TomePatchModel.mdx @@ -0,0 +1,27 @@ +--- +title: "TomePatchModel - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の TomePatchModel ノードに関する完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "TomePatchModel" +icon: "circle" +mode: wide +translationSourceHash: 22ca17cc +translationFrom: built-in-nodes/TomePatchModel.mdx, zh-CN/built-in-nodes/TomePatchModel.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TomePatchModel/en.md) + +TomePatchModel ノードは、推論時の計算負荷を軽減するために、拡散モデルにトークン統合(ToMe)を適用します。この手法は、アテンション機構内で類似したトークンを意図的に統合することで、画像品質を維持しつつ処理するトークン数を削減します。これにより、品質の著しい低下を伴わずに生成速度を向上させることができます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | トークン統合を適用する拡散モデル | +| `ratio` | FLOAT | いいえ | 0.0 – 1.0 | 統合するトークンの割合(デフォルト値:0.3) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | トークン統合が適用された修正済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/TopazImageEnhance.mdx b/ja/built-in-nodes/TopazImageEnhance.mdx new file mode 100644 index 000000000..77ab225ce --- /dev/null +++ b/ja/built-in-nodes/TopazImageEnhance.mdx @@ -0,0 +1,40 @@ +--- +title: "TopazImageEnhance - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の TopazImageEnhance ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TopazImageEnhance" +icon: "circle" +mode: wide +translationSourceHash: 4139592a +translationFrom: built-in-nodes/TopazImageEnhance.mdx, zh-CN/built-in-nodes/TopazImageEnhance.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TopazImageEnhance/en.md) + +Topaz Image Enhance ノードは、業界標準の画像拡大(アップスケーリング)および画像強調機能を提供します。このノードでは、クラウドベースの AI モデルを用いて単一の入力画像を処理し、画質、ディテール、解像度を向上させます。また、クリエイティブなガイド、被写体へのフォーカス、顔の保存といったオプションを含む、画像強調プロセスに対する細かい制御が可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"Reimagine"` | 画像強調に使用する AI モデル。 | +| `image` | IMAGE | はい | - | 強調処理を行う入力画像。1 枚のみ対応しています。 | +| `prompt` | STRING | いいえ | - | クリエイティブなアップスケーリングをガイドするための任意のテキストプロンプト(デフォルト:空)。 | +| `subject_detection` | COMBO | いいえ | `"All"`
`"Foreground"`
`"Background"` | 画像のどの部分に強調処理を集中させるかを制御します(デフォルト:`"All"`)。 | +| `face_enhancement` | BOOLEAN | いいえ | - | 画像内に顔が存在する場合、その顔を強調処理するかどうかを有効化します(デフォルト:True)。 | +| `face_enhancement_creativity` | FLOAT | いいえ | 0.0 – 1.0 | 顔の強調処理におけるクリエイティブさのレベルを設定します(デフォルト:0.0)。 | +| `face_enhancement_strength` | FLOAT | いいえ | 0.0 – 1.0 | 強調処理後の顔のシャープネスを、背景と比較してどの程度強くするかを制御します(デフォルト:1.0)。 | +| `crop_to_fill` | BOOLEAN | いいえ | - | 出力アスペクト比が異なる場合、デフォルトでは画像にレターボックス(黒帯)が追加されます。このオプションを有効にすると、出力サイズに収まるよう画像を切り抜きます(デフォルト:False)。 | +| `output_width` | INT | いいえ | 0 – 32000 | 出力画像の希望する幅。値が 0 の場合、通常は元のサイズまたは指定された `output_height` を基に自動計算されます(デフォルト:0)。 | +| `output_height` | INT | いいえ | 0 – 32000 | 出力画像の希望する高さ。値が 0 の場合、通常は元のサイズまたは指定された `output_width` を基に自動計算されます(デフォルト:0)。 | +| `creativity` | INT | いいえ | 1 – 9 | 強調処理全体のクリエイティブさのレベルを制御します(デフォルト:3)。 | +| `face_preservation` | BOOLEAN | いいえ | - | 画像内の人物の顔のアイデンティティを保持します(デフォルト:True)。 | +| `color_preservation` | BOOLEAN | いいえ | - | 入力画像のオリジナルの色を保持します(デフォルト:True)。 | + +**注意:** このノードは単一の入力画像のみを処理できます。複数の画像を含むバッチを入力するとエラーになります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 強調処理後の出力画像。 | \ No newline at end of file diff --git a/ja/built-in-nodes/TopazVideoEnhance.mdx b/ja/built-in-nodes/TopazVideoEnhance.mdx new file mode 100644 index 000000000..c7a38c495 --- /dev/null +++ b/ja/built-in-nodes/TopazVideoEnhance.mdx @@ -0,0 +1,39 @@ +--- +title: "TopazVideoEnhance - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の TopazVideoEnhance ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TopazVideoEnhance" +icon: "circle" +mode: wide +translationSourceHash: 945506f0 +translationFrom: built-in-nodes/TopazVideoEnhance.mdx, zh-CN/built-in-nodes/TopazVideoEnhance.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TopazVideoEnhance/en.md) + +Topaz Video Enhance ノードは外部 API を使用して動画の品質を向上させます。このノードでは、動画の解像度をアップスケールするほか、補間処理によるフレームレートの向上や圧縮処理を適用できます。ノードは入力として MP4 形式の動画ファイルを受け取り、選択された設定に基づいて強化された動画を出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `video` | VIDEO | はい | - | 強化対象の入力動画ファイルです。 | +| `upscaler_enabled` | BOOLEAN | はい | - | 動画のアップスケール機能を有効または無効にします(デフォルト:True)。 | +| `upscaler_model` | COMBO | はい | `"Proteus v3"`
`"Artemis v13"`
`"Artemis v14"`
`"Artemis v15"`
`"Gaia v6"`
`"Theia v3"`
`"Starlight (Astra) Creative"`
`"Starlight (Astra) Optimized"`
`"Starlight (Astra) Balanced"`
`"Starlight (Astra) Quality"`
`"Starlight (Astra) Speed"` | 動画のアップスケールに使用される AI モデルです。 | +| `upscaler_resolution` | COMBO | はい | `"FullHD (1080p)"`
`"4K (2160p)"` | アップスケール後の動画の目標解像度です。 | +| `upscaler_creativity` | COMBO | いいえ | `"low"`
`"middle"`
`"high"` | 創造性レベル(「Starlight (Astra) Creative」モデルにのみ適用されます)。(デフォルト:`"low"`) | +| `interpolation_enabled` | BOOLEAN | いいえ | - | フレーム補間機能を有効または無効にします(デフォルト:False)。 | +| `interpolation_model` | COMBO | いいえ | `"apo-8"` | フレーム補間に使用されるモデルです(デフォルト:`"apo-8"`)。 | +| `interpolation_slowmo` | INT | いいえ | 1 ~ 16 | 入力動画に適用されるスローモーション倍率です。たとえば、値を `2` にすると、出力動画の再生速度が半分になり、再生時間が 2 倍になります。(デフォルト:1) | +| `interpolation_frame_rate` | INT | いいえ | 15 ~ 240 | 出力動画のフレームレートです。(デフォルト:60) | +| `interpolation_duplicate` | BOOLEAN | いいえ | - | 入力動画内の重複フレームを検出し、削除します。(デフォルト:False) | +| `interpolation_duplicate_threshold` | FLOAT | いいえ | 0.001 ~ 0.1 | 重複フレーム検出の感度です。(デフォルト:0.01) | +| `dynamic_compression_level` | COMBO | いいえ | `"Low"`
`"Mid"`
`"High"` | CQP(Constant Quantization Parameter)レベルです。(デフォルト:`"Low"`) | + +**注意:** 少なくとも 1 つの強化機能を有効にする必要があります。`upscaler_enabled` および `interpolation_enabled` の両方が `False` に設定されている場合、ノードはエラーを発生させます。入力動画は MP4 形式である必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `video` | VIDEO | 強化された出力動画ファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/TorchCompileModel.mdx b/ja/built-in-nodes/TorchCompileModel.mdx new file mode 100644 index 000000000..f304e4629 --- /dev/null +++ b/ja/built-in-nodes/TorchCompileModel.mdx @@ -0,0 +1,25 @@ +--- +title: "TorchCompileModel - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における TorchCompileModel ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TorchCompileModel" +icon: "circle" +mode: wide +translationSourceHash: f1147d3b +translationFrom: built-in-nodes/TorchCompileModel.mdx, zh-CN/built-in-nodes/TorchCompileModel.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TorchCompileModel/en.md) + +TorchCompileModel ノードは、PyTorch のコンパイル機能をモデルに適用し、そのパフォーマンスを最適化します。このノードは入力モデルのコピーを作成し、指定されたバックエンドを用いて PyTorch のコンパイル機能でラップします。これにより、推論時のモデル実行速度が向上します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | コンパイルおよび最適化対象のモデル | +| `backend` | STRING | はい | "inductor"
"cudagraphs" | 最適化に使用する PyTorch コンパイルバックエンド | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | PyTorch コンパイルが適用されたコンパイル済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/TrainLoraNode.mdx b/ja/built-in-nodes/TrainLoraNode.mdx new file mode 100644 index 000000000..bdd7dd2fd --- /dev/null +++ b/ja/built-in-nodes/TrainLoraNode.mdx @@ -0,0 +1,46 @@ +--- +title: "TrainLoraNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の TrainLoraNode ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TrainLoraNode" +icon: "circle" +mode: wide +translationSourceHash: 125473cf +translationFrom: built-in-nodes/TrainLoraNode.mdx, zh-CN/built-in-nodes/TrainLoraNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TrainLoraNode/en.md) + +TrainLoraNode は、提供された潜在表現(latents)および条件付けデータを用いて、拡散モデル上に LoRA(低ランク適応:Low-Rank Adaptation)モデルを作成・学習します。このノードにより、カスタムの学習パラメーター、オプティマイザー、損失関数を用いたモデルのファインチューニングが可能です。ノードの出力には、LoRA を適用済みの学習済みモデル、LoRA の重み、学習時の損失指標、および完了した総学習ステップ数が含まれます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | LoRA を学習させる対象となるモデルです。 | +| `latents` | LATENT | はい | - | 学習に使用する潜在表現(latents)。モデルのデータセット/入力として機能します。 | +| `positive` | CONDITIONING | はい | - | 学習に使用する正の条件付けデータです。 | +| `batch_size` | INT | はい | 1–10000 | 学習時に使用するバッチサイズ(デフォルト:1)。 | +| `grad_accumulation_steps` | INT | はい | 1–1024 | 学習時に使用する勾配蓄積ステップ数(デフォルト:1)。 | +| `steps` | INT | はい | 1–100000 | LoRA の学習を行うステップ数(デフォルト:16)。 | +| `learning_rate` | FLOAT | はい | 0.0000001–1.0 | 学習時に使用する学習率(デフォルト:0.0005)。 | +| `rank` | INT | はい | 1–128 | LoRA 層のランク(デフォルト:8)。 | +| `optimizer` | COMBO | はい | "AdamW"
"Adam"
"SGD"
"RMSprop" | 学習時に使用するオプティマイザー(デフォルト:"AdamW")。 | +| `loss_function` | COMBO | はい | "MSE"
"L1"
"Huber"
"SmoothL1" | 学習時に使用する損失関数(デフォルト:"MSE")。 | +| `seed` | INT | はい | 0–18446744073709551615 | 学習時に使用するシード値(LoRA 重みの初期化およびノイズサンプリングにおけるジェネレーターで使用)(デフォルト:0)。 | +| `training_dtype` | COMBO | はい | "bf16"
"fp32" | 学習時に使用するデータ型(デフォルト:"bf16")。 | +| `lora_dtype` | COMBO | はい | "bf16"
"fp32" | LoRA に使用するデータ型(デフォルト:"bf16")。 | +| `algorithm` | COMBO | はい | 複数の選択肢あり | 学習時に使用するアルゴリズムです。 | +| `gradient_checkpointing` | BOOLEAN | はい | - | 学習時に勾配チェックポイントを使用するかどうか(デフォルト:True)。 | +| `existing_lora` | COMBO | はい | 複数の選択肢あり | 追加対象となる既存の LoRA です。「None」を指定すると新規 LoRA が作成されます(デフォルト:"[None]")。 | + +**注意:** 正の条件付けデータの数は、潜在表現画像の数と一致していなければなりません。複数の画像に対して正の条件付けデータが 1 つだけ与えられた場合、その条件付けデータは自動的にすべての画像に対して繰り返し使用されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model_with_lora` | MODEL | 学習済み LoRA を適用済みの元のモデルです。 | +| `lora` | LORA_MODEL | 保存可能、あるいは他のモデルへ適用可能な学習済み LoRA の重みです。 | +| `loss` | LOSS_MAP | 時間経過に伴う学習損失値を格納した辞書です。 | +| `steps` | INT | 完了した総学習ステップ数(既存 LoRA からの先行ステップを含む)です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/TrimAudioDuration.mdx b/ja/built-in-nodes/TrimAudioDuration.mdx new file mode 100644 index 000000000..29019ddef --- /dev/null +++ b/ja/built-in-nodes/TrimAudioDuration.mdx @@ -0,0 +1,30 @@ +--- +title: "TrimAudioDuration - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の TrimAudioDuration ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TrimAudioDuration" +icon: "circle" +mode: wide +translationSourceHash: 714cf817 +translationFrom: built-in-nodes/TrimAudioDuration.mdx, zh-CN/built-in-nodes/TrimAudioDuration.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TrimAudioDuration/en.md) + +TrimAudioDuration ノードを使用すると、音声ファイルから特定の時間帯を切り取ることができます。切り取りを開始する時刻と、結果として得られる音声クリップの長さを指定できます。このノードは、時間値を音声フレーム位置に変換し、対応する音声波形の部分を抽出することで動作します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `audio` | AUDIO | はい | - | 切り取る対象の音声入力 | +| `start_index` | FLOAT | はい | -0xffffffffffffffff ~ 0xffffffffffffffff | 開始時刻(秒単位)。負の値を指定すると音声の終端から逆算して開始時刻を設定できます(サブセカンド精度をサポート)。デフォルト値:0.0 | +| `duration` | FLOAT | はい | 0.0 ~ 0xffffffffffffffff | 持続時間(秒単位)。デフォルト値:60.0 | + +**注意:** 開始時刻は終了時刻より小さく、かつ音声全体の長さ内に収める必要があります。負の開始時刻は、音声の終端から逆方向にカウントされます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `audio` | AUDIO | 指定された開始時刻および持続時間で切り取られた音声セグメント | \ No newline at end of file diff --git a/ja/built-in-nodes/TrimVideoLatent.mdx b/ja/built-in-nodes/TrimVideoLatent.mdx new file mode 100644 index 000000000..3e7ee5a6c --- /dev/null +++ b/ja/built-in-nodes/TrimVideoLatent.mdx @@ -0,0 +1,25 @@ +--- +title: "TrimVideoLatent - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における TrimVideoLatent ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TrimVideoLatent" +icon: "circle" +mode: wide +translationSourceHash: 4a77d9f1 +translationFrom: built-in-nodes/TrimVideoLatent.mdx, zh-CN/built-in-nodes/TrimVideoLatent.mdx +--- +> このドキュメンテーションはAIによって生成されました。誤りを発見された場合や、改善に関するご提案がありましたら、ぜひご貢献ください![GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TrimVideoLatent/en.md) + +TrimVideoLatent ノードは、動画の潜在表現(latent representation)の先頭からフレームを削除します。このノードは潜在動画サンプルを受け取り、その先頭から指定された数のフレームを切り取り、残りの動画部分を返します。これにより、初期フレームを除去することで動画シーケンスを短縮できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `samples` | LATENT | はい | - | 切り取る対象となるフレームを含む入力潜在動画表現 | +| `trim_amount` | INT | いいえ | 0 ~ 99999 | 動画の先頭から削除するフレーム数(デフォルト値:0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | LATENT | 先頭から指定された数のフレームが削除された、切り取り済みの潜在動画表現 | \ No newline at end of file diff --git a/ja/built-in-nodes/TripleCLIPLoader.mdx b/ja/built-in-nodes/TripleCLIPLoader.mdx new file mode 100644 index 000000000..68c4927da --- /dev/null +++ b/ja/built-in-nodes/TripleCLIPLoader.mdx @@ -0,0 +1,28 @@ +--- +title: "TripleCLIPLoader - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の TripleCLIPLoader ノードに関する完全なドキュメンテーションです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "TripleCLIPLoader" +icon: "circle" +mode: wide +translationSourceHash: e6670df6 +translationFrom: built-in-nodes/TripleCLIPLoader.mdx, zh-CN/built-in-nodes/TripleCLIPLoader.mdx +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご協力ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TripleCLIPLoader/en.md) + +TripleCLIPLoader ノードは、3つの異なるテキストエンコーダー・モデルを同時に読み込み、それらを1つの CLIP モデルに統合します。これは、複数のテキストエンコーダーが必要となる高度なテキストエンコーディング用途(例:clip-l、clip-g、t5 の3つのモデルが連携して動作する必要がある SD3 ワークフローなど)において非常に有用です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `clip_name1` | STRING | はい | 複数の選択肢が利用可能 | 利用可能なテキストエンコーダーから読み込む最初のテキストエンコーダー・モデル | +| `clip_name2` | STRING | はい | 複数の選択肢が利用可能 | 利用可能なテキストエンコーダーから読み込む2番目のテキストエンコーダー・モデル | +| `clip_name3` | STRING | はい | 複数の選択肢が利用可能 | 利用可能なテキストエンコーダーから読み込む3番目のテキストエンコーダー・モデル | + +**注意:** 3つのテキストエンコーダー・パラメーターは、すべてシステム上で利用可能なテキストエンコーダー・モデルから選択する必要があります。このノードは、指定された3つのモデルをすべて読み込み、処理用の単一の CLIP モデルとして統合します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `CLIP` | CLIP | 読み込まれた3つのテキストエンコーダーをすべて含む統合 CLIP モデル | \ No newline at end of file diff --git a/ja/built-in-nodes/TripoConversionNode.mdx b/ja/built-in-nodes/TripoConversionNode.mdx new file mode 100644 index 000000000..3b4d537f8 --- /dev/null +++ b/ja/built-in-nodes/TripoConversionNode.mdx @@ -0,0 +1,33 @@ +--- +title: "TripoConversionNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における TripoConversionNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TripoConversionNode" +icon: "circle" +mode: wide +translationSourceHash: 7337a580 +translationFrom: built-in-nodes/TripoConversionNode.mdx, zh-CN/built-in-nodes/TripoConversionNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TripoConversionNode/en.md) + +TripoConversionNode は、Tripo API を使用して 3D モデルを異なるファイル形式間で変換するノードです。このノードは、以前の Tripo 操作(モデル生成、リギング、またはリターゲティング)から取得したタスク ID を受け取り、結果として得られたモデルを目的の形式に変換します。また、さまざまなエクスポートオプションも提供されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `original_model_task_id` | MODEL_TASK_ID,RIG_TASK_ID,RETARGET_TASK_ID | はい | MODEL_TASK_ID
RIG_TASK_ID
RETARGET_TASK_ID | 以前の Tripo 操作(モデル生成、リギング、またはリターゲティング)から取得したタスク ID | +| `format` | COMBO | はい | GLTF
USDZ
FBX
OBJ
STL
3MF | 変換後の 3D モデルの対象ファイル形式 | +| `quad` | BOOLEAN | いいえ | True/False | 三角形を四角形に変換するかどうか(デフォルト:False) | +| `face_limit` | INT | いいえ | -1 ~ 500000 | 出力モデルにおける最大面数。-1 を指定すると制限なし(デフォルト:-1) | +| `texture_size` | INT | いいえ | 128 ~ 4096 | 出力テクスチャのピクセルサイズ(デフォルト:4096) | +| `texture_format` | COMBO | いいえ | BMP
DPX
HDR
JPEG
OPEN_EXR
PNG
TARGA
TIFF
WEBP | エクスポートされるテクスチャの形式(デフォルト:JPEG) | + +**注意:** `original_model_task_id` は、以前の Tripo 操作(モデル生成、リギング、またはリターゲティング)から取得した有効なタスク ID である必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| *名前付き出力なし* | - | このノードは変換処理を非同期で実行し、結果を Tripo API システム経由で返します | \ No newline at end of file diff --git a/ja/built-in-nodes/TripoImageToModelNode.mdx b/ja/built-in-nodes/TripoImageToModelNode.mdx new file mode 100644 index 000000000..819730f8f --- /dev/null +++ b/ja/built-in-nodes/TripoImageToModelNode.mdx @@ -0,0 +1,40 @@ +--- +title: "TripoImageToModelNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における TripoImageToModelNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TripoImageToModelNode" +icon: "circle" +mode: wide +translationSourceHash: 4fa742c4 +translationFrom: built-in-nodes/TripoImageToModelNode.mdx, zh-CN/built-in-nodes/TripoImageToModelNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TripoImageToModelNode/en.md) + +Tripo の API を使用して、単一の画像から同期的に 3D モデルを生成します。このノードは入力画像を受け取り、テクスチャ、品質、モデルの属性などに関するさまざまなカスタマイズオプションを用いて 3D モデルに変換します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 3D モデル生成に使用する入力画像 | +| `model_version` | COMBO | いいえ | 複数の選択肢あり | 生成に使用する Tripo モデルのバージョン | +| `style` | COMBO | いいえ | 複数の選択肢あり | 生成されるモデルのスタイル設定(デフォルト: "None") | +| `texture` | BOOLEAN | いいえ | - | モデルに対してテクスチャを生成するかどうか(デフォルト: True) | +| `pbr` | BOOLEAN | いいえ | - | 物理ベースレンダリング(Physically Based Rendering)を使用するかどうか(デフォルト: True) | +| `model_seed` | INT | いいえ | - | モデル生成のための乱数シード(デフォルト: 42) | +| `orientation` | COMBO | いいえ | 複数の選択肢あり | 生成されるモデルの向き設定 | +| `texture_seed` | INT | いいえ | - | テクスチャ生成のための乱数シード(デフォルト: 42) | +| `texture_quality` | COMBO | いいえ | "standard"
"detailed" | テクスチャ生成の品質レベル(デフォルト: "standard") | +| `texture_alignment` | COMBO | いいえ | "original_image"
"geometry" | テクスチャマッピングのアライメント方法(デフォルト: "original_image") | +| `face_limit` | INT | いいえ | -1 ~ 500000 | 生成されるモデルにおける最大面数。-1 の場合は制限なし(デフォルト: -1) | +| `quad` | BOOLEAN | いいえ | - | 三角形面の代わりに四角形面(クワッド)を使用するかどうか(デフォルト: False) | + +**注意:** `image` パラメーターは必須であり、ノードが正常に機能するために必ず指定する必要があります。画像が指定されない場合、ノードは `RuntimeError` を送出します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model_file` | STRING | 生成された 3D モデルファイル | +| `model task_id` | MODEL_TASK_ID | モデル生成プロセスの追跡に使用されるタスク ID | \ No newline at end of file diff --git a/ja/built-in-nodes/TripoMultiviewToModelNode.mdx b/ja/built-in-nodes/TripoMultiviewToModelNode.mdx new file mode 100644 index 000000000..816719c2c --- /dev/null +++ b/ja/built-in-nodes/TripoMultiviewToModelNode.mdx @@ -0,0 +1,42 @@ +--- +title: "TripoMultiviewToModelNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における TripoMultiviewToModelNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TripoMultiviewToModelNode" +icon: "circle" +mode: wide +translationSourceHash: 2a5d2355 +translationFrom: built-in-nodes/TripoMultiviewToModelNode.mdx, zh-CN/built-in-nodes/TripoMultiviewToModelNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TripoMultiviewToModelNode/en.md) + +このノードは、Tripo の API を使用して、物体の異なる視点を示す最大4枚の画像を処理することにより、3D モデルを同期的に生成します。完全なテクスチャおよびマテリアル付きの 3D モデルを作成するには、正面画像と、左・背面・右のいずれか少なくとも1つの追加視点画像が必要です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | IMAGE | はい | - | 物体の正面視点画像(必須) | +| `image_left` | IMAGE | いいえ | - | 物体の左側視点画像 | +| `image_back` | IMAGE | いいえ | - | 物体の背面視点画像 | +| `image_right` | IMAGE | いいえ | - | 物体の右側視点画像 | +| `model_version` | COMBO | いいえ | 複数の選択肢あり | 生成に使用する Tripo モデルのバージョン | +| `orientation` | COMBO | いいえ | 複数の選択肢あり | 3D モデルの向き設定 | +| `texture` | BOOLEAN | いいえ | - | モデルに対してテクスチャを生成するかどうか(デフォルト:True) | +| `pbr` | BOOLEAN | いいえ | - | PBR(物理ベースレンダリング)マテリアルを生成するかどうか(デフォルト:True) | +| `model_seed` | INT | いいえ | - | モデル生成用の乱数シード(デフォルト:42) | +| `texture_seed` | INT | いいえ | - | テクスチャ生成用の乱数シード(デフォルト:42) | +| `texture_quality` | COMBO | いいえ | "standard"
"detailed" | テクスチャ生成の品質レベル(デフォルト:"standard") | +| `texture_alignment` | COMBO | いいえ | "original_image"
"geometry" | テクスチャをモデルにアライメントする方法(デフォルト:"original_image") | +| `face_limit` | INT | いいえ | -1 ~ 500000 | 生成されるモデルの最大面数。-1 の場合は制限なし(デフォルト:-1) | +| `quad` | BOOLEAN | いいえ | - | 三角形ではなく四角形(quad)ベースのジオメトリを生成するかどうか(デフォルト:False) | + +**注意:** 正面画像(`image`)は常に必須です。マルチビュー処理を行うには、少なくとも1つの追加視点画像(`image_left`、`image_back`、または `image_right`)を必ず指定する必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model_file` | STRING | 生成された 3D モデルのファイルパスまたは識別子 | +| `model task_id` | MODEL_TASK_ID | モデル生成プロセスの追跡に使用されるタスク識別子 | \ No newline at end of file diff --git a/ja/built-in-nodes/TripoRefineNode.mdx b/ja/built-in-nodes/TripoRefineNode.mdx new file mode 100644 index 000000000..8c90b5b62 --- /dev/null +++ b/ja/built-in-nodes/TripoRefineNode.mdx @@ -0,0 +1,32 @@ +--- +title: "TripoRefineNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における TripoRefineNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TripoRefineNode" +icon: "circle" +mode: wide +translationSourceHash: 10862dd7 +translationFrom: built-in-nodes/TripoRefineNode.mdx, zh-CN/built-in-nodes/TripoRefineNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TripoRefineNode/en.md) + +TripoRefineNode は、v1.4 版 Tripo モデルによって専門的に作成された 3D モデルの草稿を最適化するためのノードです。このノードはモデルのタスク ID を受け取り、Tripo API を通じて処理を行い、モデルの改良版を生成します。本ノードは、Tripo v1.4 モデルによって生成された草稿モデルのみを対象として設計されています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model_task_id` | MODEL_TASK_ID | はい | - | v1.4 版 Tripo モデルである必要があります | +| `auth_token` | AUTH_TOKEN_COMFY_ORG | いいえ | - | Comfy.org API 用の認証トークン | +| `comfy_api_key` | API_KEY_COMFY_ORG | いいえ | - | Comfy.org サービス用の API キー | +| `unique_id` | UNIQUE_ID | いいえ | - | この操作のための固有識別子 | + +**注意:** このノードは、Tripo v1.4 モデルによって作成された草稿モデルのみを受け付けます。他のバージョンのモデルを使用すると、エラーが発生する可能性があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model_file` | STRING | 最適化後のモデルのファイルパスまたは参照 | +| `model task_id` | MODEL_TASK_ID | 最適化モデル操作のタスク識別子 | \ No newline at end of file diff --git a/ja/built-in-nodes/TripoRetargetNode.mdx b/ja/built-in-nodes/TripoRetargetNode.mdx new file mode 100644 index 000000000..14ff6a79f --- /dev/null +++ b/ja/built-in-nodes/TripoRetargetNode.mdx @@ -0,0 +1,31 @@ +--- +title: "TripoRetargetNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における TripoRetargetNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TripoRetargetNode" +icon: "circle" +mode: wide +translationSourceHash: 1b14ee73 +translationFrom: built-in-nodes/TripoRetargetNode.mdx, zh-CN/built-in-nodes/TripoRetargetNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TripoRetargetNode/en.md) + +TripoRetargetNode は、モーションデータのリターゲティング(運動データの再適用)を通じて、あらかじめ定義されたアニメーションを 3D キャラクターモデルに適用します。このノードは、事前に処理済みの 3D モデルを入力として受け取り、複数のプリセットアニメーションのうちいずれかを適用し、アニメーション付きの 3D モデルファイルを出力として生成します。また、このノードは Tripo API と通信して、アニメーションのリターゲティング処理を実行します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `original_model_task_id` | RIG_TASK_ID | はい | - | アニメーションを適用する対象となる、事前に処理済みの 3D モデルのタスク ID | +| `animation` | STRING | はい | "preset:idle"
"preset:walk"
"preset:climb"
"preset:jump"
"preset:slash"
"preset:shoot"
"preset:hurt"
"preset:fall"
"preset:turn" | 3D モデルに適用するアニメーションのプリセット | +| `auth_token` | AUTH_TOKEN_COMFY_ORG | いいえ | - | Comfy.org の API へのアクセスに使用する認証トークン | +| `comfy_api_key` | API_KEY_COMFY_ORG | いいえ | - | Comfy.org サービスへのアクセスに使用する API キー | +| `unique_id` | UNIQUE_ID | いいえ | - | 処理の追跡に用いる一意の識別子 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model_file` | STRING | 生成されたアニメーション付き 3D モデルファイル | +| `retarget task_id` | RETARGET_TASK_ID | リターゲティング処理の追跡に用いるタスク ID | \ No newline at end of file diff --git a/ja/built-in-nodes/TripoRigNode.mdx b/ja/built-in-nodes/TripoRigNode.mdx new file mode 100644 index 000000000..b499b858a --- /dev/null +++ b/ja/built-in-nodes/TripoRigNode.mdx @@ -0,0 +1,30 @@ +--- +title: "TripoRigNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における TripoRigNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TripoRigNode" +icon: "circle" +mode: wide +translationSourceHash: d9b7a5fa +translationFrom: built-in-nodes/TripoRigNode.mdx, zh-CN/built-in-nodes/TripoRigNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TripoRigNode/en.md) + +TripoRigNode は、元のモデルのタスク ID をもとに、リギング(骨格制御)が施された 3D モデルを生成します。このノードは Tripo API にリクエストを送信し、Tripo の仕様に基づいて GLB 形式のアニメーション対応リグを作成した後、リグ生成タスクが完了するまで API をポーリングします。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `original_model_task_id` | MODEL_TASK_ID | はい | - | リギングを適用する元の 3D モデルのタスク ID | +| `auth_token` | AUTH_TOKEN_COMFY_ORG | いいえ | - | Comfy.org API へのアクセスに使用する認証トークン | +| `comfy_api_key` | API_KEY_COMFY_ORG | いいえ | - | Comfy.org サービスの認証に使用する API キー | +| `unique_id` | UNIQUE_ID | いいえ | - | 操作の追跡に使用する一意の識別子 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model_file` | STRING | 生成されたリギング済み 3D モデルファイル | +| `rig task_id` | RIG_TASK_ID | リグ生成プロセスの追跡に使用するタスク ID | \ No newline at end of file diff --git a/ja/built-in-nodes/TripoTextToModelNode.mdx b/ja/built-in-nodes/TripoTextToModelNode.mdx new file mode 100644 index 000000000..21412c62f --- /dev/null +++ b/ja/built-in-nodes/TripoTextToModelNode.mdx @@ -0,0 +1,40 @@ +--- +title: "TripoTextToModelNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における TripoTextToModelNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TripoTextToModelNode" +icon: "circle" +mode: wide +translationSourceHash: 99c2b278 +translationFrom: built-in-nodes/TripoTextToModelNode.mdx, zh-CN/built-in-nodes/TripoTextToModelNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TripoTextToModelNode/en.md) + +Tripo の API を使用して、テキストプロンプトに基づき同期的に 3D モデルを生成します。このノードはテキストによる説明を受け取り、オプションでテクスチャおよびマテリアル属性を含む 3D モデルを作成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | 3D モデル生成用のテキスト説明(複数行入力可) | +| `negative_prompt` | STRING | いいえ | - | 生成されるモデルに含めない要素を記述したテキスト(複数行入力可) | +| `model_version` | COMBO | いいえ | 複数の選択肢あり | 生成に使用する Tripo モデルのバージョン | +| `style` | COMBO | いいえ | 複数の選択肢あり | 生成されるモデルのスタイル設定(デフォルト:「None」) | +| `texture` | BOOLEAN | いいえ | - | モデルに対してテクスチャを生成するかどうか(デフォルト:True) | +| `pbr` | BOOLEAN | いいえ | - | PBR(Physically Based Rendering:物理ベースレンダリング)マテリアルを生成するかどうか(デフォルト:True) | +| `image_seed` | INT | いいえ | - | 画像生成時の乱数シード(デフォルト:42) | +| `model_seed` | INT | いいえ | - | モデル生成時の乱数シード(デフォルト:42) | +| `texture_seed` | INT | いいえ | - | テクスチャ生成時の乱数シード(デフォルト:42) | +| `texture_quality` | COMBO | いいえ | 「standard」
「detailed」 | テクスチャ生成の品質レベル(デフォルト:「standard」) | +| `face_limit` | INT | いいえ | -1 ~ 500000 | 生成されるモデルの最大面数。-1 の場合は制限なし(デフォルト:-1) | +| `quad` | BOOLEAN | いいえ | - | 三角形ではなく四角形(quad)ベースのジオメトリを生成するかどうか(デフォルト:False) | + +**注意:** `prompt` パラメーターは必須であり、空欄にすることはできません。プロンプトが指定されていない場合、ノードはエラーを発生させます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model_file` | STRING | 生成された 3D モデルファイル | +| `model task_id` | MODEL_TASK_ID | モデル生成処理のための固有タスク識別子 | \ No newline at end of file diff --git a/ja/built-in-nodes/TripoTextureNode.mdx b/ja/built-in-nodes/TripoTextureNode.mdx new file mode 100644 index 000000000..b48d98b8c --- /dev/null +++ b/ja/built-in-nodes/TripoTextureNode.mdx @@ -0,0 +1,32 @@ +--- +title: "TripoTextureNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における TripoTextureNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TripoTextureNode" +icon: "circle" +mode: wide +translationSourceHash: e8ae6141 +translationFrom: built-in-nodes/TripoTextureNode.mdx, zh-CN/built-in-nodes/TripoTextureNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TripoTextureNode/en.md) + +TripoTextureNode は Tripo API を使用してテクスチャ付きの 3D モデルを生成します。このノードはモデルのタスク ID を受け取り、PBR(物理ベース・レンダリング)マテリアル、テクスチャ品質設定、アライメント手法など、さまざまなオプションを用いてテクスチャ生成を適用します。ノードは Tripo API と通信し、テクスチャ生成リクエストを処理した後、生成されたモデルファイルおよびタスク ID を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model_task_id` | MODEL_TASK_ID | はい | - | テクスチャを適用する対象のモデルのタスク ID | +| `texture` | BOOLEAN | いいえ | - | テクスチャを生成するかどうか(デフォルト: True) | +| `pbr` | BOOLEAN | いいえ | - | PBR(物理ベース・レンダリング)マテリアルを生成するかどうか(デフォルト: True) | +| `texture_seed` | INT | いいえ | - | テクスチャ生成のための乱数シード(デフォルト: 42) | +| `texture_quality` | COMBO | いいえ | "standard"
"detailed" | テクスチャ生成の品質レベル(デフォルト: "standard") | +| `texture_alignment` | COMBO | いいえ | "original_image"
"geometry" | テクスチャのアライメント手法(デフォルト: "original_image") | + +*注: このノードは認証トークンおよび API キーを必要としますが、これらはシステムによって自動的に処理されます。* + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model_file` | STRING | テクスチャが適用された状態で生成されたモデルファイル | +| `model task_id` | MODEL_TASK_ID | テクスチャ生成プロセスの追跡に使用されるタスク ID | \ No newline at end of file diff --git a/ja/built-in-nodes/TruncateText.mdx b/ja/built-in-nodes/TruncateText.mdx new file mode 100644 index 000000000..218c6e940 --- /dev/null +++ b/ja/built-in-nodes/TruncateText.mdx @@ -0,0 +1,25 @@ +--- +title: "TruncateText - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における TruncateText ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "TruncateText" +icon: "circle" +mode: wide +translationSourceHash: 06f10b3b +translationFrom: built-in-nodes/TruncateText.mdx, zh-CN/built-in-nodes/TruncateText.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/TruncateText/en.md) + +このノードは、指定された最大文字数でテキストを切り詰めることにより、テキストの長さを短縮します。任意の入力テキストを受け取り、設定した文字数以内の先頭部分のみを返します。これは、テキストが特定のサイズを超えないように保証するシンプルな方法です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `text` | STRING | はい | なし | 切り詰める対象のテキスト文字列です。 | +| `max_length` | INT | いいえ | 1~10000 | テキストの最大長です。この文字数に達した時点でテキストが切り詰められます(デフォルト値:77)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `string` | STRING | 切り詰められたテキストで、入力テキストの先頭 `max_length` 文字のみを含みます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/UNETLoader.mdx b/ja/built-in-nodes/UNETLoader.mdx new file mode 100644 index 000000000..f7981981d --- /dev/null +++ b/ja/built-in-nodes/UNETLoader.mdx @@ -0,0 +1,34 @@ +--- +title: "UNETLoader - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における UNETLoader ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "UNETLoader" +icon: "circle" +mode: wide +translationSourceHash: 4a17dea2 +translationFrom: built-in-nodes/UNETLoader.mdx, zh-CN/built-in-nodes/UNETLoader.mdx +--- + +UNETLoader ノードは、名前を指定して U-Net モデルを読み込むことを目的として設計されており、システム内で事前に学習済みの U-Net アーキテクチャを容易に利用できるようにします。 +※ このノードの名称は `Load Diffusion Model`(拡散モデルの読み込み)に更新されています。 + +このノードは、`ComfyUI/models/diffusion_models` フォルダー内に配置されたモデルを自動的に検出します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-------------|--------------|-------------| +| `unet_name` | COMBO[STRING] | 読み込む U-Net モデルの名称を指定します。この名称は、あらかじめ定義されたディレクトリ構造内から該当モデルを特定するために使用され、異なる U-Net モデルを動的に読み込むことを可能にします。 | +| `weight_dtype` | ... | 🚧 `fp8_e4m3fn`、`fp9_e5m2` — 異なる精度およびダイナミックレンジを表します。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `model` | MODEL | 読み込まれた U-Net モデルを返します。これにより、システム内でさらなる処理や推論に利用できます。 | + +## UNET Loader ガイド|「Load Diffusion Model」ワークフローの例 + +1. U-Net モデルをインストールする +2. ワークフローファイルをダウンロードする +3. ComfyUI でワークフローをインポートする +4. U-Net モデルを選択し、ワークフローを実行する \ No newline at end of file diff --git a/ja/built-in-nodes/UNetCrossAttentionMultiply.mdx b/ja/built-in-nodes/UNetCrossAttentionMultiply.mdx new file mode 100644 index 000000000..d937efe54 --- /dev/null +++ b/ja/built-in-nodes/UNetCrossAttentionMultiply.mdx @@ -0,0 +1,30 @@ +--- +title: "UNetCrossAttentionMultiply - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における UNetCrossAttentionMultiply ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "UNetCrossAttentionMultiply" +icon: "circle" +mode: wide +translationSourceHash: acb42827 +translationFrom: built-in-nodes/UNetCrossAttentionMultiply.mdx, zh-CN/built-in-nodes/UNetCrossAttentionMultiply.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/UNetCrossAttentionMultiply/en.md) + +UNetCrossAttentionMultiply ノードは、UNet モデル内のクロスアテンション機構に乗算係数を適用します。これにより、クロスアテンション層のクエリ(query)、キー(key)、バリュー(value)、および出力(output)の各コンポーネントをスケーリングでき、さまざまなアテンションの動作や効果を実験することが可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|--------------|-----------|------|------|------| +| `model` | MODEL | はい | - | アテンションのスケーリング係数を適用する UNet モデル | +| `q` | FLOAT | いいえ | 0.0 - 10.0 | クロスアテンションにおけるクエリコンポーネントのスケーリング係数(デフォルト:1.0) | +| `k` | FLOAT | いいえ | 0.0 - 10.0 | クロスアテンションにおけるキーコンポーネントのスケーリング係数(デフォルト:1.0) | +| `v` | FLOAT | いいえ | 0.0 - 10.0 | クロスアテンションにおけるバリューコンポーネントのスケーリング係数(デフォルト:1.0) | +| `out` | FLOAT | いいえ | 0.0 - 10.0 | クロスアテンションにおける出力コンポーネントのスケーリング係数(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|----------|-----------|------| +| `model` | MODEL | クロスアテンションコンポーネントがスケーリングされた UNet モデル | \ No newline at end of file diff --git a/ja/built-in-nodes/UNetSelfAttentionMultiply.mdx b/ja/built-in-nodes/UNetSelfAttentionMultiply.mdx new file mode 100644 index 000000000..9358b2c18 --- /dev/null +++ b/ja/built-in-nodes/UNetSelfAttentionMultiply.mdx @@ -0,0 +1,30 @@ +--- +title: "UNetSelfAttentionMultiply - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における UNetSelfAttentionMultiply ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "UNetSelfAttentionMultiply" +icon: "circle" +mode: wide +translationSourceHash: 974bf313 +translationFrom: built-in-nodes/UNetSelfAttentionMultiply.mdx, zh-CN/built-in-nodes/UNetSelfAttentionMultiply.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/UNetSelfAttentionMultiply/en.md) + +UNetSelfAttentionMultiply ノードは、UNet モデル内の自己注意機構(self-attention)におけるクエリ(query)、キー(key)、バリュー(value)、および出力(output)の各コンポーネントに乗算係数を適用します。これにより、注意計算の異なる部分のスケーリングを調整し、注意重みがモデルの挙動に与える影響を実験的に検討できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | 注意スケーリング係数を適用する UNet モデル | +| `q` | FLOAT | いいえ | 0.0 - 10.0 | クエリコンポーネントの乗算係数(デフォルト: 1.0) | +| `k` | FLOAT | いいえ | 0.0 - 10.0 | キーコンポーネントの乗算係数(デフォルト: 1.0) | +| `v` | FLOAT | いいえ | 0.0 - 10.0 | バリューコンポーネントの乗算係数(デフォルト: 1.0) | +| `out` | FLOAT | いいえ | 0.0 - 10.0 | 出力コンポーネントの乗算係数(デフォルト: 1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `MODEL` | MODEL | 注意コンポーネントがスケーリングされた UNet モデル | \ No newline at end of file diff --git a/ja/built-in-nodes/UNetTemporalAttentionMultiply.mdx b/ja/built-in-nodes/UNetTemporalAttentionMultiply.mdx new file mode 100644 index 000000000..bf2e5718c --- /dev/null +++ b/ja/built-in-nodes/UNetTemporalAttentionMultiply.mdx @@ -0,0 +1,30 @@ +--- +title: "UNetTemporalAttentionMultiply - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における UNetTemporalAttentionMultiply ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "UNetTemporalAttentionMultiply" +icon: "circle" +mode: wide +translationSourceHash: e4f1d565 +translationFrom: built-in-nodes/UNetTemporalAttentionMultiply.mdx, zh-CN/built-in-nodes/UNetTemporalAttentionMultiply.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/UNetTemporalAttentionMultiply/en.md) + +UNetTemporalAttentionMultiply ノードは、時系列(テンポラル)UNet モデル内のさまざまな種類のアテンション機構に乗算係数を適用します。このノードは、自己アテンションおよびクロスアテンション層の重みを調整することでモデルを変更し、構造成分と時系列成分を区別します。これにより、各アテンションタイプがモデル出力に与える影響の度合いを微調整することが可能になります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | アテンション乗算係数を適用して修正する入力モデル | +| `self_structural` | FLOAT | いいえ | 0.0 - 10.0 | 自己アテンションの構造成分に対する乗算係数(デフォルト:1.0) | +| `self_temporal` | FLOAT | いいえ | 0.0 - 10.0 | 自己アテンションの時系列成分に対する乗算係数(デフォルト:1.0) | +| `cross_structural` | FLOAT | いいえ | 0.0 - 10.0 | クロスアテンションの構造成分に対する乗算係数(デフォルト:1.0) | +| `cross_temporal` | FLOAT | いいえ | 0.0 - 10.0 | クロスアテンションの時系列成分に対する乗算係数(デフォルト:1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | アテンション重みを調整済みの修正済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/USOStyleReference.mdx b/ja/built-in-nodes/USOStyleReference.mdx new file mode 100644 index 000000000..f9d59a7e9 --- /dev/null +++ b/ja/built-in-nodes/USOStyleReference.mdx @@ -0,0 +1,26 @@ +--- +title: "USOStyleReference - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における USOStyleReference ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "USOStyleReference" +icon: "circle" +mode: wide +translationSourceHash: 102cb4d4 +translationFrom: built-in-nodes/USOStyleReference.mdx, zh-CN/built-in-nodes/USOStyleReference.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/USOStyleReference/en.md) + +USOStyleReference ノードは、CLIP ビジョン出力から抽出されたエンコード済み画像特徴を用いて、モデルにスタイル参照パッチを適用します。このノードは、視覚入力から抽出されたスタイル情報を基に入力モデルを変更したバージョンを作成し、スタイル転送や参照ベースの生成機能を実現します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | スタイル参照パッチを適用するベースモデル | +| `model_patch` | MODEL_PATCH | はい | - | スタイル参照情報を含むモデルパッチ | +| `clip_vision_output` | CLIP_VISION_OUTPUT | はい | - | CLIP ビジョン処理から抽出されたエンコード済み視覚特徴 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | スタイル参照パッチが適用された修正済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/UpscaleModelLoader.mdx b/ja/built-in-nodes/UpscaleModelLoader.mdx new file mode 100644 index 000000000..d6824658d --- /dev/null +++ b/ja/built-in-nodes/UpscaleModelLoader.mdx @@ -0,0 +1,24 @@ +--- +title: "UpscaleModelLoader - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における UpscaleModelLoader ノードの完全なドキュメンテーションです。入力、出力、パラメータ、および使用方法について学びましょう。" +sidebarTitle: "UpscaleModelLoader" +icon: "circle" +mode: wide +translationSourceHash: 59eac25f +translationFrom: built-in-nodes/UpscaleModelLoader.mdx, zh-CN/built-in-nodes/UpscaleModelLoader.mdx +--- +このノードは、`ComfyUI/models/upscale_models` フォルダ内に配置されたモデルを検出し、さらに `extra_model_paths.yaml` ファイルで設定された追加のパスからもモデルを読み込みます。場合によっては、対応するフォルダ内のモデルファイルを読み込むために、**ComfyUI インターフェースを更新する**必要があります。 + +UpscaleModelLoader ノードは、指定されたディレクトリから拡大(アップスケール)モデルを読み込むことを目的として設計されています。画像の解像度を向上させる(アップスケール)タスクにおいて、モデルの検索・準備を容易にし、評価に必要な状態で正しく読み込まれ・設定されることを保証します。 + +## 入力 + +| フィールド | Comfy データ型 | 説明 | +|--------------------|---------------------|------------------------------------------------------------------------------------------| +| `model_name` | `COMBO[STRING]` | 読み込む拡大モデルの名前を指定します。これにより、拡大モデルディレクトリから適切なモデルファイルを識別・取得します。 | + +## 出力 + +| フィールド | Comfy データ型 | 説明 | +|---------------------|-----------------------|----------------------------------------------------------------------------------------| +| `upscale_model` | `UPSCALE_MODEL` | 読み込み・準備が完了した拡大モデルを返します。画像のアップスケール処理にすぐに利用可能です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/VAEDecode.mdx b/ja/built-in-nodes/VAEDecode.mdx new file mode 100644 index 000000000..6070e966c --- /dev/null +++ b/ja/built-in-nodes/VAEDecode.mdx @@ -0,0 +1,24 @@ +--- +title: "VAEDecode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における VAEDecode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "VAEDecode" +icon: "circle" +mode: wide +translationSourceHash: 09c62476 +translationFrom: built-in-nodes/VAEDecode.mdx, zh-CN/built-in-nodes/VAEDecode.mdx +--- + +VAEDecode ノードは、指定された変分オートエンコーダ(VAE)を用いて潜在表現を画像にデコードすることを目的として設計されています。このノードは、圧縮されたデータ表現から画像を生成し、潜在空間におけるエンコーディングから画像を再構築することを支援します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `samples` | `LATENT` | `samples` パラメーターは、画像へとデコードされる潜在表現を表します。デコード処理において極めて重要であり、画像の再構築に必要な圧縮データを提供します。 | +| `vae` | VAE | `vae` パラメーターは、潜在表現を画像へとデコードする際に使用する変分オートエンコーダモデルを指定します。デコード方式および再構築画像の品質を決定する上で不可欠です。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `image` | `IMAGE` | 出力は、指定された VAE モデルを用いて与えられた潜在表現から再構築された画像です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/VAEDecodeAudio.mdx b/ja/built-in-nodes/VAEDecodeAudio.mdx new file mode 100644 index 000000000..91d0c89a3 --- /dev/null +++ b/ja/built-in-nodes/VAEDecodeAudio.mdx @@ -0,0 +1,27 @@ +--- +title: "VAEDecodeAudio - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の VAEDecodeAudio ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "VAEDecodeAudio" +icon: "circle" +mode: wide +translationSourceHash: debdbf25 +translationFrom: built-in-nodes/VAEDecodeAudio.mdx, zh-CN/built-in-nodes/VAEDecodeAudio.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/VAEDecodeAudio/en.md) + +VAEDecodeAudio ノードは、変分自己符号化器(Variational Autoencoder:VAE)を用いて潜在表現を再び音声波形に変換します。このノードは符号化済みの音声サンプルを受け取り、VAE を通じて元の音声を再構築し、出力レベルを一定に保つための正規化処理を適用します。結果として得られる音声は、標準的なサンプリングレート 44100 Hz で出力されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `samples` | LATENT | はい | - | 潜在空間内に符号化された音声サンプル。これを音声波形へと復号化します | +| `vae` | VAE | はい | - | 潜在サンプルを音声へと復号化するために用いる変分自己符号化器モデル | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `AUDIO` | AUDIO | 正規化された音量と 44100 Hz のサンプリングレートを持つ復号化済み音声波形 | \ No newline at end of file diff --git a/ja/built-in-nodes/VAEDecodeAudioTiled.mdx b/ja/built-in-nodes/VAEDecodeAudioTiled.mdx new file mode 100644 index 000000000..6543f1b86 --- /dev/null +++ b/ja/built-in-nodes/VAEDecodeAudioTiled.mdx @@ -0,0 +1,27 @@ +--- +title: "VAEDecodeAudioTiled - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における VAEDecodeAudioTiled ノードの完全なドキュメントです。入力、出力、パラメータおよび使用方法について学びましょう。" +sidebarTitle: "VAEDecodeAudioTiled" +icon: "circle" +mode: wide +translationSourceHash: 31f85196 +translationFrom: built-in-nodes/VAEDecodeAudioTiled.mdx, zh-CN/built-in-nodes/VAEDecodeAudioTiled.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/VAEDecodeAudioTiled/en.md) + +このノードは、変分自己符号化器(VAE)を用いて、圧縮された音声表現(潜在サンプル)を元の音声波形に復号化します。メモリ使用量を管理するため、データをより小さく、かつ重複するセクション(タイル)に分割して処理します。これにより、長時間の音声シーケンスを扱うのに適しています。 + +## 入力 + +| パラメータ | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `samples` | LATENT | はい | 該当なし | 復号化対象の音声の圧縮済み潜在表現です。 | +| `vae` | VAE | はい | 該当なし | 復号化処理を行うために使用される変分自己符号化器モデルです。 | +| `tile_size` | INT | いいえ | 32 ~ 8192 | 各処理タイルのサイズです。メモリ消費を抑えるため、音声をこの長さのセクション単位で復号化します(デフォルト値:512)。 | +| `overlap` | INT | いいえ | 0 ~ 1024 | 隣接するタイル間で重複させるサンプル数です。これにより、タイル境界部に生じるアーティファクトを低減できます(デフォルト値:64)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | AUDIO | 復号化された音声波形です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/VAEDecodeHunyuan3D.mdx b/ja/built-in-nodes/VAEDecodeHunyuan3D.mdx new file mode 100644 index 000000000..14bd1697f --- /dev/null +++ b/ja/built-in-nodes/VAEDecodeHunyuan3D.mdx @@ -0,0 +1,29 @@ +--- +title: "VAEDecodeHunyuan3D - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における VAEDecodeHunyuan3D ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "VAEDecodeHunyuan3D" +icon: "circle" +mode: wide +translationSourceHash: a625cd7f +translationFrom: built-in-nodes/VAEDecodeHunyuan3D.mdx, zh-CN/built-in-nodes/VAEDecodeHunyuan3D.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションはAIによって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください![GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/VAEDecodeHunyuan3D/en.md) + +VAEDecodeHunyuan3D ノードは、VAEデコーダーを用いて潜在表現を3Dボクセルデータに変換します。このノードでは、メモリ管理のための可変サイズのチャンキング処理と解像度設定を指定可能であり、3Dアプリケーション向けに最適化された体積データ(ボリューメトリック・データ)を生成するために、潜在サンプルをVAEモデルで処理します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `samples` | LATENT | はい | - | 3Dボクセルデータへデコードされる潜在表現 | +| `vae` | VAE | はい | - | 潜在サンプルのデコードに使用されるVAEモデル | +| `num_chunks` | INT | はい | 1000–500000 | メモリ管理のため処理を分割するチャンク数(デフォルト:8000) | +| `octree_resolution` | INT | はい | 16–512 | 3Dボクセル生成に用いるオクツリー構造の解像度(デフォルト:256) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `voxels` | VOXEL | デコード済み潜在表現から生成された3Dボクセルデータ | \ No newline at end of file diff --git a/ja/built-in-nodes/VAEDecodeTiled.mdx b/ja/built-in-nodes/VAEDecodeTiled.mdx new file mode 100644 index 000000000..417112ed7 --- /dev/null +++ b/ja/built-in-nodes/VAEDecodeTiled.mdx @@ -0,0 +1,33 @@ +--- +title: "VAEDecodeTiled - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の VAEDecodeTiled ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "VAEDecodeTiled" +icon: "circle" +mode: wide +translationSourceHash: 349f6624 +translationFrom: built-in-nodes/VAEDecodeTiled.mdx, zh-CN/built-in-nodes/VAEDecodeTiled.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/VAEDecodeTiled/en.md) + +VAEDecodeTiled ノードは、大規模な画像を効率的に処理するために「タイル(分塊)方式」を用いて潜在表現を画像にデコードします。このノードは入力を小さなタイルに分割して処理することで、メモリ使用量を抑えつつ画像品質を維持します。また、動画用 VAE にも対応しており、滑らかなトランジションを実現するために、時間方向のフレームを重複付きのチャンク単位で処理します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `samples` | LATENT | はい | - | 画像へデコードされる潜在表現 | +| `vae` | VAE | はい | - | 潜在サンプルのデコードに使用される VAE モデル | +| `tile_size` | INT | はい | 64–4096(ステップ: 32) | 処理時の各タイルのサイズ(デフォルト: 512) | +| `overlap` | INT | はい | 0–4096(ステップ: 32) | 隣接するタイル間の重複量(デフォルト: 64) | +| `temporal_size` | INT | はい | 8–4096(ステップ: 4) | 動画用 VAE 専用:一度にデコードするフレーム数(デフォルト: 64) | +| `temporal_overlap` | INT | はい | 4–4096(ステップ: 4) | 動画用 VAE 専用:フレーム間の重複量(デフォルト: 8) | + +**注意:** 重複値が実用上の制限を超えた場合、ノードは自動的にその値を調整します。`tile_size` が `overlap` の 4 倍未満の場合、重複量はタイルサイズの 1/4 に減少されます。同様に、`temporal_size` が `temporal_overlap` の 2 倍未満の場合、時間方向の重複量は半分になります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `IMAGE` | IMAGE | 潜在表現からデコードされた画像(1 枚または複数枚) | \ No newline at end of file diff --git a/ja/built-in-nodes/VAEEncode.mdx b/ja/built-in-nodes/VAEEncode.mdx new file mode 100644 index 000000000..27377edc6 --- /dev/null +++ b/ja/built-in-nodes/VAEEncode.mdx @@ -0,0 +1,24 @@ +--- +title: "VAEEncode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における VAEEncode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "VAEEncode" +icon: "circle" +mode: wide +translationSourceHash: 175ffb73 +translationFrom: built-in-nodes/VAEEncode.mdx, zh-CN/built-in-nodes/VAEEncode.mdx +--- + +このノードは、指定された変分自己符号化器(VAE)モデルを用いて、画像を潜在空間表現にエンコードするためのものです。エンコード処理の複雑さを抽象化し、画像をその潜在表現へと直接変換するシンプルな方法を提供します。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `pixels` | `IMAGE` | `pixels` パラメーターは、潜在空間へエンコードされる画像データを表します。エンコード処理への直接的な入力として機能し、出力される潜在表現を決定する上で極めて重要な役割を果たします。 | +| `vae` | `VAE` | `vae` パラメーターは、画像データを潜在空間へエンコードするために使用する変分自己符号化器(VAE)モデルを指定します。生成される潜在表現のエンコード機構および特徴を定義する上で不可欠です。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|-----------|-------------|-------------| +| `latent` | `LATENT` | 出力は入力画像の潜在空間表現であり、画像の本質的な特徴を圧縮された形式でカプセル化しています。 | \ No newline at end of file diff --git a/ja/built-in-nodes/VAEEncodeAudio.mdx b/ja/built-in-nodes/VAEEncodeAudio.mdx new file mode 100644 index 000000000..4806e574b --- /dev/null +++ b/ja/built-in-nodes/VAEEncodeAudio.mdx @@ -0,0 +1,27 @@ +--- +title: "VAEEncodeAudio - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における VAEEncodeAudio ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "VAEEncodeAudio" +icon: "circle" +mode: wide +translationSourceHash: af2596fd +translationFrom: built-in-nodes/VAEEncodeAudio.mdx, zh-CN/built-in-nodes/VAEEncodeAudio.mdx +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/VAEEncodeAudio/en.md) + +VAEEncodeAudio ノードは、変分オートエンコーダ(VAE)を用いて音声データを潜在表現に変換します。このノードは音声入力を受信し、VAE を通じて処理することで、圧縮された潜在サンプルを生成します。これらの潜在サンプルは、その後の音声生成や音声処理などのタスクに利用できます。また、必要に応じて、エンコード前に音声を自動的に 44100 Hz にリサンプリングします。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `audio` | AUDIO | はい | - | エンコード対象の音声データ。波形およびサンプルレート情報を含む | +| `vae` | VAE | はい | - | 音声を潜在空間へエンコードするために使用される変分オートエンコーダモデル | + +**注意:** 元のサンプルレートが 44100 Hz と異なる場合、音声入力は自動的に 44100 Hz へリサンプリングされます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `LATENT` | LATENT | 潜在空間におけるエンコード済み音声表現。圧縮されたサンプルを含む | \ No newline at end of file diff --git a/ja/built-in-nodes/VAEEncodeForInpaint.mdx b/ja/built-in-nodes/VAEEncodeForInpaint.mdx new file mode 100644 index 000000000..c6c9a2c5e --- /dev/null +++ b/ja/built-in-nodes/VAEEncodeForInpaint.mdx @@ -0,0 +1,28 @@ +--- +title: "VAEEncodeForInpaint - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUIにおけるVAEEncodeForInpaintノードの完全なドキュメントです。入力、出力、パラメータおよび使用方法について学びましょう。" +sidebarTitle: "VAEEncodeForInpaint" +icon: "circle" +mode: wide +translationSourceHash: 34701c75 +translationFrom: built-in-nodes/VAEEncodeForInpaint.mdx, zh-CN/built-in-nodes/VAEEncodeForInpaint.mdx +translationMismatches: + - "description" +--- + +このノードは、画像を修復(インペインティング)タスクに適した潜在表現へエンコードするためのものであり、VAEモデルによる最適なエンコードを実現するために、入力画像およびマスクに対して追加の前処理ステップを実行します。 + +## 入力 + +| パラメータ | データ型 | 説明 | +|-----------|----------|------| +| `pixels` | `IMAGE` | エンコード対象の入力画像です。この画像は、エンコード前に前処理およびリサイズが行われ、VAEモデルが想定する入力サイズに合わせられます。 | +| `vae` | `VAE` | 画像をその潜在表現へエンコードする際に用いるVAEモデルです。変換プロセスにおいて極めて重要な役割を果たし、出力される潜在空間の品質および特性を決定します。 | +| `mask` | `MASK` | 入力画像のうち修復対象となる領域を示すマスクです。エンコード前の画像修正に用いられ、VAEが関連性の高い領域に焦点を当てられるようにします。 | +| `grow_mask_by` | `INT` | 潜在空間内でのシームレスな遷移を保証するために、修復マスクをどの程度拡張するかを指定します。値が大きいほど、修復処理の影響範囲が広がります。 | + +## 出力 + +| パラメータ | データ型 | 説明 | +|-----------|----------|------| +| `latent` | `LATENT` | 出力には、画像のエンコード済み潜在表現とノイズマスクが含まれます。これらは、その後の修復タスクにおいていずれも不可欠な要素です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/VAEEncodeTiled.mdx b/ja/built-in-nodes/VAEEncodeTiled.mdx new file mode 100644 index 000000000..0a3fc6f88 --- /dev/null +++ b/ja/built-in-nodes/VAEEncodeTiled.mdx @@ -0,0 +1,31 @@ +--- +title: "VAEEncodeTiled - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における VAEEncodeTiled ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "VAEEncodeTiled" +icon: "circle" +mode: wide +translationSourceHash: 65cbc032 +translationFrom: built-in-nodes/VAEEncodeTiled.mdx, zh-CN/built-in-nodes/VAEEncodeTiled.mdx +--- +> このドキュメンテーションはAIによって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHubで編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/VAEEncodeTiled/en.md) + +VAEEncodeTiled ノードは、画像を小さなタイル(図塊)に分割し、変分オートエンコーダ(VAE)を用いてそれぞれをエンコードすることで画像を処理します。このタイル化アプローチにより、通常のメモリ制限を超える可能性のある大規模な画像も処理できます。本ノードは画像用VAEおよび動画用VAEの両方をサポートしており、空間次元と時間次元に対してそれぞれ独立したタイル化制御が可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `pixels` | IMAGE | はい | - | エンコード対象の入力画像データ | +| `vae` | VAE | はい | - | エンコードに使用する変分オートエンコーダモデル | +| `tile_size` | INT | はい | 64–4096(ステップ: 64) | 空間処理における各タイルのサイズ(デフォルト: 512) | +| `overlap` | INT | はい | 0–4096(ステップ: 32) | 隣接するタイル間の重なり量(デフォルト: 64) | +| `temporal_size` | INT | はい | 8–4096(ステップ: 4) | 動画用VAEのみで使用:一度にエンコードするフレーム数(デフォルト: 64) | +| `temporal_overlap` | INT | はい | 4–4096(ステップ: 4) | 動画用VAEのみで使用:重ね合わせるフレーム数(デフォルト: 8) | + +**注意:** `temporal_size` および `temporal_overlap` パラメーターは、動画用VAEを使用する場合にのみ有効であり、標準の画像用VAEでは無視されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `LATENT` | LATENT | 入力画像をエンコードした結果得られる潜在表現 | \ No newline at end of file diff --git a/ja/built-in-nodes/VAELoader.mdx b/ja/built-in-nodes/VAELoader.mdx new file mode 100644 index 000000000..3ee13db5c --- /dev/null +++ b/ja/built-in-nodes/VAELoader.mdx @@ -0,0 +1,24 @@ +--- +title: "VAELoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における VAELoader ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "VAELoader" +icon: "circle" +mode: wide +translationSourceHash: 7bdbf9ae +translationFrom: built-in-nodes/VAELoader.mdx, zh-CN/built-in-nodes/VAELoader.mdx +--- +このノードは、`ComfyUI/models/vae` フォルダー内に配置されたモデルを検出し、さらに `extra_model_paths.yaml` ファイルで設定された追加パス上のモデルも読み込みます。場合によっては、対応するフォルダー内のモデルファイルを読み込むために、**ComfyUI インターフェースを更新する**必要があります。 + +VAELoader ノードは、変分自己符号化器(Variational Autoencoder: VAE)モデルを読み込むことを目的として設計されており、標準型および近似型の両方の VAE を処理するよう特別に最適化されています。名前による VAE の読み込みをサポートし、`taesd` や `taesdxl` といった特殊なモデルにも対応しています。また、VAE の具体的な構成に応じて動的に動作を調整します。 + +## 入力 + +| フィールド | Comfy dtype | 説明 | +|----------------|-------------------|--------------------------------------------------------------------------------------------------------------------------------------| +| `vae_name` | `COMBO[STRING]` | 読み込む VAE の名称を指定します。これにより、どの VAE モデルが取得・読み込まれるかが決定されます。`taesd` や `taesdxl` を含む、あらかじめ定義された複数の VAE 名がサポートされています。 | + +## 出力 + +| フィールド | データ型 | 説明 | +|------------|----------|-----------------------------------------------------------------------------------------------------------------------------------------| +| `vae` | `VAE` | 読み込まれた VAE モデルを返します。エンコーディングやデコーディングなどの後続処理にすぐに利用可能です。出力は、読み込まれたモデルの状態をカプセル化したモデルオブジェクトです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/VAESave.mdx b/ja/built-in-nodes/VAESave.mdx new file mode 100644 index 000000000..01c1f7a42 --- /dev/null +++ b/ja/built-in-nodes/VAESave.mdx @@ -0,0 +1,22 @@ +--- +title: "VAESave - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における VAESave ノードの完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "VAESave" +icon: "circle" +mode: wide +translationSourceHash: cca249ac +translationFrom: built-in-nodes/VAESave.mdx, zh-CN/built-in-nodes/VAESave.mdx +--- + +VAESave ノードは、変分自己符号化器(VAE)モデルおよびそのメタデータ(プロンプトや追加の PNG 情報を含む)を指定された出力ディレクトリに保存することを目的としています。このノードは、モデルの状態および関連情報をファイルへとシリアライズする機能をカプセル化しており、訓練済みモデルの保存および共有を容易にします。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `vae` | VAE | 保存対象の VAE モデルです。このパラメーターは極めて重要であり、シリアライズおよび保存されるモデルの状態を表します。 | +| `filename_prefix` | STRING | モデルおよびそのメタデータを保存する際のファイル名のプレフィックスです。これにより、整理された保存とモデルの容易な検索が可能になります。 | + +## 出力 + +このノードには出力タイプがありません。 \ No newline at end of file diff --git a/ja/built-in-nodes/VPScheduler.mdx b/ja/built-in-nodes/VPScheduler.mdx new file mode 100644 index 000000000..5d96942b4 --- /dev/null +++ b/ja/built-in-nodes/VPScheduler.mdx @@ -0,0 +1,26 @@ +--- +title: "VPScheduler - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUIにおけるVPSchedulerノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "VPScheduler" +icon: "circle" +mode: wide +translationSourceHash: e202b89d +translationFrom: built-in-nodes/VPScheduler.mdx, zh-CN/built-in-nodes/VPScheduler.mdx +--- + +VPSchedulerノードは、分散(分散保持:Variance Preserving, VP)スケジューリング手法に基づいて一連のノイズレベル(シグマ)を生成することを目的として設計されています。このシーケンスは、拡散モデルにおけるデノイジングプロセスを制御する上で不可欠であり、画像やその他のデータタイプの生成を精密に調整可能にします。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|--------------|------------|-------------------------------------------------------------------------------------------------------------------------------------------| +| `steps` | INT | 拡散プロセスにおけるステップ数を指定し、生成されるノイズレベルの粒度に影響を与えます。 | +| `beta_d` | FLOAT | 全体的なノイズレベル分布を決定し、生成されるノイズレベルの分散(ばらつき)に影響を与えます。 | +| `beta_min` | FLOAT | ノイズレベルの下限境界を設定し、ノイズが特定のしきい値を下回らないように保証します。 | +| `eps_s` | FLOAT | 初期のepsilon値を調整し、拡散プロセスにおける初期ノイズレベルを微調整します。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|--------------|------------|------------------------------------------------------------------------------------------------------------------------------------| +| `sigmas` | SIGMAS | VPスケジューリング手法に基づいて生成された一連のノイズレベル(シグマ)で、拡散モデルにおけるデノイジングプロセスを制御するために使用されます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Veo3FirstLastFrameNode.mdx b/ja/built-in-nodes/Veo3FirstLastFrameNode.mdx new file mode 100644 index 000000000..c0b87ac9f --- /dev/null +++ b/ja/built-in-nodes/Veo3FirstLastFrameNode.mdx @@ -0,0 +1,35 @@ +--- +title: "Veo3FirstLastFrameNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における Veo3FirstLastFrameNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Veo3FirstLastFrameNode" +icon: "circle" +mode: wide +translationSourceHash: a849fd01 +translationFrom: built-in-nodes/Veo3FirstLastFrameNode.mdx, zh-CN/built-in-nodes/Veo3FirstLastFrameNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Veo3FirstLastFrameNode/en.md) + +Veo3FirstLastFrameNode は Google の Veo 3 モデルを用いて動画を生成します。テキストプロンプトに基づき動画を作成し、指定された最初のフレーム(first frame)と最後のフレーム(last frame)を用いて、動画の開始および終了を制御します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | N/A | 動画のテキストによる説明(デフォルト:空文字列)。 | +| `negative_prompt` | STRING | いいえ | N/A | 動画内で回避すべき内容を指示するネガティブプロンプト(デフォルト:空文字列)。 | +| `resolution` | COMBO | はい | `"720p"`
`"1080p"` | 出力動画の解像度。 | +| `aspect_ratio` | COMBO | いいえ | `"16:9"`
`"9:16"` | 出力動画のアスペクト比(デフォルト:`"16:9"`)。 | +| `duration` | INT | いいえ | 4 ~ 8 | 出力動画の再生時間(秒単位)(デフォルト:8)。 | +| `seed` | INT | いいえ | 0 ~ 4294967295 | 動画生成時の乱数シード(デフォルト:0)。 | +| `first_frame` | IMAGE | はい | N/A | 動画の開始フレーム。 | +| `last_frame` | IMAGE | はい | N/A | 動画の終了フレーム。 | +| `model` | COMBO | いいえ | `"veo-3.1-generate"`
`"veo-3.1-fast-generate"` | 使用する特定の Veo 3 モデル(デフォルト:`"veo-3.1-fast-generate"`)。 | +| `generate_audio` | BOOLEAN | いいえ | N/A | 動画に音声を付与するかどうか(デフォルト:True)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画ファイル。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Veo3VideoGenerationNode.mdx b/ja/built-in-nodes/Veo3VideoGenerationNode.mdx new file mode 100644 index 000000000..5a73b9353 --- /dev/null +++ b/ja/built-in-nodes/Veo3VideoGenerationNode.mdx @@ -0,0 +1,37 @@ +--- +title: "Veo3VideoGenerationNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の Veo3VideoGenerationNode ノードに関する完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "Veo3VideoGenerationNode" +icon: "circle" +mode: wide +translationSourceHash: ebb22fe5 +translationFrom: built-in-nodes/Veo3VideoGenerationNode.mdx, zh-CN/built-in-nodes/Veo3VideoGenerationNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善のための提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Veo3VideoGenerationNode/en.md) + +Google の Veo 3 API を使用してテキストプロンプトから動画を生成します。このノードは、`veo-3.0-generate-001` および `veo-3.0-fast-generate-001` の 2 種類の Veo 3 モデルをサポートしています。基本的な Veo ノードを拡張し、音声生成や固定の 8 秒間の再生時間といった Veo 3 固有の機能を追加しています。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | 動画のテキストによる説明(デフォルト:"") | +| `aspect_ratio` | COMBO | はい | "16:9"
"9:16" | 出力動画のアスペクト比(デフォルト:"16:9") | +| `negative_prompt` | STRING | いいえ | - | 動画内で回避すべき内容を指示するネガティブなテキストプロンプト(デフォルト:"") | +| `duration_seconds` | INT | いいえ | 8-8 | 出力動画の再生時間(秒単位)(Veo 3 では 8 秒のみ対応)(デフォルト:8) | +| `enhance_prompt` | BOOLEAN | いいえ | - | AI を用いてプロンプトを強化するかどうか(デフォルト:True) | +| `person_generation` | COMBO | いいえ | "ALLOW"
"BLOCK" | 動画内に人物を生成することを許可するかどうか(デフォルト:"ALLOW") | +| `seed` | INT | いいえ | 0-4294967295 | 動画生成のシード値(0 の場合、ランダム)(デフォルト:0) | +| `image` | IMAGE | いいえ | - | 動画生成を補助するための任意の参照画像 | +| `model` | COMBO | いいえ | "veo-3.0-generate-001"
"veo-3.0-fast-generate-001" | 動画生成に使用する Veo 3 モデル(デフォルト:"veo-3.0-generate-001") | +| `generate_audio` | BOOLEAN | いいえ | - | 動画に対して音声を生成します。すべての Veo 3 モデルでサポートされています。(デフォルト:False) | + +**注意:** `duration_seconds` パラメーターは、すべての Veo 3 モデルにおいて固定で 8 秒であり、変更できません。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画ファイル | \ No newline at end of file diff --git a/ja/built-in-nodes/VeoVideoGenerationNode.mdx b/ja/built-in-nodes/VeoVideoGenerationNode.mdx new file mode 100644 index 000000000..8406fd7d1 --- /dev/null +++ b/ja/built-in-nodes/VeoVideoGenerationNode.mdx @@ -0,0 +1,36 @@ +--- +title: "VeoVideoGenerationNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の VeoVideoGenerationNode ノードに関する完全なドキュメントです。入力、出力、パラメーター、および使い方について学びましょう。" +sidebarTitle: "VeoVideoGenerationNode" +icon: "circle" +mode: wide +translationSourceHash: 0c801567 +translationFrom: built-in-nodes/VeoVideoGenerationNode.mdx, zh-CN/built-in-nodes/VeoVideoGenerationNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/VeoVideoGenerationNode/en.md) + +Google の Veo API を使用してテキストプロンプトから動画を生成します。このノードでは、テキストによる説明および任意の画像入力をもとに動画を作成でき、アスペクト比や再生時間などのパラメーターを制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `prompt` | STRING | はい | - | 動画のテキストによる説明(デフォルト:空) | +| `aspect_ratio` | COMBO | はい | "16:9"
"9:16" | 出力動画のアスペクト比(デフォルト:"16:9") | +| `negative_prompt` | STRING | いいえ | - | 動画内で回避すべき内容を指示するネガティブなテキストプロンプト(デフォルト:空) | +| `duration_seconds` | INT | いいえ | 5–8 | 出力動画の再生時間(秒単位)(デフォルト:5) | +| `enhance_prompt` | BOOLEAN | いいえ | - | AI を用いてプロンプトを強化するかどうか(デフォルト:True) | +| `person_generation` | COMBO | いいえ | "ALLOW"
"BLOCK" | 動画内に人物を生成することを許可するかどうか(デフォルト:"ALLOW") | +| `seed` | INT | いいえ | 0–4294967295 | 動画生成のシード値(0 の場合、ランダム)(デフォルト:0) | +| `image` | IMAGE | いいえ | - | 動画生成を補助するための任意の参照画像 | +| `model` | COMBO | いいえ | "veo-2.0-generate-001" | 動画生成に使用する Veo 2 モデル(デフォルト:"veo-2.0-generate-001") | + +**注意:** `generate_audio` パラメーターは Veo 3.0 モデルでのみ利用可能であり、選択されたモデルに応じてノードが自動的に処理します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画ファイル | \ No newline at end of file diff --git a/ja/built-in-nodes/Video Slice.mdx b/ja/built-in-nodes/Video Slice.mdx new file mode 100644 index 000000000..e8a48d4c8 --- /dev/null +++ b/ja/built-in-nodes/Video Slice.mdx @@ -0,0 +1,29 @@ +--- +title: "Video Slice - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の Video Slice ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Video Slice" +icon: "circle" +mode: wide +translationSourceHash: ae525792 +translationFrom: built-in-nodes/Video Slice.mdx, zh-CN/built-in-nodes/Video Slice.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Video%20Slice/en.md) + +Video Slice ノードを使用すると、動画から特定のセグメントを抽出できます。開始時刻と持続時間を指定して動画をトリミングするか、単に先頭のフレームをスキップすることができます。要求された持続時間が残りの動画長より長い場合、このノードは利用可能な範囲の動画を返すか、エラーを発生させます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `video` | VIDEO | はい | - | トリミング対象の入力動画です。 | +| `start_time` | FLOAT | いいえ | -1e5 ~ 1e5 | トリミングを開始する時刻(単位:秒)です。負の値を指定すると、動画の先頭から指定されたフレーム数をスキップします。(デフォルト:0.0) | +| `duration` | FLOAT | いいえ | 0.0 以上 | トリミングするセグメントの長さ(単位:秒)です。値が 0.0 の場合、ノードは開始時刻から動画終了まですべてのフレームを返します。(デフォルト:0.0) | +| `strict_duration` | BOOLEAN | いいえ | - | `True` に設定すると、要求された持続時間を満たせない場合(例:トリミング範囲が動画の終了を超える場合)にエラーを発生させます。`False` の場合、動画終了までに利用可能な範囲の動画を返します。(デフォルト:False) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `video` | VIDEO | トリミング後の動画セグメントです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/VideoLinearCFGGuidance.mdx b/ja/built-in-nodes/VideoLinearCFGGuidance.mdx new file mode 100644 index 000000000..86f71fec2 --- /dev/null +++ b/ja/built-in-nodes/VideoLinearCFGGuidance.mdx @@ -0,0 +1,26 @@ +--- +title: "VideoLinearCFGGuidance - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における VideoLinearCFGGuidance ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "VideoLinearCFGGuidance" +icon: "circle" +mode: wide +translationSourceHash: 6492b677 +translationFrom: built-in-nodes/VideoLinearCFGGuidance.mdx, zh-CN/built-in-nodes/VideoLinearCFGGuidance.mdx +translationMismatches: + - "description" +--- + +VideoLinearCFGGuidance ノードは、動画モデルに対して線形の条件付きガイドランスケール(CFG)を適用し、指定された範囲内で条件付き成分と非条件付き成分の影響度を調整します。これにより、生成プロセスを動的に制御でき、所望の条件付けレベルに応じてモデル出力を微調整することが可能になります。 + +## 入力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `model` | MODEL | この `model` パラメーターは、線形 CFG ガイダンスを適用する対象となる動画モデルを表します。ガイダンススケールによって修正される基盤モデルを定義する上で不可欠です。 | +| `min_cfg` | `FLOAT` | `min_cfg` パラメーターは、線形スケール調整の開始点となる最小の条件付きガイドランスケールを指定します。これはガイドランスケールの下限を決定する上で重要な役割を果たし、モデル出力に影響を与えます。 | + +## 出力 + +| パラメーター | データ型 | 説明 | +|------------|----------|------| +| `model` | MODEL | 出力は、線形 CFG ガイダンススケールが適用された入力モデルの変更版です。この調整済みモデルは、指定されたガイドランスケールに基づいて、異なる条件付け強度で出力を生成できます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/VideoTriangleCFGGuidance.mdx b/ja/built-in-nodes/VideoTriangleCFGGuidance.mdx new file mode 100644 index 000000000..96c8c06ce --- /dev/null +++ b/ja/built-in-nodes/VideoTriangleCFGGuidance.mdx @@ -0,0 +1,27 @@ +--- +title: "VideoTriangleCFGGuidance - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における VideoTriangleCFGGuidance ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "VideoTriangleCFGGuidance" +icon: "circle" +mode: wide +translationSourceHash: 68261522 +translationFrom: built-in-nodes/VideoTriangleCFGGuidance.mdx, zh-CN/built-in-nodes/VideoTriangleCFGGuidance.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/VideoTriangleCFGGuidance/en.md) + +VideoTriangleCFGGuidance ノードは、動画モデルに三角形の分類器なしガイド(Classifier-Free Guidance: CFG)スケーリングパターンを適用します。このノードでは、最小 CFG 値と元の条件付けスケールの間で振動する三角波関数を用いて、時間経過に伴い条件付けスケールを変化させます。これにより、動画生成の一貫性および品質向上に寄与する動的なガイドパターンが実現されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | 三角形 CFG ガイドを適用する動画モデル | +| `min_cfg` | FLOAT | はい | 0.0 - 100.0 | 三角形パターンにおける最小 CFG スケール値(デフォルト: 1.0) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 三角形 CFG ガイドが適用された修正済みモデル | \ No newline at end of file diff --git a/ja/built-in-nodes/Vidu2ImageToVideoNode.mdx b/ja/built-in-nodes/Vidu2ImageToVideoNode.mdx new file mode 100644 index 000000000..17a49f994 --- /dev/null +++ b/ja/built-in-nodes/Vidu2ImageToVideoNode.mdx @@ -0,0 +1,38 @@ +--- +title: "Vidu2ImageToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における Vidu2ImageToVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Vidu2ImageToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 8db4b5ca +translationFrom: built-in-nodes/Vidu2ImageToVideoNode.mdx, zh-CN/built-in-nodes/Vidu2ImageToVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案がありましたら、ぜひ貢献してください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Vidu2ImageToVideoNode/en.md) + +Vidu2 画像から動画への生成ノード(Vidu2 Image-to-Video Generation node)は、単一の入力画像を起点として動画シーケンスを作成します。指定された Vidu2 モデルを用いて、オプションのテキストプロンプトに基づきシーンにアニメーションを適用し、動画の長さ、解像度、および動きの強さを制御します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"viduq2-pro-fast"`
`"viduq2-pro"`
`"viduq2-turbo"` | 動画生成に使用する Vidu2 モデルです。各モデルは速度と品質のトレードオフが異なります。 | +| `image` | IMAGE | はい | - | 生成される動画の開始フレームとして使用する画像です。1 枚のみ許可されます。 | +| `prompt` | STRING | いいえ | - | 動画生成のためのオプションのテキストプロンプト(最大 2000 文字)。デフォルトは空文字列です。 | +| `duration` | INT | はい | 1 ~ 10 | 生成される動画の長さ(秒単位)。デフォルトは 5 です。 | +| `seed` | INT | いいえ | 0 ~ 2147483647 | 再現可能な結果を保証するための乱数生成用シード値です。デフォルトは 1 です。 | +| `resolution` | COMBO | はい | `"720p"`
`"1080p"` | 生成される動画の出力解像度です。 | +| `movement_amplitude` | COMBO | はい | `"auto"`
`"small"`
`"medium"`
`"large"` | 画面内のオブジェクトの動きの振幅です。 | + +**制約条件:** + +* `image` 入力には、正確に 1 枚の画像のみを含める必要があります。 +* 入力画像のアスペクト比は 1:4 から 4:1 の範囲内である必要があります。 +* `prompt` テキストは最大 2000 文字までと制限されています。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画ファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Vidu2ReferenceVideoNode.mdx b/ja/built-in-nodes/Vidu2ReferenceVideoNode.mdx new file mode 100644 index 000000000..2d258c004 --- /dev/null +++ b/ja/built-in-nodes/Vidu2ReferenceVideoNode.mdx @@ -0,0 +1,42 @@ +--- +title: "Vidu2ReferenceVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における Vidu2ReferenceVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Vidu2ReferenceVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 2a674a9b +translationFrom: built-in-nodes/Vidu2ReferenceVideoNode.mdx, zh-CN/built-in-nodes/Vidu2ReferenceVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案がありましたら、ぜひ貢献してください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Vidu2ReferenceVideoNode/en.md) + +Vidu2 参照動画生成ノード(Vidu2 Reference-to-Video Generation node)は、テキストプロンプトと複数の参照画像から動画を生成します。最大7つの被写体(サブジェクト)を定義でき、それぞれに独自の参照画像セットを指定できます。プロンプト内では `@subject{subject_id}` を用いて各被写体を参照します。このノードでは、再生時間、アスペクト比、および動きの強さを設定可能な動画を生成できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"viduq2"` | 動画生成に使用する AI モデルです。 | +| `subjects` | AUTOGROW | はい | N/A | 各被写体に対して最大3枚の参照画像を指定します(全被写体の合計で最大7枚)。プロンプト内では `@subject{subject_id}` を用いて参照します。 | +| `prompt` | STRING | はい | N/A | 動画生成を制御するためのテキスト説明です。`audio` パラメーターが有効な場合、このプロンプトに基づいて生成された音声および背景音楽が動画に含まれます。 | +| `audio` | BOOLEAN | いいえ | N/A | 有効にすると、プロンプトに基づいて生成された音声および背景音楽が動画に含まれます(デフォルト値:`False`)。 | +| `duration` | INT | いいえ | 1 ~ 10 | 生成される動画の長さ(秒単位)です(デフォルト値:`5`)。 | +| `seed` | INT | いいえ | 0 ~ 2147483647 | 再現可能な結果を得るために生成のランダム性を制御する数値です(デフォルト値:`1`)。 | +| `aspect_ratio` | COMBO | いいえ | `"16:9"`
`"9:16"`
`"4:3"`
`"3:4"`
`"1:1"` | 動画フレームの形状(アスペクト比)です。 | +| `resolution` | COMBO | いいえ | `"720p"`
`"1080p"` | 出力動画のピクセル解像度です。 | +| `movement_amplitude` | COMBO | いいえ | `"auto"`
`"small"`
`"medium"`
`"large"` | フレーム内のオブジェクトの動きの大きさ(振幅)を制御します。 | + +**制約条件:** + +* `prompt` は 1 文字以上、2000 文字以下である必要があります。 +* 複数の被写体を定義できますが、すべての被写体の参照画像の合計枚数は 7 枚を超えてはいけません。 +* 各被写体には最大 3 枚の参照画像を指定できます。 +* 各参照画像の横縦比(アスペクト比)は 1:4 から 4:1 の範囲内である必要があります。 +* 各参照画像の幅および高さはともに最低 128 ピクセル以上である必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画ファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Vidu2StartEndToVideoNode.mdx b/ja/built-in-nodes/Vidu2StartEndToVideoNode.mdx new file mode 100644 index 000000000..05eb14228 --- /dev/null +++ b/ja/built-in-nodes/Vidu2StartEndToVideoNode.mdx @@ -0,0 +1,35 @@ +--- +title: "Vidu2StartEndToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における Vidu2StartEndToVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Vidu2StartEndToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 72144bf1 +translationFrom: built-in-nodes/Vidu2StartEndToVideoNode.mdx, zh-CN/built-in-nodes/Vidu2StartEndToVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Vidu2StartEndToVideoNode/en.md) + +このノードは、指定された開始フレームと終了フレームの間で補間処理を行い、テキストプロンプトの指示に基づいて動画を生成します。指定された Vidu モデルを用いて、設定された再生時間にわたって、2 枚の画像間の滑らかな遷移を実現します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"viduq2-pro-fast"`
`"viduq2-pro"`
`"viduq2-turbo"` | 動画生成に使用する Vidu モデル。 | +| `first_frame` | IMAGE | はい | - | 動画シーケンスの開始画像。単一の画像のみ許可されます。 | +| `end_frame` | IMAGE | はい | - | 動画シーケンスの終了画像。単一の画像のみ許可されます。 | +| `prompt` | STRING | はい | - | 動画生成をガイドするテキスト説明(最大 2000 文字)。 | +| `duration` | INT | いいえ | 2 ~ 8 | 生成される動画の長さ(秒単位)。デフォルト値:5。 | +| `seed` | INT | いいえ | 0 ~ 2147483647 | 再現可能な結果を得るためにランダム生成を初期化するための数値(デフォルト値:1)。 | +| `resolution` | COMBO | いいえ | `"720p"`
`"1080p"` | 生成される動画の出力解像度。 | +| `movement_amplitude` | COMBO | いいえ | `"auto"`
`"small"`
`"medium"`
`"large"` | フレーム内のオブジェクトの動きの振幅。 | + +**注意:** `first_frame` および `end_frame` の画像は、類似したアスペクト比を持つ必要があります。ノードは、これらのアスペクト比が相対的に 0.8 ~ 1.25 の範囲内にあるかを検証します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画ファイル。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Vidu2TextToVideoNode.mdx b/ja/built-in-nodes/Vidu2TextToVideoNode.mdx new file mode 100644 index 000000000..282f482ac --- /dev/null +++ b/ja/built-in-nodes/Vidu2TextToVideoNode.mdx @@ -0,0 +1,32 @@ +--- +title: "Vidu2TextToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における Vidu2TextToVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Vidu2TextToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: fbfd6fcf +translationFrom: built-in-nodes/Vidu2TextToVideoNode.mdx, zh-CN/built-in-nodes/Vidu2TextToVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Vidu2TextToVideoNode/en.md) + +Vidu2 テキストから動画への生成ノードは、テキストによる説明に基づいて動画を作成します。このノードは外部 API に接続し、ユーザーが指定したプロンプトに基づいて動画コンテンツを生成します。これにより、生成される動画の長さ、ビジュアルスタイル、フォーマットを制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"viduq2"` | 動画生成に使用する AI モデルです。現在は 1 つのモデルのみ利用可能です。 | +| `prompt` | STRING | はい | - | 動画生成用のテキストによる説明で、最大文字数は 2000 文字です。 | +| `duration` | INT | いいえ | 1 ~ 10 | 生成される動画の長さ(秒単位)です。スライダーを使って値を調整できます(デフォルト値:5)。 | +| `seed` | INT | いいえ | 0 ~ 2147483647 | 生成時のランダム性を制御するための数値で、再現可能な結果を得るために使用されます。生成後に制御することも可能です(デフォルト値:1)。 | +| `aspect_ratio` | COMBO | いいえ | `"16:9"`
`"9:16"`
`"3:4"`
`"4:3"`
`"1:1"` | 動画の幅と高さの比率(アスペクト比)です。 | +| `resolution` | COMBO | いいえ | `"720p"`
`"1080p"` | 生成される動画のピクセルサイズ(解像度)です。 | +| `background_music` | BOOLEAN | いいえ | - | 生成された動画に背景音楽を追加するかどうかを指定します(デフォルト値:False)。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画ファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Vidu3ImageToVideoNode.mdx b/ja/built-in-nodes/Vidu3ImageToVideoNode.mdx new file mode 100644 index 000000000..5f02a2291 --- /dev/null +++ b/ja/built-in-nodes/Vidu3ImageToVideoNode.mdx @@ -0,0 +1,34 @@ +--- +title: "Vidu3ImageToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における Vidu3ImageToVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Vidu3ImageToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 3171f51a +translationFrom: built-in-nodes/Vidu3ImageToVideoNode.mdx, zh-CN/built-in-nodes/Vidu3ImageToVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Vidu3ImageToVideoNode/en.md) + +Vidu Q3 画像から動画への生成ノードは、入力画像をもとに動画シーケンスを作成します。このノードでは Vidu Q3 Pro モデルを用いて画像にアニメーションを付与し、オプションでテキストプロンプトによる制御が可能です。生成された動画ファイルが出力されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"viduq3-pro"` | 動画生成に使用するモデル。 | +| `model.resolution` | COMBO | はい | `"720p"`
`"1080p"`
`"2K"` | 出力動画の解像度。 | +| `model.duration` | INT | はい | 1 ~ 16 | 出力動画の再生時間(秒単位)(デフォルト値:5)。 | +| `model.audio` | BOOLEAN | はい | `True` / `False` | 有効にすると、音声(会話および効果音を含む)付きの動画が出力されます(デフォルト値:False)。 | +| `image` | IMAGE | はい | - | 生成される動画の開始フレームとして使用する画像。 | +| `prompt` | STRING | いいえ | - | 動画生成のための任意のテキストプロンプト(最大 2000 文字)(デフォルト値:空文字列)。 | +| `seed` | INT | いいえ | 0 ~ 2147483647 | 生成時のランダム性を制御するためのシード値(デフォルト値:1)。 | + +**注意:** `image` のアスペクト比は 1:4 ~ 4:1 の範囲内(縦長から横長)である必要があります。`prompt` は任意ですが、2000 文字を超えることはできません。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画ファイル。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Vidu3StartEndToVideoNode.mdx b/ja/built-in-nodes/Vidu3StartEndToVideoNode.mdx new file mode 100644 index 000000000..328a42995 --- /dev/null +++ b/ja/built-in-nodes/Vidu3StartEndToVideoNode.mdx @@ -0,0 +1,35 @@ +--- +title: "Vidu3StartEndToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における Vidu3StartEndToVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Vidu3StartEndToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: dbca67e7 +translationFrom: built-in-nodes/Vidu3StartEndToVideoNode.mdx, zh-CN/built-in-nodes/Vidu3StartEndToVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Vidu3StartEndToVideoNode/en.md) + +このノードは、指定された開始フレームと終了フレームの間を補間し、テキストプロンプトの指示に基づいて動画を生成します。Vidu Q3 モデルを用いることで、2 枚の画像の間にシームレスな遷移を作成し、指定された再生時間および解像度の動画を出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"viduq3-pro"`
`"viduq3-turbo"` | 動画生成に使用するモデルです。いずれかのオプションを選択すると、`resolution`、`duration`、`audio` の追加設定パラメーターが表示されます。 | +| `model.resolution` | COMBO | はい | `"720p"`
`"1080p"` | 出力動画の解像度です。このパラメーターは `model` を選択した後に表示されます。 | +| `model.duration` | INT | はい | 1 ~ 16 | 出力動画の再生時間(秒単位)です(デフォルト値:5)。このパラメーターは `model` を選択した後に表示されます。 | +| `model.audio` | BOOLEAN | はい | `True` / `False` | 有効にすると、音声(会話および効果音を含む)付きの動画が出力されます(デフォルト値:False)。このパラメーターは `model` を選択した後に表示されます。 | +| `first_frame` | IMAGE | はい | - | 動画シーケンスの開始画像です。 | +| `end_frame` | IMAGE | はい | - | 動画シーケンスの終了画像です。 | +| `prompt` | STRING | はい | - | 動画生成をガイドするテキスト説明です(最大 2000 文字)。 | +| `seed` | INT | いいえ | 0 ~ 2147483647 | 生成時のランダム性を制御するためのシード値です(デフォルト値:1)。 | + +**注意:** 最適な結果を得るには、`first_frame` および `end_frame` の画像は類似したアスペクト比を持つようにしてください。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `video` | VIDEO | 生成された動画ファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/Vidu3TextToVideoNode.mdx b/ja/built-in-nodes/Vidu3TextToVideoNode.mdx new file mode 100644 index 000000000..634fe8a43 --- /dev/null +++ b/ja/built-in-nodes/Vidu3TextToVideoNode.mdx @@ -0,0 +1,34 @@ +--- +title: "Vidu3TextToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における Vidu3TextToVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Vidu3TextToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: b5abd0a8 +translationFrom: built-in-nodes/Vidu3TextToVideoNode.mdx, zh-CN/built-in-nodes/Vidu3TextToVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Vidu3TextToVideoNode/en.md) + +Vidu Q3 文から動画を生成するノード(Vidu Q3 Text-to-Video Generation node)は、テキストによる説明に基づいて動画を生成します。このノードでは Vidu Q3 Pro モデルを用いて、ユーザーが指定したプロンプトに応じた動画コンテンツを生成し、動画の長さ、解像度、アスペクト比を制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"viduq3-pro"` | 動画生成に使用するモデルです。このオプションを選択すると、アスペクト比、解像度、再生時間、音声などの追加設定パラメーターが表示されます。 | +| `model.aspect_ratio` | COMBO | はい* | `"16:9"`
`"9:16"`
`"3:4"`
`"4:3"`
`"1:1"` | 出力動画のアスペクト比です。このパラメーターは `model` を選択した際に表示されます。 | +| `model.resolution` | COMBO | はい* | `"720p"`
`"1080p"` | 出力動画の解像度です。このパラメーターは `model` を選択した際に表示されます。 | +| `model.duration` | INT | はい* | 1 ~ 16 | 出力動画の再生時間(単位:秒、デフォルト値:5)です。このパラメーターは `model` を選択した際に表示されます。 | +| `model.audio` | BOOLEAN | はい* | True/False | 有効にすると、音声(会話や効果音を含む)付きの動画が出力されます(デフォルト値:False)。このパラメーターは `model` を選択した際に表示されます。 | +| `prompt` | STRING | はい | なし | 動画生成のためのテキストによる説明で、最大文字数は 2000 文字です。 | +| `seed` | INT | いいえ | 0 ~ 2147483647 | 生成時のランダム性を制御するためのシード値です(デフォルト値:1)。 | + +*注:`aspect_ratio`、`resolution`、`duration`、`audio` の各パラメーターは、`model` を選択した時点で必須となります。これらはモデルの設定の一部であるためです。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `video` | VIDEO | 生成された動画ファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ViduExtendVideoNode.mdx b/ja/built-in-nodes/ViduExtendVideoNode.mdx new file mode 100644 index 000000000..cd8fb87e8 --- /dev/null +++ b/ja/built-in-nodes/ViduExtendVideoNode.mdx @@ -0,0 +1,32 @@ +--- +title: "ViduExtendVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ViduExtendVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ViduExtendVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 161f0912 +translationFrom: built-in-nodes/ViduExtendVideoNode.mdx, zh-CN/built-in-nodes/ViduExtendVideoNode.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ViduExtendVideoNode/en.md) + +ViduExtendVideoNode は、既存の動画の長さを延長するために追加のフレームを生成するノードです。指定された AI モデルを用いて、入力動画および任意のテキストプロンプトに基づき、シームレスな延長コンテンツを作成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"viduq2-pro"`
`"viduq2-turbo"` | 動画延長に使用する AI モデルです。モデルを選択すると、そのモデル固有の再生時間および解像度設定が表示されます。 | +| `model.duration` | INT | はい | 1 ~ 7 | 延長後の動画の再生時間(単位:秒、デフォルト値:4)。この設定は、モデルを選択した後に表示されます。 | +| `model.resolution` | COMBO | はい | `"720p"`
`"1080p"` | 出力動画の解像度です。この設定は、モデルを選択した後に表示されます。 | +| `video` | VIDEO | はい | - | 延長対象となる元の動画です。 | +| `prompt` | STRING | いいえ | - | 延長動画の内容を制御するための任意のテキストプロンプト(最大 2000 文字、デフォルト値:空文字列)。 | +| `seed` | INT | いいえ | 0 ~ 2147483647 | 生成時のランダム性を制御するためのシード値(デフォルト値:1)。 | +| `end_frame` | IMAGE | いいえ | - | 延長の終了フレームとして使用する任意の画像です。指定する場合、そのアスペクト比は 1:4 ~ 4:1 の範囲内である必要があり、かつ解像度は最低でも 128×128 ピクセル以上である必要があります。 | + +**注意:** 入力 `video` の再生時間は、4 秒以上 55 秒以下である必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 延長された映像を含む、新しく生成された動画ファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ViduImageToVideoNode.mdx b/ja/built-in-nodes/ViduImageToVideoNode.mdx new file mode 100644 index 000000000..d4611816d --- /dev/null +++ b/ja/built-in-nodes/ViduImageToVideoNode.mdx @@ -0,0 +1,37 @@ +--- +title: "ViduImageToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ViduImageToVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ViduImageToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 14016857 +translationFrom: built-in-nodes/ViduImageToVideoNode.mdx, zh-CN/built-in-nodes/ViduImageToVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ViduImageToVideoNode/en.md) + +Vidu 画像から動画生成ノード(Vidu Image To Video Generation node)は、開始画像と任意のテキスト説明をもとに動画を生成します。このノードでは、提供された画像フレームを起点として動画コンテンツを生成する AI モデルが利用されます。ノードは画像およびパラメーターを外部サービスに送信し、生成された動画を返します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `vidu_q1`
*その他の VideoModelName オプション* | モデル名(デフォルト:`vidu_q1`) | +| `image` | IMAGE | はい | - | 生成される動画の開始フレームとして使用する画像 | +| `prompt` | STRING | いいえ | - | 動画生成用のテキスト説明(デフォルト:空) | +| `duration` | INT | いいえ | 5–5 | 出力動画の再生時間(秒単位)(デフォルト:5、固定値で5秒) | +| `seed` | INT | いいえ | 0–2147483647 | 動画生成のシード値(0 の場合、ランダム)(デフォルト:0) | +| `resolution` | COMBO | いいえ | `r_1080p`
*その他の Resolution オプション* | サポートされる値は、使用するモデルおよび再生時間によって異なる場合があります(デフォルト:`r_1080p`) | +| `movement_amplitude` | COMBO | いいえ | `auto`
*その他の MovementAmplitude オプション* | 画面内のオブジェクトの動きの大きさ(デフォルト:`auto`) | + +**制約条件:** + +- 入力画像は1枚のみ許可されます(複数の画像を処理することはできません) +- 入力画像のアスペクト比は 1:4 ~ 4:1 の範囲内である必要があります + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画出力 | \ No newline at end of file diff --git a/ja/built-in-nodes/ViduMultiFrameVideoNode.mdx b/ja/built-in-nodes/ViduMultiFrameVideoNode.mdx new file mode 100644 index 000000000..f634793cb --- /dev/null +++ b/ja/built-in-nodes/ViduMultiFrameVideoNode.mdx @@ -0,0 +1,37 @@ +--- +title: "ViduMultiFrameVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ViduMultiFrameVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ViduMultiFrameVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 46b7c0fa +translationFrom: built-in-nodes/ViduMultiFrameVideoNode.mdx, zh-CN/built-in-nodes/ViduMultiFrameVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ViduMultiFrameVideoNode/en.md) + +このノードは、複数のキーフレーム間でトランジション(遷移)を作成することにより動画を生成します。初期画像から開始し、ユーザーが定義した終了画像およびプロンプトのシーケンスに沿ってアニメーション化することで、単一の動画ファイルを出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +| :--- | :--- | :--- | :--- | :--- | +| `model` | COMBO | はい | `"viduq2-pro"`
`"viduq2-turbo"` | 動画生成に使用する Vidu モデル。 | +| `start_image` | IMAGE | はい | - | 開始フレームの画像。アスペクト比は 1:4 ~ 4:1 の範囲内である必要があります。 | +| `seed` | INT | いいえ | 0 ~ 2147483647 | 再現可能な結果を保証するための乱数生成用シード値(デフォルト:1)。 | +| `resolution` | COMBO | はい | `"720p"`
`"1080p"` | 出力動画の解像度。 | +| `frames` | DYNAMICCOMBO | はい | `"2"`
`"3"`
`"4"`
`"5"`
`"6"`
`"7"`
`"8"`
`"9"` | キーフレーム間のトランジション数(2~9)。値を選択すると、各フレームに対応する必要な入力が動的に表示されます。 | + +**フレーム入力(動的に表示):** +`frames` に値(例:`"3"`)を選択すると、各トランジションに対応する一連の必須入力が表示されます。選択した数値を `n` としたとき、各フレーム `i`(`i = 1` から `n` まで)に対して以下の入力を指定する必要があります。 + +* `end_image{i}` (IMAGE):このトランジションの対象となる画像。アスペクト比は 1:4 ~ 4:1 の範囲内である必要があります。 +* `prompt{i}` (STRING):このフレームへのトランジションを制御するテキスト説明(最大 2000 文字)。 +* `duration{i}` (INT):この特定のトランジションセグメントの持続時間(秒単位)。 + +## 出力 + +| 出力名 | データ型 | 説明 | +| :--- | :--- | :--- | +| `output` | VIDEO | すべてのアニメーショントランジションを含む生成された動画ファイル。 | \ No newline at end of file diff --git a/ja/built-in-nodes/ViduReferenceVideoNode.mdx b/ja/built-in-nodes/ViduReferenceVideoNode.mdx new file mode 100644 index 000000000..c8db1889c --- /dev/null +++ b/ja/built-in-nodes/ViduReferenceVideoNode.mdx @@ -0,0 +1,41 @@ +--- +title: "ViduReferenceVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ViduReferenceVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ViduReferenceVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 82a4aa1d +translationFrom: built-in-nodes/ViduReferenceVideoNode.mdx, zh-CN/built-in-nodes/ViduReferenceVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ViduReferenceVideoNode/en.md) + +Vidu 参照動画ノード(Vidu Reference Video Node)は、複数の参照画像とテキストプロンプトから動画を生成します。このノードは AI モデルを活用し、提供された画像と説明に基づいて一貫性のある動画コンテンツを作成します。サポートされる動画設定には、再生時間、アスペクト比、解像度、および動きの制御が含まれます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `model` | COMBO | はい | `"vidu_q1"` | 動画生成に使用するモデル名(デフォルト: `"vidu_q1"`) | +| `images` | IMAGE | はい | - | 動画生成のための参照画像(最大 7 枚)。一貫した被写体を持つ動画を生成するために使用されます | +| `prompt` | STRING | はい | - | 動画生成のためのテキストによる説明 | +| `duration` | INT | いいえ | 5–5 | 出力動画の再生時間(秒単位)(デフォルト: 5) | +| `seed` | INT | いいえ | 0–2147483647 | 動画生成のシード値(0 の場合はランダム)(デフォルト: 0) | +| `aspect_ratio` | COMBO | いいえ | `"16:9"`
`"9:16"`
`"1:1"`
`"4:3"`
`"3:4"`
`"21:9"`
`"9:21"` | 出力動画のアスペクト比(デフォルト: `"16:9"`) | +| `resolution` | COMBO | いいえ | `"480p"`
`"720p"`
`"1080p"`
`"1440p"`
`"2160p"` | サポートされる値は、使用するモデルおよび再生時間によって異なる場合があります(デフォルト: `"1080p"`) | +| `movement_amplitude` | COMBO | いいえ | `"auto"`
`"low"`
`"medium"`
`"high"` | 画面内のオブジェクトの動きの振幅(デフォルト: `"auto"`) | + +**制約と制限事項:** + +- `prompt` フィールドは必須であり、空欄にしてはいけません +- 参照画像は最大 7 枚まで許可されています +- 各画像のアスペクト比は 1:4 から 4:1 の範囲内である必要があります +- 各画像の最小サイズは 128×128 ピクセルである必要があります +- 再生時間は固定で 5 秒です + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `output` | VIDEO | 参照画像およびプロンプトに基づいて生成された動画 | \ No newline at end of file diff --git a/ja/built-in-nodes/ViduStartEndToVideoNode.mdx b/ja/built-in-nodes/ViduStartEndToVideoNode.mdx new file mode 100644 index 000000000..cc7c9f352 --- /dev/null +++ b/ja/built-in-nodes/ViduStartEndToVideoNode.mdx @@ -0,0 +1,35 @@ +--- +title: "ViduStartEndToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ViduStartEndToVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ViduStartEndToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: ad447eab +translationFrom: built-in-nodes/ViduStartEndToVideoNode.mdx, zh-CN/built-in-nodes/ViduStartEndToVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ViduStartEndToVideoNode/en.md) + +Vidu Start End To Video Generation ノードは、開始フレームと終了フレームの間にフレームを生成することで動画を作成します。このノードでは、テキストプロンプトを用いて動画生成プロセスを制御し、さまざまな解像度および動き設定に対応した複数の動画モデルをサポートしています。また、処理の前に開始フレームと終了フレームのアスペクト比が互換性を持つことを検証します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"vidu_q1"`
[VideoModelName 列挙型の他のモデル値] | モデル名(デフォルト: `"vidu_q1"`) | +| `first_frame` | IMAGE | はい | - | 開始フレーム | +| `end_frame` | IMAGE | はい | - | 終了フレーム | +| `prompt` | STRING | いいえ | - | 動画生成のためのテキスト説明 | +| `duration` | INT | いいえ | 5–5 | 出力動画の再生時間(秒単位)(デフォルト: 5、固定で5秒) | +| `seed` | INT | いいえ | 0–2147483647 | 動画生成のシード値(0 の場合、ランダム)(デフォルト: 0) | +| `resolution` | COMBO | いいえ | `"1080p"`
[Resolution 列挙型の他の解像度値] | サポートされる値は、使用するモデルおよび再生時間によって異なる場合があります(デフォルト: `"1080p"`) | +| `movement_amplitude` | COMBO | いいえ | `"auto"`
[MovementAmplitude 列挙型の他の動き振幅値] | フレーム内のオブジェクトの動きの大きさ(デフォルト: `"auto"`) | + +**注意:** 開始フレームと終了フレームのアスペクト比は互換性を持たなければなりません(比率許容誤差:`min_rel=0.8`、`max_rel=1.25` で検証されます)。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 生成された動画ファイル | \ No newline at end of file diff --git a/ja/built-in-nodes/ViduTextToVideoNode.mdx b/ja/built-in-nodes/ViduTextToVideoNode.mdx new file mode 100644 index 000000000..833eb1e7e --- /dev/null +++ b/ja/built-in-nodes/ViduTextToVideoNode.mdx @@ -0,0 +1,34 @@ +--- +title: "ViduTextToVideoNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ViduTextToVideoNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ViduTextToVideoNode" +icon: "circle" +mode: wide +translationSourceHash: 8961f6fb +translationFrom: built-in-nodes/ViduTextToVideoNode.mdx, zh-CN/built-in-nodes/ViduTextToVideoNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ViduTextToVideoNode/en.md) + +Vidu テキストから動画生成ノードは、テキストによる説明に基づいて動画を生成します。このノードでは、複数の動画生成モデルを活用し、ユーザーが指定したテキストプロンプトを、再生時間(デュレーション)、アスペクト比、および視覚スタイルをカスタマイズ可能な動画コンテンツへと変換します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `vidu_q1`
*その他の VideoModelName オプション* | モデル名(デフォルト:`vidu_q1`) | +| `prompt` | STRING | はい | - | 動画生成用のテキストによる説明 | +| `duration` | INT | いいえ | 5–5 | 出力動画の再生時間(秒単位)(デフォルト:5) | +| `seed` | INT | いいえ | 0–2147483647 | 動画生成のシード値(0 の場合、ランダム)(デフォルト:0) | +| `aspect_ratio` | COMBO | いいえ | `r_16_9`
*その他の AspectRatio オプション* | 出力動画のアスペクト比(デフォルト:`r_16_9`) | +| `resolution` | COMBO | いいえ | `r_1080p`
*その他の Resolution オプション* | サポートされる値は、使用するモデルおよび再生時間によって異なる場合があります(デフォルト:`r_1080p`) | +| `movement_amplitude` | COMBO | いいえ | `auto`
*その他の MovementAmplitude オプション* | 画面内のオブジェクトの動きの強さ(デフォルト:`auto`) | + +**注意:** `prompt` フィールドは必須であり、空欄にすることはできません。また、`duration` パラメーターは現在、固定で 5 秒となっています。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | テキストプロンプトに基づいて生成された動画 | \ No newline at end of file diff --git a/ja/built-in-nodes/VoxelToMesh.mdx b/ja/built-in-nodes/VoxelToMesh.mdx new file mode 100644 index 000000000..c18149995 --- /dev/null +++ b/ja/built-in-nodes/VoxelToMesh.mdx @@ -0,0 +1,26 @@ +--- +title: "VoxelToMesh - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の VoxelToMesh ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "VoxelToMesh" +icon: "circle" +mode: wide +translationSourceHash: ef029aa4 +translationFrom: built-in-nodes/VoxelToMesh.mdx, zh-CN/built-in-nodes/VoxelToMesh.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/VoxelToMesh/en.md) + +VoxelToMesh ノードは、異なるアルゴリズムを用いて 3D 体素データをメッシュ幾何形状に変換します。このノードは体素グリッドを処理し、3D メッシュ表現を構成する頂点と面を生成します。また、複数の変換アルゴリズムをサポートしており、表面抽出を制御するためのしきい値を調整できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `voxel` | VOXEL | はい | - | メッシュ幾何形状に変換する入力体素データ | +| `algorithm` | COMBO | はい | "surface net"
"basic" | 体素データからメッシュへ変換する際に使用するアルゴリズム | +| `threshold` | FLOAT | はい | -1.0 ~ 1.0 | 表面抽出のしきい値(デフォルト:0.6) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `MESH` | MESH | 頂点および面を含む生成された 3D メッシュ | \ No newline at end of file diff --git a/ja/built-in-nodes/VoxelToMeshBasic.mdx b/ja/built-in-nodes/VoxelToMeshBasic.mdx new file mode 100644 index 000000000..66e4f4073 --- /dev/null +++ b/ja/built-in-nodes/VoxelToMeshBasic.mdx @@ -0,0 +1,25 @@ +--- +title: "VoxelToMeshBasic - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における VoxelToMeshBasic ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "VoxelToMeshBasic" +icon: "circle" +mode: wide +translationSourceHash: d4645609 +translationFrom: built-in-nodes/VoxelToMeshBasic.mdx, zh-CN/built-in-nodes/VoxelToMeshBasic.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/VoxelToMeshBasic/en.md) + +VoxelToMeshBasic ノードは、3次元のボクセルデータをメッシュ幾何形状に変換します。このノードは、ボクセル体積に対してしきい値を適用することで処理を行い、体積のどの部分が生成されたメッシュにおいて実体表面となるかを決定します。ノードは、頂点と面を含む完全なメッシュ構造を出力し、3D レンダリングやモデリングに利用できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `voxel` | VOXEL | はい | - | メッシュに変換する3次元ボクセルデータ | +| `threshold` | FLOAT | はい | -1.0 ~ 1.0 | メッシュ表面を構成するボクセルを決定するためのしきい値(デフォルト: 0.6) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `MESH` | MESH | 頂点および面を含む生成された3次元メッシュ | \ No newline at end of file diff --git a/ja/built-in-nodes/Wan22FunControlToVideo.mdx b/ja/built-in-nodes/Wan22FunControlToVideo.mdx new file mode 100644 index 000000000..dd3001026 --- /dev/null +++ b/ja/built-in-nodes/Wan22FunControlToVideo.mdx @@ -0,0 +1,38 @@ +--- +title: "Wan22FunControlToVideo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における Wan22FunControlToVideo ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Wan22FunControlToVideo" +icon: "circle" +mode: wide +translationSourceHash: d08a09c8 +translationFrom: built-in-nodes/Wan22FunControlToVideo.mdx, zh-CN/built-in-nodes/Wan22FunControlToVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Wan22FunControlToVideo/en.md) + +Wan22FunControlToVideo ノードは、Wan 動画モデルアーキテクチャを用いて、動画生成のための条件入力(conditioning)および潜在表現(latent representation)を準備します。このノードは、正の条件入力と負の条件入力を処理し、さらに任意の参照画像(reference image)および制御動画(control video)を組み合わせることで、動画合成に必要な潜在空間表現を生成します。また、空間スケーリングおよび時間的次元(temporal dimensions)を適切に処理し、動画モデル向けの適切な条件データを生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | 動画生成をガイドするための正の条件入力 | +| `negative` | CONDITIONING | はい | - | 動画生成をガイドするための負の条件入力 | +| `vae` | VAE | はい | - | 画像を潜在空間へエンコードするために使用される VAE モデル | +| `width` | INT | いいえ | 16 ~ MAX_RESOLUTION | 出力動画の幅(ピクセル単位)(デフォルト:832、ステップ:16) | +| `height` | INT | いいえ | 16 ~ MAX_RESOLUTION | 出力動画の高さ(ピクセル単位)(デフォルト:480、ステップ:16) | +| `length` | INT | いいえ | 1 ~ MAX_RESOLUTION | 動画シーケンス内のフレーム数(デフォルト:81、ステップ:4) | +| `batch_size` | INT | いいえ | 1 ~ 4096 | 生成する動画シーケンスの数(デフォルト:1) | +| `ref_image` | IMAGE | いいえ | - | 視覚的なガイドを提供するための任意の参照画像 | +| `control_video` | IMAGE | いいえ | - | 生成プロセスをガイドするための任意の制御動画 | + +**注意:** `length` パラメーターは 4 フレーム単位のチャンクで処理され、ノードは潜在空間における時間的スケーリングを自動的に処理します。`ref_image` が指定された場合、参照潜在表現(reference latents)を通じて条件入力に影響を与えます。`control_video` が指定された場合、条件入力で使用される連結潜在表現(concat latent representation)に直接影響を与えます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 動画固有の潜在データを含む修正済み正の条件入力 | +| `negative` | CONDITIONING | 動画固有の潜在データを含む修正済み負の条件入力 | +| `latent` | LATENT | 動画生成に適した次元を持つ空の潜在テンソル | \ No newline at end of file diff --git a/ja/built-in-nodes/Wan22ImageToVideoLatent.mdx b/ja/built-in-nodes/Wan22ImageToVideoLatent.mdx new file mode 100644 index 000000000..77f28e369 --- /dev/null +++ b/ja/built-in-nodes/Wan22ImageToVideoLatent.mdx @@ -0,0 +1,34 @@ +--- +title: "Wan22ImageToVideoLatent - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における Wan22ImageToVideoLatent ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "Wan22ImageToVideoLatent" +icon: "circle" +mode: wide +translationSourceHash: da74c38b +translationFrom: built-in-nodes/Wan22ImageToVideoLatent.mdx, zh-CN/built-in-nodes/Wan22ImageToVideoLatent.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/Wan22ImageToVideoLatent/en.md) + +Wan22ImageToVideoLatent ノードは、画像から動画の潜在表現(latent representation)を生成します。このノードは、指定されたサイズの空白の動画潜在空間を作成し、オプションで開始画像シーケンスを先頭のフレームにエンコードすることができます。開始画像が提供された場合、ノードはその画像を潜在空間にエンコードし、インペイント(修復)領域に対応するノイズマスクを生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `vae` | VAE | はい | - | 画像を潜在空間にエンコードするために使用される VAE モデル | +| `width` | INT | いいえ | 32 ~ MAX_RESOLUTION | 出力動画の幅(ピクセル単位)。デフォルト値:1280、ステップ:32 | +| `height` | INT | いいえ | 32 ~ MAX_RESOLUTION | 出力動画の高さ(ピクセル単位)。デフォルト値:704、ステップ:32 | +| `length` | INT | いいえ | 1 ~ MAX_RESOLUTION | 動画シーケンスのフレーム数。デフォルト値:49、ステップ:4 | +| `batch_size` | INT | いいえ | 1 ~ 4096 | 生成するバッチ数。デフォルト値:1 | +| `start_image` | IMAGE | いいえ | - | オプションの開始画像シーケンス。動画の潜在空間にエンコードされます | + +**注意:** `start_image` を指定した場合、ノードは画像シーケンスを潜在空間の先頭フレームにエンコードし、対応するノイズマスクを生成します。潜在空間の適切な次元を確保するため、`width` および `height` の値は 16 で割り切れる必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `samples` | LATENT | 生成された動画の潜在表現 | +| `noise_mask` | LATENT | 生成時にどの領域をデノイズするかを示すノイズマスク | \ No newline at end of file diff --git a/ja/built-in-nodes/WanAnimateToVideo.mdx b/ja/built-in-nodes/WanAnimateToVideo.mdx new file mode 100644 index 000000000..8bb08cfb6 --- /dev/null +++ b/ja/built-in-nodes/WanAnimateToVideo.mdx @@ -0,0 +1,55 @@ +--- +title: "WanAnimateToVideo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における WanAnimateToVideo ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanAnimateToVideo" +icon: "circle" +mode: wide +translationSourceHash: 74c5af43 +translationFrom: built-in-nodes/WanAnimateToVideo.mdx, zh-CN/built-in-nodes/WanAnimateToVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanAnimateToVideo/en.md) + +WanAnimateToVideo ノードは、ポーズ参照、表情、背景要素などの複数の条件付き入力を統合することで動画コンテンツを生成します。このノードは、さまざまな動画入力を処理し、フレーム間の時間的一貫性を維持しながら、連続的で整合性のあるアニメーションシーケンスを作成します。また、潜在空間(latent space)における演算を実行でき、既存の動画を運動パターンの継続によって拡張することも可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | 望ましいコンテンツの生成を誘導するための正の条件付け | +| `negative` | CONDITIONING | はい | - | 望ましくないコンテンツの生成を抑制するための負の条件付け | +| `vae` | VAE | はい | - | 画像データのエンコードおよびデコードに使用される VAE モデル | +| `width` | INT | いいえ | 16 ~ MAX_RESOLUTION | 出力動画の幅(ピクセル単位)(デフォルト:832、ステップ:16) | +| `height` | INT | いいえ | 16 ~ MAX_RESOLUTION | 出力動画の高さ(ピクセル単位)(デフォルト:480、ステップ:16) | +| `length` | INT | いいえ | 1 ~ MAX_RESOLUTION | 生成するフレーム数(デフォルト:77、ステップ:4) | +| `batch_size` | INT | いいえ | 1 ~ 4096 | 同時に生成する動画の数(デフォルト:1) | +| `clip_vision_output` | CLIP_VISION_OUTPUT | いいえ | - | 追加的な条件付けのためのオプションの CLIP ビジョンモデル出力 | +| `reference_image` | IMAGE | いいえ | - | 生成の開始点として使用される参照画像 | +| `face_video` | IMAGE | いいえ | - | 表情の制御を提供する動画入力 | +| `pose_video` | IMAGE | いいえ | - | ポーズおよび動きの制御を提供する動画入力 | +| `continue_motion_max_frames` | INT | いいえ | 1 ~ MAX_RESOLUTION | 以前の動きから継続する最大フレーム数(デフォルト:5、ステップ:4) | +| `background_video` | IMAGE | いいえ | - | 生成コンテンツと合成される背景動画 | +| `character_mask` | MASK | いいえ | - | 選択的処理の対象となるキャラクター領域を定義するマスク | +| `continue_motion` | IMAGE | いいえ | - | 時間的一貫性を保つために継続する前の動きのシーケンス | +| `video_frame_offset` | INT | いいえ | 0 ~ MAX_RESOLUTION | 全ての入力動画においてスキップするフレーム数。長尺動画をチャンク単位で生成する際に使用されます。動画の延長には、直前のノードの `video_frame_offset` 出力に接続してください。(デフォルト:0、ステップ:1) | + +**パラメーター制約:** + +- `pose_video` が指定され、かつ `trim_to_pose_video` のロジックが有効な場合、出力のフレーム数はポーズ動画の長さに自動的に調整されます。 +- `face_video` は処理時に自動的に 512×512 の解像度にリサイズされます。 +- `continue_motion` のフレーム数は `continue_motion_max_frames` パラメーターにより制限されます。 +- 入力動画(`face_video`、`pose_video`、`background_video`、`character_mask`)は、処理前に `video_frame_offset` だけオフセットされます。 +- `character_mask` が単一フレームのみを含む場合、そのフレームは全フレームにわたって繰り返し使用されます。 +- `clip_vision_output` が指定された場合、それは正の条件付けおよび負の条件付けの両方に適用されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 追加の動画コンテキストを含む修正済みの正の条件付け | +| `negative` | CONDITIONING | 追加の動画コンテキストを含む修正済みの負の条件付け | +| `latent` | LATENT | 潜在空間形式で生成された動画コンテンツ | +| `trim_latent` | INT | 後続処理向けの潜在空間のトリミング情報 | +| `trim_image` | INT | 参照用の動きフレームに対する画像空間のトリミング情報 | +| `video_frame_offset` | INT | チャンク単位での動画生成継続に向けた更新済みのフレームオフセット | \ No newline at end of file diff --git a/ja/built-in-nodes/WanCameraEmbedding.mdx b/ja/built-in-nodes/WanCameraEmbedding.mdx new file mode 100644 index 000000000..5d164820b --- /dev/null +++ b/ja/built-in-nodes/WanCameraEmbedding.mdx @@ -0,0 +1,35 @@ +--- +title: "WanCameraEmbedding - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の WanCameraEmbedding ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanCameraEmbedding" +icon: "circle" +mode: wide +translationSourceHash: 1058c236 +translationFrom: built-in-nodes/WanCameraEmbedding.mdx, zh-CN/built-in-nodes/WanCameraEmbedding.mdx +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanCameraEmbedding/en.md) + +WanCameraEmbedding ノードは、カメラの運動パラメーターに基づき Plücker 埋め込みを用いてカメラ軌道の埋め込みベクトルを生成します。このノードは、さまざまなカメラ動きを模倣する一連のカメラ姿勢(ポーズ)を作成し、それを動画生成パイプラインで利用可能な埋め込みテンソルに変換します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `camera_pose` | COMBO | はい | "Static"
"Pan Up"
"Pan Down"
"Pan Left"
"Pan Right"
"Zoom In"
"Zoom Out"
"Anti Clockwise (ACW)"
"ClockWise (CW)" | シミュレートするカメラ動きの種類(デフォルト: "Static") | +| `width` | INT | はい | 16 ~ MAX_RESOLUTION | 出力の幅(ピクセル単位)(デフォルト: 832、ステップ: 16) | +| `height` | INT | はい | 16 ~ MAX_RESOLUTION | 出力の高さ(ピクセル単位)(デフォルト: 480、ステップ: 16) | +| `length` | INT | はい | 1 ~ MAX_RESOLUTION | カメラ軌道シーケンスの長さ(デフォルト: 81、ステップ: 4) | +| `speed` | FLOAT | いいえ | 0.0 ~ 10.0 | カメラ動きの速度(デフォルト: 1.0、ステップ: 0.1) | +| `fx` | FLOAT | いいえ | 0.0 ~ 1.0 | 焦点距離 x パラメーター(デフォルト: 0.5、ステップ: 0.000000001) | +| `fy` | FLOAT | いいえ | 0.0 ~ 1.0 | 焦点距離 y パラメーター(デフォルト: 0.5、ステップ: 0.000000001) | +| `cx` | FLOAT | いいえ | 0.0 ~ 1.0 | 主点の x 座標(デフォルト: 0.5、ステップ: 0.01) | +| `cy` | FLOAT | いいえ | 0.0 ~ 1.0 | 主点の y 座標(デフォルト: 0.5、ステップ: 0.01) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `camera_embedding` | TENSOR | 軌道シーケンスを含む生成されたカメラ埋め込みテンソル | +| `width` | INT | 処理に使用された幅の値 | +| `height` | INT | 処理に使用された高さの値 | +| `length` | INT | 処理に使用された長さの値 | \ No newline at end of file diff --git a/ja/built-in-nodes/WanCameraImageToVideo.mdx b/ja/built-in-nodes/WanCameraImageToVideo.mdx new file mode 100644 index 000000000..98e49ac4f --- /dev/null +++ b/ja/built-in-nodes/WanCameraImageToVideo.mdx @@ -0,0 +1,39 @@ +--- +title: "WanCameraImageToVideo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における WanCameraImageToVideo ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanCameraImageToVideo" +icon: "circle" +mode: wide +translationSourceHash: 41d9388a +translationFrom: built-in-nodes/WanCameraImageToVideo.mdx, zh-CN/built-in-nodes/WanCameraImageToVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanCameraImageToVideo/en.md) + +WanCameraImageToVideo ノードは、動画生成用の潜在表現(latent representation)を生成することにより、画像を動画シーケンスに変換します。このノードは、条件付け入力および任意の開始画像を処理し、動画モデルで利用可能な動画潜在表現を生成します。また、カメラ条件および CLIP ビジョン出力をサポートしており、動画生成の制御性を高めます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | 動画生成用の正の条件付けプロンプト | +| `negative` | CONDITIONING | はい | - | 動画生成で回避すべき負の条件付けプロンプト | +| `vae` | VAE | はい | - | 画像を潜在空間にエンコードするための VAE モデル | +| `width` | INT | はい | 16 ~ MAX_RESOLUTION | 出力動画の幅(ピクセル単位)(デフォルト:832、ステップ:16) | +| `height` | INT | はい | 16 ~ MAX_RESOLUTION | 出力動画の高さ(ピクセル単位)(デフォルト:480、ステップ:16) | +| `length` | INT | はい | 1 ~ MAX_RESOLUTION | 動画シーケンス内のフレーム数(デフォルト:81、ステップ:4) | +| `batch_size` | INT | はい | 1 ~ 4096 | 同時に生成する動画の数(デフォルト:1) | +| `clip_vision_output` | CLIP_VISION_OUTPUT | いいえ | - | 追加的な条件付けのためのオプションの CLIP ビジョン出力 | +| `start_image` | IMAGE | いいえ | - | 動画シーケンスの初期化に使用するオプションの開始画像 | +| `camera_conditions` | WAN_CAMERA_EMBEDDING | いいえ | - | 動画生成のためのオプションのカメラ埋め込み条件 | + +**注意:** `start_image` が指定された場合、ノードはこれを用いて動画シーケンスを初期化し、開始フレームと生成コンテンツをブレンドするためにマスキングを適用します。`camera_conditions` および `clip_vision_output` パラメーターは任意ですが、指定された場合には、正および負のプロンプト両方の条件付けを修正します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 適用されたカメラ条件および CLIP ビジョン出力を含む、修正済みの正の条件付け | +| `negative` | CONDITIONING | 適用されたカメラ条件および CLIP ビジョン出力を含む、修正済みの負の条件付け | +| `latent` | LATENT | 動画モデルで使用可能な、生成された動画潜在表現 | \ No newline at end of file diff --git a/ja/built-in-nodes/WanContextWindowsManual.mdx b/ja/built-in-nodes/WanContextWindowsManual.mdx new file mode 100644 index 000000000..335396eda --- /dev/null +++ b/ja/built-in-nodes/WanContextWindowsManual.mdx @@ -0,0 +1,34 @@ +--- +title: "WanContextWindowsManual - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における WanContextWindowsManual ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanContextWindowsManual" +icon: "circle" +mode: wide +translationSourceHash: 5192489b +translationFrom: built-in-nodes/WanContextWindowsManual.mdx, zh-CN/built-in-nodes/WanContextWindowsManual.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanContextWindowsManual/en.md) + +WAN 上下文ウィンドウ(手動)ノードは、2 次元処理を行う WAN 類似モデルに対して、上下文ウィンドウを手動で設定することを可能にします。このノードは、サンプリング時にウィンドウ長、オーバーラップ量、スケジューリング方式、および融合手法を指定することで、カスタムの上下文ウィンドウ設定を適用します。これにより、モデルが異なる上下文領域において情報をどのように処理するかを、きめ細かく制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | サンプリング中に上下文ウィンドウを適用する対象のモデルです。 | +| `context_length` | INT | はい | 1 ~ 1048576 | 上下文ウィンドウの長さ(デフォルト値:81)。 | +| `context_overlap` | INT | はい | 0 ~ 1048576 | 上下文ウィンドウの重複量(デフォルト値:30)。 | +| `context_schedule` | COMBO | はい | "static_standard"
"uniform_standard"
"uniform_looped"
"batched" | 上下文ウィンドウのスケジューリング方式です。 | +| `context_stride` | INT | はい | 1 ~ 1048576 | 上下文ウィンドウのストライド(歩幅)です。均一スケジューリング(uniform schedule)にのみ適用されます(デフォルト値:1)。 | +| `closed_loop` | BOOLEAN | はい | - | 上下文ウィンドウのループを閉じるかどうかを指定します。ループ付きスケジューリング(looped schedule)にのみ適用されます(デフォルト値:False)。 | +| `fuse_method` | COMBO | はい | "pyramid" | 上下文ウィンドウを融合する際に使用する手法です(デフォルト値:"pyramid")。 | + +**注意:** `context_stride` パラメーターは均一スケジューリングにのみ影響し、`closed_loop` はループ付きスケジューリングにのみ適用されます。上下文長およびオーバーラップ値は、処理中に最小有効値を保証するために自動的に調整されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 上下文ウィンドウ設定が適用されたモデルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/WanFirstLastFrameToVideo.mdx b/ja/built-in-nodes/WanFirstLastFrameToVideo.mdx new file mode 100644 index 000000000..b0deb4f3b --- /dev/null +++ b/ja/built-in-nodes/WanFirstLastFrameToVideo.mdx @@ -0,0 +1,40 @@ +--- +title: "WanFirstLastFrameToVideo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における WanFirstLastFrameToVideo ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanFirstLastFrameToVideo" +icon: "circle" +mode: wide +translationSourceHash: 40d42a34 +translationFrom: built-in-nodes/WanFirstLastFrameToVideo.mdx, zh-CN/built-in-nodes/WanFirstLastFrameToVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案がありましたら、ぜひ貢献してください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanFirstLastFrameToVideo/en.md) + +WanFirstLastFrameToVideo ノードは、開始フレームと終了フレームをテキストプロンプトと組み合わせることで、動画生成のための条件付け(conditioning)を生成します。このノードは、最初と最後のフレームをエンコードし、生成プロセスをガイドするマスクを適用するとともに、利用可能な場合は CLIP ビジョン特徴量も統合することで、動画生成のための潜在表現(latent representation)を生成します。また、このノードは、指定された開始点と終了点の間で一貫性のある動画シーケンスを生成するための、正方向および負方向の条件付けを動画モデルに提供します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `positive` | CONDITIONING | はい | - | 動画生成をガイドするための正方向のテキスト条件 | +| `negative` | CONDITIONING | はい | - | 動画生成をガイドするための負方向のテキスト条件 | +| `vae` | VAE | はい | - | 画像を潜在空間へエンコードする際に使用される VAE モデル | +| `width` | INT | いいえ | 16 ~ MAX_RESOLUTION | 出力動画の幅(デフォルト:832、ステップ:16) | +| `height` | INT | いいえ | 16 ~ MAX_RESOLUTION | 出力動画の高さ(デフォルト:480、ステップ:16) | +| `length` | INT | いいえ | 1 ~ MAX_RESOLUTION | 動画シーケンス内のフレーム数(デフォルト:81、ステップ:4) | +| `batch_size` | INT | いいえ | 1 ~ 4096 | 同時に生成する動画の数(デフォルト:1) | +| `clip_vision_start_image` | CLIP_VISION_OUTPUT | いいえ | - | 開始画像から抽出された CLIP ビジョン特徴量 | +| `clip_vision_end_image` | CLIP_VISION_OUTPUT | いいえ | - | 終了画像から抽出された CLIP ビジョン特徴量 | +| `start_image` | IMAGE | いいえ | - | 動画シーケンスの開始フレーム画像 | +| `end_image` | IMAGE | いいえ | - | 動画シーケンスの終了フレーム画像 | + +**注意:** `start_image` および `end_image` の両方が提供された場合、このノードはこれらの 2 つのフレーム間で遷移する動画シーケンスを生成します。`clip_vision_start_image` および `clip_vision_end_image` はオプションのパラメーターですが、これらが提供された場合には、それぞれの CLIP ビジョン特徴量が連結され、正方向および負方向の条件付けの両方に適用されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `positive` | CONDITIONING | 動画フレームのエンコーディングおよび CLIP ビジョン特徴量が適用された正方向の条件付け | +| `negative` | CONDITIONING | 動画フレームのエンコーディングおよび CLIP ビジョン特徴量が適用された負方向の条件付け | +| `latent` | LATENT | 指定された動画パラメーターに一致する次元を持つ空の潜在テンソル | \ No newline at end of file diff --git a/ja/built-in-nodes/WanFunControlToVideo.mdx b/ja/built-in-nodes/WanFunControlToVideo.mdx new file mode 100644 index 000000000..b30988dee --- /dev/null +++ b/ja/built-in-nodes/WanFunControlToVideo.mdx @@ -0,0 +1,43 @@ +--- +title: "WanFunControlToVideo - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の WanFunControlToVideo ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanFunControlToVideo" +icon: "circle" +mode: wide +translationSourceHash: b880bfdd +translationFrom: built-in-nodes/WanFunControlToVideo.mdx, zh-CN/built-in-nodes/WanFunControlToVideo.mdx +translationMismatches: + - "description" +--- +このノードは、アリババ社の Wan Fun Control モデルによる動画生成をサポートするために追加され、[このコミット](https://github.com/comfyanonymous/ComfyUI/commit/3661c833bcc41b788a7c9f0e7bc48524f8ee5f82) 以降に導入されました。 + +- **目的:** Wan 2.1 Fun Control モデルを用いた動画生成に必要な条件付け情報(conditioning information)を準備すること。 + +WanFunControlToVideo ノードは、動画生成向けの Wan Fun Control モデルをサポートするための ComfyUI 追加機能であり、WanFun 制御を活用した動画作成を目的としています。 + +このノードは、必須の条件付け情報を準備する起点として機能し、潜在空間(latent space)の中心点を初期化することで、Wan 2.1 Fun モデルを用いた後続の動画生成プロセスをガイドします。ノード名はその機能を明確に示しており、さまざまな入力を受け取り、それらを WanFun フレームワーク内における動画生成制御に適した形式に変換します。 + +このノードが ComfyUI のノード階層において占める位置から、それは動画生成パイプラインの初期段階で動作し、実際のフレームのサンプリングやデコードを行う前に、条件付け信号(conditioning signals)を操作することに焦点を当てていることがわかります。 + +## 入力 + +| パラメーター名 | 必須 | データ型 | 説明 | デフォルト値 | +|:-------------------|:---------|:-------------------|:-------------------------------------------------------------|:-------------| +| positive | はい | CONDITIONING | 標準的な ComfyUI の正の条件付けデータで、通常は「CLIP Text Encode」ノードから取得されます。正のプロンプトは、ユーザーが生成動画に求める内容、主題、および芸術的スタイルを記述します。 | N/A | +| negative | はい | CONDITIONING | 標準的な ComfyUI の負の条件付けデータで、通常は「CLIP Text Encode」ノードによって生成されます。負のプロンプトは、ユーザーが生成動画から除外したい要素、スタイル、またはアーティファクトを指定します。 | N/A | +| vae | はい | VAE | Wan 2.1 Fun モデルシリーズと互換性のある VAE(変分自己符号化器)モデルが必要です。画像/動画データの符号化および復号化に使用されます。 | N/A | +| width | はい | INT | 出力動画フレームの幅(ピクセル単位)。デフォルト値は 832、最小値は 16、最大値は `nodes.MAX_RESOLUTION` で定義され、ステップサイズは 16 です。 | 832 | +| height | はい | INT | 出力動画フレームの高さ(ピクセル単位)。デフォルト値は 480、最小値は 16、最大値は `nodes.MAX_RESOLUTION` で定義され、ステップサイズは 16 です。 | 480 | +| length | はい | INT | 生成動画の総フレーム数。デフォルト値は 81、最小値は 1、最大値は `nodes.MAX_RESOLUTION` で定義され、ステップサイズは 4 です。 | 81 | +| batch_size | はい | INT | 一度に生成される動画の数。デフォルト値は 1、最小値は 1、最大値は 4096 です。 | 1 | +| clip_vision_output | いいえ | CLIP_VISION_OUTPUT | (任意)CLIP 視覚モデルによって抽出された視覚的特徴。視覚的スタイルおよびコンテンツのガイドとして利用可能です。 | None | +| start_image | いいえ | IMAGE | (任意)生成動画の開始部分に影響を与える初期画像。 | None | +| control_video | いいえ | IMAGE | (任意)事前処理済みの ControlNet 参照動画を提供し、生成動画の動きおよび潜在的な構造をガイドできます。| None | + +## 出力 + +| パラメーター名 | データ型 | 説明 | +|:-------------------|:-------------------|:-------------------------------------------------------------| +| positive | CONDITIONING | エンコード済みの `start_image` および `control_video` を含む、強化された正の条件付けデータを提供します。 | +| negative | CONDITIONING | 同様に強化された負の条件付けデータを提供します。これには、同じ `concat_latent_image` が含まれます。 | +| latent | LATENT | キー `"samples"` を持つ空の潜在テンソルを含む辞書です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/WanFunInpaintToVideo.mdx b/ja/built-in-nodes/WanFunInpaintToVideo.mdx new file mode 100644 index 000000000..901f98d4c --- /dev/null +++ b/ja/built-in-nodes/WanFunInpaintToVideo.mdx @@ -0,0 +1,37 @@ +--- +title: "WanFunInpaintToVideo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における WanFunInpaintToVideo ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanFunInpaintToVideo" +icon: "circle" +mode: wide +translationSourceHash: c7273fb5 +translationFrom: built-in-nodes/WanFunInpaintToVideo.mdx, zh-CN/built-in-nodes/WanFunInpaintToVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案がある場合は、ぜひ貢献してください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanFunInpaintToVideo/en.md) + +WanFunInpaintToVideo ノードは、開始画像と終了画像の間でインペイント(修復)処理を行うことで動画シーケンスを生成します。このノードは、正の条件付けプロンプトおよび負の条件付けプロンプトに加え、任意のフレーム画像を受け取り、動画の潜在表現(latent)を生成します。また、出力サイズおよびフレーム数などのパラメーターを自由に設定できるため、柔軟な動画生成が可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | 動画生成用の正の条件付けプロンプト | +| `negative` | CONDITIONING | はい | - | 動画生成時に回避する負の条件付けプロンプト | +| `vae` | VAE | はい | - | エンコーディング/デコーディング処理に使用する VAE モデル | +| `width` | INT | はい | 16 ~ MAX_RESOLUTION | 出力動画の幅(ピクセル単位)(デフォルト:832、ステップ:16) | +| `height` | INT | はい | 16 ~ MAX_RESOLUTION | 出力動画の高さ(ピクセル単位)(デフォルト:480、ステップ:16) | +| `length` | INT | はい | 1 ~ MAX_RESOLUTION | 動画シーケンスのフレーム数(デフォルト:81、ステップ:4) | +| `batch_size` | INT | はい | 1 ~ 4096 | 一括処理で生成する動画の数(デフォルト:1) | +| `clip_vision_output` | CLIP_VISION_OUTPUT | いいえ | - | 追加の条件付けに使用するオプションの CLIP ビジョン出力 | +| `start_image` | IMAGE | いいえ | - | 動画生成用のオプションの開始フレーム画像 | +| `end_image` | IMAGE | いいえ | - | 動画生成用のオプションの終了フレーム画像 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 処理済みの正の条件付け出力 | +| `negative` | CONDITIONING | 処理済みの負の条件付け出力 | +| `latent` | LATENT | 生成された動画の潜在表現 | \ No newline at end of file diff --git a/ja/built-in-nodes/WanHuMoImageToVideo.mdx b/ja/built-in-nodes/WanHuMoImageToVideo.mdx new file mode 100644 index 000000000..c0488a6cf --- /dev/null +++ b/ja/built-in-nodes/WanHuMoImageToVideo.mdx @@ -0,0 +1,38 @@ +--- +title: "WanHuMoImageToVideo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における WanHuMoImageToVideo ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanHuMoImageToVideo" +icon: "circle" +mode: wide +translationSourceHash: ced7c189 +translationFrom: built-in-nodes/WanHuMoImageToVideo.mdx, zh-CN/built-in-nodes/WanHuMoImageToVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanHuMoImageToVideo/en.md) + +WanHuMoImageToVideo ノードは、動画フレームの潜在表現(latent representation)を生成することにより、画像を動画シーケンスに変換します。このノードは条件付け入力(conditioning input)を処理し、参照画像および音声埋め込み(audio embedding)を組み込むことで、動画生成に影響を与えます。ノードは、動画合成に適した修正済みの条件付けデータおよび潜在表現を出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | 動画生成を望ましいコンテンツへと導く正の条件付け入力 | +| `negative` | CONDITIONING | はい | - | 動画生成を不要なコンテンツから遠ざける負の条件付け入力 | +| `vae` | VAE | はい | - | 参照画像を潜在空間にエンコードするために使用される VAE モデル | +| `width` | INT | はい | 16 ~ MAX_RESOLUTION | 出力動画フレームの幅(ピクセル単位)。デフォルト値:832(16 で割り切れる必要があります) | +| `height` | INT | はい | 16 ~ MAX_RESOLUTION | 出力動画フレームの高さ(ピクセル単位)。デフォルト値:480(16 で割り切れる必要があります) | +| `length` | INT | はい | 1 ~ MAX_RESOLUTION | 生成される動画シーケンスのフレーム数。デフォルト値:97 | +| `batch_size` | INT | はい | 1 ~ 4096 | 同時に生成する動画シーケンスの数。デフォルト値:1 | +| `audio_encoder_output` | AUDIOENCODEROUTPUT | いいえ | - | オプションの音声エンコーディングデータ。音声コンテンツに基づいて動画生成に影響を与えることができます | +| `ref_image` | IMAGE | いいえ | - | オプションの参照画像。動画生成のスタイルおよびコンテンツを制御するために使用されます | + +**注意:** 参照画像が指定された場合、その画像はエンコードされ、正および負の条件付けの両方に追加されます。また、音声エンコーダー出力が指定された場合、そのデータは処理されて条件付けデータに統合されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 参照画像および/または音声埋め込みを含む、修正済みの正の条件付け | +| `negative` | CONDITIONING | 参照画像および/または音声埋め込みを含む、修正済みの負の条件付け | +| `latent` | LATENT | 動画シーケンスのデータを含む生成された潜在表現 | \ No newline at end of file diff --git a/ja/built-in-nodes/WanImageToImageApi.mdx b/ja/built-in-nodes/WanImageToImageApi.mdx new file mode 100644 index 000000000..f908598be --- /dev/null +++ b/ja/built-in-nodes/WanImageToImageApi.mdx @@ -0,0 +1,33 @@ +--- +title: "WanImageToImageApi - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の WanImageToImageApi ノードに関する完全なドキュメントです。入力、出力、パラメーター、および使用方法について学びましょう。" +sidebarTitle: "WanImageToImageApi" +icon: "circle" +mode: wide +translationSourceHash: 52fdd8b1 +translationFrom: built-in-nodes/WanImageToImageApi.mdx, zh-CN/built-in-nodes/WanImageToImageApi.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanImageToImageApi/en.md) + +Wan Image to Image ノードは、1枚または2枚の入力画像とテキストプロンプトから画像を生成します。このノードは、ユーザーが指定した説明に基づいて入力画像を変換し、元の入力画像のアスペクト比を維持した新しい画像を作成します。出力画像の解像度は、入力サイズに関わらず固定で 160 万ピクセル(1.6 MP)となります。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"wan2.5-i2i-preview"` | 使用するモデル(デフォルト:`"wan2.5-i2i-preview"`)。 | +| `image` | IMAGE | はい | - | 単一画像の編集または複数画像の融合に対応。最大 2 枚まで対応。 | +| `prompt` | STRING | はい | - | 要素や視覚的特徴を記述するためのプロンプト。英語/中国語をサポート(デフォルト:空文字列)。 | +| `negative_prompt` | STRING | いいえ | - | 生成時に回避すべき内容を指示するネガティブプロンプト(デフォルト:空文字列)。 | +| `seed` | INT | いいえ | 0 ~ 2147483647 | 生成に使用するシード値(デフォルト:0)。 | +| `watermark` | BOOLEAN | いいえ | - | 結果画像に「AI generated(AI 生成)」の透かしを追加するかどうか(デフォルト:`true`)。 | + +**注意:** このノードは、**正確に 1 枚または 2 枚**の入力画像のみを受け付けます。3 枚以上または 0 枚の画像を指定すると、エラーが返されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 入力画像およびテキストプロンプトに基づいて生成された画像。 | \ No newline at end of file diff --git a/ja/built-in-nodes/WanImageToVideo.mdx b/ja/built-in-nodes/WanImageToVideo.mdx new file mode 100644 index 000000000..fcc2e85c2 --- /dev/null +++ b/ja/built-in-nodes/WanImageToVideo.mdx @@ -0,0 +1,38 @@ +--- +title: "WanImageToVideo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の WanImageToVideo ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanImageToVideo" +icon: "circle" +mode: wide +translationSourceHash: a7682bad +translationFrom: built-in-nodes/WanImageToVideo.mdx, zh-CN/built-in-nodes/WanImageToVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善の提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanImageToVideo/en.md) + +WanImageToVideo ノードは、動画生成タスク向けの条件付け(conditioning)および潜在表現(latent representation)を準備します。このノードは動画生成用の空の潜在空間を作成し、必要に応じて開始画像および CLIP ビジョン出力を組み込んで、動画生成プロセスをガイドします。また、提供された画像およびビションデータに基づき、正の条件付け入力と負の条件付け入力の両方を修正します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | 生成をガイドするための正の条件付け入力 | +| `negative` | CONDITIONING | はい | - | 生成をガイドするための負の条件付け入力 | +| `vae` | VAE | はい | - | 画像を潜在空間へエンコードするための VAE モデル | +| `width` | INT | はい | 16 ~ MAX_RESOLUTION | 出力動画の幅(デフォルト:832、ステップ:16) | +| `height` | INT | はい | 16 ~ MAX_RESOLUTION | 出力動画の高さ(デフォルト:480、ステップ:16) | +| `length` | INT | はい | 1 ~ MAX_RESOLUTION | 動画のフレーム数(デフォルト:81、ステップ:4) | +| `batch_size` | INT | はい | 1 ~ 4096 | 一括処理で生成する動画の数(デフォルト:1) | +| `clip_vision_output` | CLIP_VISION_OUTPUT | いいえ | - | 追加的な条件付けに使用するオプションの CLIP ビジョン出力 | +| `start_image` | IMAGE | いいえ | - | 動画生成を初期化するためのオプションの開始画像 | + +**注意:** `start_image` が指定された場合、ノードは画像シーケンスをエンコードし、条件付け入力にマスキングを適用します。また、`clip_vision_output` が指定された場合、正および負の条件付け入力の両方に、ビジョンに基づく条件付けが追加されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 画像およびビジョンデータが統合された、修正済みの正の条件付け | +| `negative` | CONDITIONING | 画像およびビジョンデータが統合された、修正済みの負の条件付け | +| `latent` | LATENT | 動画生成に備えた空の潜在空間テンソル | \ No newline at end of file diff --git a/ja/built-in-nodes/WanImageToVideoApi.mdx b/ja/built-in-nodes/WanImageToVideoApi.mdx new file mode 100644 index 000000000..a36df0268 --- /dev/null +++ b/ja/built-in-nodes/WanImageToVideoApi.mdx @@ -0,0 +1,42 @@ +--- +title: "WanImageToVideoApi - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における WanImageToVideoApi ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanImageToVideoApi" +icon: "circle" +mode: wide +translationSourceHash: 28622efd +translationFrom: built-in-nodes/WanImageToVideoApi.mdx, zh-CN/built-in-nodes/WanImageToVideoApi.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanImageToVideoApi/en.md) + +「Wan Image to Video」ノードは、単一の入力画像とテキストプロンプトから動画コンテンツを生成します。このノードは、提供された説明に基づいて初期フレームを拡張することで動画シーケンスを作成し、動画の品質、再生時間、および音声統合を制御するオプションを提供します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | "wan2.5-i2v-preview"
"wan2.5-i2v-preview" | 使用するモデル(デフォルト: "wan2.5-i2v-preview") | +| `image` | IMAGE | はい | - | 動画生成の最初のフレームとして使用される入力画像 | +| `prompt` | STRING | はい | - | 要素および視覚的特徴を記述するためのプロンプト。英語/中国語に対応(デフォルト: 空) | +| `negative_prompt` | STRING | いいえ | - | 生成時に回避すべき内容を指示するネガティブプロンプト(デフォルト: 空) | +| `resolution` | COMBO | いいえ | "480P"
"720P"
"1080P" | 動画の解像度(デフォルト: "480P") | +| `duration` | INT | いいえ | 5–10 | 利用可能な再生時間:5秒および10秒(デフォルト: 5) | +| `audio` | AUDIO | いいえ | - | 音声には、明瞭かつ大きな声が含まれている必要があり、雑音や背景音楽を含んではいけません | +| `seed` | INT | いいえ | 0–2147483647 | 生成に使用する乱数シード(デフォルト: 0) | +| `generate_audio` | BOOLEAN | いいえ | - | 音声入力がない場合に、自動的に音声を生成するかどうか(デフォルト: False) | +| `prompt_extend` | BOOLEAN | いいえ | - | AI を活用してプロンプトを強化するかどうか(デフォルト: True) | +| `watermark` | BOOLEAN | いいえ | - | 結果に「AI生成」の透かしを追加するかどうか(デフォルト: True) | + +**制約条件:** + +- 動画生成には、**ちょうど1枚の入力画像**が必要です +- `duration` パラメーターは、5秒または10秒のみを受け付けます +- 音声が提供される場合、その長さは **3.0~29.0秒** の範囲内である必要があります + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 入力画像およびプロンプトに基づいて生成された動画 | \ No newline at end of file diff --git a/ja/built-in-nodes/WanInfiniteTalkToVideo.mdx b/ja/built-in-nodes/WanInfiniteTalkToVideo.mdx new file mode 100644 index 000000000..32a227f9a --- /dev/null +++ b/ja/built-in-nodes/WanInfiniteTalkToVideo.mdx @@ -0,0 +1,54 @@ +--- +title: "WanInfiniteTalkToVideo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における WanInfiniteTalkToVideo ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanInfiniteTalkToVideo" +icon: "circle" +mode: wide +translationSourceHash: 658db44c +translationFrom: built-in-nodes/WanInfiniteTalkToVideo.mdx, zh-CN/built-in-nodes/WanInfiniteTalkToVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合や改善に関するご提案があれば、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanInfiniteTalkToVideo/en.md) + +WanInfiniteTalkToVideo ノードは、音声入力から動画シーケンスを生成します。このノードでは、1人または2人の話者から抽出された音声特徴を条件として用いる動画拡散モデルを活用し、話者(トーキングヘッド)動画の潜在表現を生成します。また、既存の動画シーケンスを前フレームを運動コンテキストとして利用して拡張することも可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `mode` | COMBO | はい | `"single_speaker"`
`"two_speakers"` | 音声入力モード。「`"single_speaker"`」では単一の音声入力を使用します。「`"two_speakers"`」では、2人目の話者の入力および対応するマスクを有効化します。 | +| `model` | MODEL | はい | - | 基本となる動画拡散モデル。 | +| `model_patch` | MODELPATCH | はい | - | 音声投影層を含むモデルパッチ。 | +| `positive` | CONDITIONING | はい | - | 生成をガイドするためのポジティブな条件付け。 | +| `negative` | CONDITIONING | はい | - | 生成をガイドするためのネガティブな条件付け。 | +| `vae` | VAE | はい | - | 画像と潜在空間との間の符号化・復号化に使用される VAE。 | +| `width` | INT | いいえ | 16 – MAX_RESOLUTION | 出力動画の幅(ピクセル単位)。16 の倍数である必要があります。(デフォルト:832) | +| `height` | INT | いいえ | 16 – MAX_RESOLUTION | 出力動画の高さ(ピクセル単位)。16 の倍数である必要があります。(デフォルト:480) | +| `length` | INT | いいえ | 1 – MAX_RESOLUTION | 生成するフレーム数。(デフォルト:81) | +| `clip_vision_output` | CLIPVISIONOUTPUT | いいえ | - | 追加の条件付けに使用可能なオプションの CLIP ビジョン出力。 | +| `start_image` | IMAGE | いいえ | - | 動画シーケンスの初期化に使用可能なオプションの開始画像。 | +| `audio_encoder_output_1` | AUDIOENCODEROUTPUT | はい | - | 最初の話者の特徴を含む主音声エンコーダ出力。 | +| `motion_frame_count` | INT | いいえ | 1 – 33 | シーケンスの拡張時に運動コンテキストとして使用する直前のフレーム数。(デフォルト:9) | +| `audio_scale` | FLOAT | いいえ | -10.0 – 10.0 | 音声条件付けに適用されるスケーリング係数。(デフォルト:1.0) | +| `previous_frames` | IMAGE | いいえ | - | 拡張元となるオプションの直前の動画フレーム。 | +| `audio_encoder_output_2` | AUDIOENCODEROUTPUT | いいえ | - | 2番目の音声エンコーダ出力。`mode` を `"two_speakers"` に設定した場合に必須です。 | +| `mask_1` | MASK | いいえ | - | 最初の話者のマスク。2つの音声入力を使用する場合に必須です。 | +| `mask_2` | MASK | いいえ | - | 2番目の話者のマスク。2つの音声入力を使用する場合に必須です。 | + +**パラメーター制約:** + +* `mode` を `"two_speakers"` に設定した場合、パラメーター `audio_encoder_output_2`、`mask_1`、`mask_2` は必須となります。 +* `audio_encoder_output_2` を指定した場合は、`mask_1` および `mask_2` も必ず指定する必要があります。 +* `mask_1` および `mask_2` を指定した場合は、`audio_encoder_output_2` も必ず指定する必要があります。 +* `previous_frames` を指定した場合、そのフレーム数は `motion_frame_count` で指定された数以上である必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 音声条件付けが適用されたパッチ済みモデル。 | +| `positive` | CONDITIONING | 補足的なコンテキスト(例:開始画像、CLIP ビジョン)に基づいて変更されている可能性のあるポジティブな条件付け。 | +| `negative` | CONDITIONING | 補足的なコンテキストに基づいて変更されている可能性のあるネガティブな条件付け。 | +| `latent` | LATENT | 潜在空間内で生成された動画シーケンス。 | +| `trim_image` | INT | シーケンスの拡張時に運動コンテキストの先頭から切り捨てるべきフレーム数。 | \ No newline at end of file diff --git a/ja/built-in-nodes/WanMoveConcatTrack.mdx b/ja/built-in-nodes/WanMoveConcatTrack.mdx new file mode 100644 index 000000000..81a4b3722 --- /dev/null +++ b/ja/built-in-nodes/WanMoveConcatTrack.mdx @@ -0,0 +1,25 @@ +--- +title: "WanMoveConcatTrack - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における WanMoveConcatTrack ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanMoveConcatTrack" +icon: "circle" +mode: wide +translationSourceHash: b7add7ea +translationFrom: built-in-nodes/WanMoveConcatTrack.mdx, zh-CN/built-in-nodes/WanMoveConcatTrack.mdx +--- +> このドキュメンテーションはAIによって生成されました。誤りを発見した場合や、改善に関するご提案がある場合は、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanMoveConcatTrack/en.md) + +WanMoveConcatTrack ノードは、2組のモーション追跡データを1つのより長いシーケンスに統合します。この処理は、入力されたトラックの `track_path`(トラックパス)および `track_visibility`(可視性マスク)をそれぞれの次元に沿って結合することで実現されます。入力として1組のトラックデータのみが提供された場合、そのデータは変更されずにそのまま出力されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `tracks_1` | TRACKS | はい | | 結合対象となる最初のモーション追跡データセットです。 | +| `tracks_2` | TRACKS | いいえ | | オプションの2番目のモーション追跡データセットです。指定されない場合は、`tracks_1` のデータがそのまま出力に渡されます。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `tracks` | TRACKS | 結合後のモーション追跡データで、入力から得られた `track_path` および `track_visibility` を統合したものが含まれます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/WanMoveTrackToVideo.mdx b/ja/built-in-nodes/WanMoveTrackToVideo.mdx new file mode 100644 index 000000000..84af4ca01 --- /dev/null +++ b/ja/built-in-nodes/WanMoveTrackToVideo.mdx @@ -0,0 +1,38 @@ +--- +title: "WanMoveTrackToVideo - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における WanMoveTrackToVideo ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanMoveTrackToVideo" +icon: "circle" +mode: wide +translationSourceHash: 394e0a46 +translationFrom: built-in-nodes/WanMoveTrackToVideo.mdx, zh-CN/built-in-nodes/WanMoveTrackToVideo.mdx +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanMoveTrackToVideo/en.md) + +WanMoveTrackToVideo ノードは、動画生成のための条件付けデータおよび潜在空間データを準備するノードであり、オプションとして運動追跡情報を統合できます。このノードは、開始画像シーケンスを潜在表現にエンコードし、物体の軌道から得られる位置情報(トラッキングデータ)を条件付けにブレンドすることで、生成される動画内の動きを制御します。ノードは、修正された正の条件付け(positive conditioning)および負の条件付け(negative conditioning)に加え、動画モデル向けに準備された空の潜在テンソルを出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | 修正対象となる正の条件付け入力です。 | +| `negative` | CONDITIONING | はい | - | 修正対象となる負の条件付け入力です。 | +| `vae` | VAE | はい | - | 開始画像を潜在空間へエンコードするために使用される VAE モデルです。 | +| `tracks` | TRACKS | いいえ | - | 物体の軌道を含むオプションの運動追跡データです。 | +| `strength` | FLOAT | いいえ | 0.0 – 100.0 | トラックによる条件付けの強さです。(デフォルト値:1.0) | +| `width` | INT | いいえ | 16 – MAX_RESOLUTION | 出力動画の幅です。16 の倍数である必要があります。(デフォルト値:832) | +| `height` | INT | いいえ | 16 – MAX_RESOLUTION | 出力動画の高さです。16 の倍数である必要があります。(デフォルト値:480) | +| `length` | INT | いいえ | 1 – MAX_RESOLUTION | 動画シーケンスのフレーム数です。(デフォルト値:81) | +| `batch_size` | INT | いいえ | 1 – 4096 | 潜在出力のバッチサイズです。(デフォルト値:1) | +| `start_image` | IMAGE | はい | - | エンコード対象の開始画像または画像シーケンスです。 | +| `clip_vision_output` | CLIPVISIONOUTPUT | いいえ | - | 条件付けに追加するオプションの CLIP ビジョンモデル出力です。 | + +**注意:** `strength` パラメーターは、`tracks` が指定されている場合にのみ効果を発揮します。`tracks` が指定されていないか、あるいは `strength` が 0.0 の場合、トラックによる条件付けは適用されません。`start_image` は条件付け用の潜在画像およびマスクを作成するために使用されます。このパラメーターが指定されていない場合、ノードは条件付けをそのまま通過させ、空の潜在テンソルを出力します。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 修正された正の条件付けで、`concat_latent_image`、`concat_mask`、および `clip_vision_output` を含む場合があります。 | +| `negative` | CONDITIONING | 修正された負の条件付けで、`concat_latent_image`、`concat_mask`、および `clip_vision_output` を含む場合があります。 | +| `latent` | LATENT | `batch_size`、`length`、`height`、`width` の各入力に基づいて形状が決定された空の潜在テンソルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/WanMoveTracksFromCoords.mdx b/ja/built-in-nodes/WanMoveTracksFromCoords.mdx new file mode 100644 index 000000000..91e02edbd --- /dev/null +++ b/ja/built-in-nodes/WanMoveTracksFromCoords.mdx @@ -0,0 +1,28 @@ +--- +title: "WanMoveTracksFromCoords - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における WanMoveTracksFromCoords ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanMoveTracksFromCoords" +icon: "circle" +mode: wide +translationSourceHash: 74357393 +translationFrom: built-in-nodes/WanMoveTracksFromCoords.mdx, zh-CN/built-in-nodes/WanMoveTracksFromCoords.mdx +--- +> このドキュメントはAIによって生成されました。誤りを発見された場合、または改善に関するご提案をお持ちの場合には、ぜひご貢献ください! [GitHubで編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanMoveTracksFromCoords/en.md) + +WanMoveTracksFromCoords ノードは、座標点のリストから一連のモーショントラック(運動軌跡)を生成します。このノードは、JSON形式の座標文字列を、他の動画処理ノードで利用可能なテンソル形式に変換します。また、オプションでマスクを適用して、時間経過に伴うトラックの可視性を制御することもできます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `track_coords` | STRING | はい | N/A | トラックの座標データを含む JSON 形式の文字列です。デフォルト値は空のリスト (`"[]"`) です。 | +| `track_mask` | MASK | いいえ | N/A | オプションのマスクです。指定された場合、ノードはこれを用いて各フレームにおける各トラックの可視性を決定します。 | + +**注意:** `track_coords` 入力では、特定の JSON 構造が期待されます。これはトラックのリストであり、各トラックはフレームのリスト、さらに各フレームは `x` および `y` 座標を含むオブジェクトである必要があります。すべてのトラックにおいて、フレーム数は一定である必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `tracks` | TRACKS | 生成されたトラックデータで、各トラックのパス座標および可視性情報を含みます。 | +| `track_length` | INT | 生成されたトラックの総フレーム数です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/WanMoveVisualizeTracks.mdx b/ja/built-in-nodes/WanMoveVisualizeTracks.mdx new file mode 100644 index 000000000..28b190840 --- /dev/null +++ b/ja/built-in-nodes/WanMoveVisualizeTracks.mdx @@ -0,0 +1,33 @@ +--- +title: "WanMoveVisualizeTracks - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における WanMoveVisualizeTracks ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanMoveVisualizeTracks" +icon: "circle" +mode: wide +translationSourceHash: 380c8dfe +translationFrom: built-in-nodes/WanMoveVisualizeTracks.mdx, zh-CN/built-in-nodes/WanMoveVisualizeTracks.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanMoveVisualizeTracks/en.md) + +WanMoveVisualizeTracks ノードは、運動トラッキングデータを一連の画像または動画フレーム上にオーバーレイ表示します。このノードは、追跡されたポイントの可視化表現(その運動パスおよび現在位置を含む)を描画し、運動データを視覚的に確認しやすく、分析しやすくします。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `images` | IMAGE | はい | - | トラックを可視化する対象となる入力画像または動画フレームのシーケンスです。 | +| `tracks` | TRACKS | いいえ | - | ポイントの軌跡および可視性情報を含む運動トラッキングデータです。指定されない場合、入力画像は変更されずにそのまま出力されます。 | +| `line_resolution` | INT | はい | 1 - 1024 | 各トラックの「トレーリング・パス線」(過去の位置をつなぐ線)を描画する際に使用する、直前のフレーム数(デフォルト値:24)。 | +| `circle_size` | INT | はい | 1 - 128 | 各トラックの現在位置に描画される円のサイズ(デフォルト値:12)。 | +| `opacity` | FLOAT | はい | 0.0 - 1.0 | 描画されるトラックのオーバーレイの不透明度(デフォルト値:0.75)。 | +| `line_width` | INT | はい | 1 - 128 | トラックの軌跡パスを描画する際に使用される線の太さ(デフォルト値:16)。 | + +**注意:** 入力画像の枚数と提供された `tracks` データ内のフレーム数が一致しない場合、画像シーケンスはトラックの長さに合わせて繰り返されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `IMAGE` | IMAGE | 運動トラッキングデータがオーバーレイとして可視化された画像シーケンスです。`tracks` が指定されていない場合は、元の入力画像が返されます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/WanPhantomSubjectToVideo.mdx b/ja/built-in-nodes/WanPhantomSubjectToVideo.mdx new file mode 100644 index 000000000..3153e5475 --- /dev/null +++ b/ja/built-in-nodes/WanPhantomSubjectToVideo.mdx @@ -0,0 +1,38 @@ +--- +title: "WanPhantomSubjectToVideo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における WanPhantomSubjectToVideo ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanPhantomSubjectToVideo" +icon: "circle" +mode: wide +translationSourceHash: 9bea83ab +translationFrom: built-in-nodes/WanPhantomSubjectToVideo.mdx, zh-CN/built-in-nodes/WanPhantomSubjectToVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanPhantomSubjectToVideo/en.md) + +WanPhantomSubjectToVideo ノードは、条件付け入力およびオプションの参照画像を処理することにより動画コンテンツを生成します。このノードは動画生成用の潜在表現(latent representation)を作成し、入力画像が提供された場合にはそれらからの視覚的ガイドを組み込むことができます。また、このノードは動画モデル向けに、時間次元方向での結合(time-dimensional concatenation)を用いて条件付けデータを準備し、修正された条件付けデータおよび生成された潜在動画データを出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | 動画生成を制御するための正の条件付け入力 | +| `negative` | CONDITIONING | はい | - | 特定の特徴を回避するための負の条件付け入力 | +| `vae` | VAE | はい | - | 画像が提供された場合に、そのエンコーディングに使用される VAE モデル | +| `width` | INT | いいえ | 16 ~ MAX_RESOLUTION | 出力動画の幅(ピクセル単位)(デフォルト:832、16 の倍数である必要があります) | +| `height` | INT | いいえ | 16 ~ MAX_RESOLUTION | 出力動画の高さ(ピクセル単位)(デフォルト:480、16 の倍数である必要があります) | +| `length` | INT | いいえ | 1 ~ MAX_RESOLUTION | 生成される動画のフレーム数(デフォルト:81、4 の倍数である必要があります) | +| `batch_size` | INT | いいえ | 1 ~ 4096 | 同時に生成する動画の数(デフォルト:1) | +| `images` | IMAGE | いいえ | - | 時間次元方向の条件付けに使用するオプションの参照画像 | + +**注意:** `images` が指定された場合、それらは自動的に指定された `width` および `height` にアップスケールされ、処理には先頭の `length` フレームのみが使用されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 画像が提供された場合、時間次元方向の結合を含むように修正された正の条件付けデータ | +| `negative_text` | CONDITIONING | 画像が提供された場合、時間次元方向の結合を含むように修正された負の条件付けデータ | +| `negative_img_text` | CONDITIONING | 画像が提供された場合、時間次元方向の結合がゼロ埋めされた負の条件付けデータ | +| `latent` | LATENT | 指定された解像度およびフレーム数を持つ、生成された潜在動画表現 | \ No newline at end of file diff --git a/ja/built-in-nodes/WanReferenceVideoApi.mdx b/ja/built-in-nodes/WanReferenceVideoApi.mdx new file mode 100644 index 000000000..e118e30fe --- /dev/null +++ b/ja/built-in-nodes/WanReferenceVideoApi.mdx @@ -0,0 +1,39 @@ +--- +title: "WanReferenceVideoApi - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI の WanReferenceVideoApi ノードに関する完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanReferenceVideoApi" +icon: "circle" +mode: wide +translationSourceHash: 8c3d546b +translationFrom: built-in-nodes/WanReferenceVideoApi.mdx, zh-CN/built-in-nodes/WanReferenceVideoApi.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善の提案をお持ちの場合には、ぜひご貢献ください![GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanReferenceVideoApi/en.md) + +Wan Reference to Video ノードは、1 つ以上の入力参照動画の視覚的外観および音声と、テキストプロンプトを組み合わせて新しい動画を生成します。このノードは、参照素材に登場するキャラクターの外見や声の特徴を維持しつつ、ユーザーが記述した内容に基づいて新たな動画コンテンツを作成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | `"wan2.6-r2v"` | 動画生成に使用する特定の AI モデルです。 | +| `prompt` | STRING | はい | - | 新しい動画に含める要素および視覚的特徴の説明文です。英語および中国語に対応しています。参照動画内のキャラクターを指すために、`character1` や `character2` などの識別子を使用できます。 | +| `negative_prompt` | STRING | いいえ | - | 生成される動画に含めたくない要素や特徴を記述します。 | +| `reference_videos` | AUTOGROW | はい | - | キャラクターの外観および音声の参照として使用する動画の入力リストです。少なくとも 1 つの動画を提供する必要があります。各動画には `character1`、`character2`、`character3` などの名前を付けることができます。 | +| `size` | COMBO | はい | `"720p: 1:1 (960x960)"`
`"720p: 16:9 (1280x720)"`
`"720p: 9:16 (720x1280)"`
`"720p: 4:3 (1088x832)"`
`"720p: 3:4 (832x1088)"`
`"1080p: 1:1 (1440x1440)"`
`"1080p: 16:9 (1920x1080)"`
`"1080p: 9:16 (1080x1920)"`
`"1080p: 4:3 (1632x1248)"`
`"1080p: 3:4 (1248x1632)"` | 出力動画の解像度およびアスペクト比です。 | +| `duration` | INT | はい | 5 ~ 10 | 生成される動画の長さ(秒単位)です。値は 5 の倍数である必要があります(デフォルト値:5)。 | +| `seed` | INT | いいえ | 0 ~ 2147483647 | 再現可能な結果を得るための乱数シード値です。値が 0 の場合は、ランダムなシードが生成されます。 | +| `shot_type` | COMBO | はい | `"single"`
`"multi"` | 生成される動画が単一の連続ショットであるか、カットを含む複数のショットから構成されるかを指定します。 | +| `watermark` | BOOLEAN | いいえ | - | 有効にすると、最終動画に AI によって生成された透かしが追加されます(デフォルト値:False)。 | + +**制約条件:** + +* `reference_videos` に指定する各動画の再生時間は、2 秒以上 30 秒以下である必要があります。 +* `duration` パラメーターは、特定の値(5 秒または 10 秒)のみに制限されています。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 新しく生成された動画ファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/WanSoundImageToVideo.mdx b/ja/built-in-nodes/WanSoundImageToVideo.mdx new file mode 100644 index 000000000..4a1234bae --- /dev/null +++ b/ja/built-in-nodes/WanSoundImageToVideo.mdx @@ -0,0 +1,38 @@ +--- +title: "WanSoundImageToVideo - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI における WanSoundImageToVideo ノードの完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanSoundImageToVideo" +icon: "circle" +mode: wide +translationSourceHash: ce663341 +translationFrom: built-in-nodes/WanSoundImageToVideo.mdx, zh-CN/built-in-nodes/WanSoundImageToVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanSoundImageToVideo/en.md) + +WanSoundImageToVideo ノードは、画像から動画コンテンツを生成するノードであり、オプションで音声による条件付けをサポートします。このノードは、正の条件付けプロンプトと負の条件付けプロンプト、および VAE モデルを用いて動画の潜在表現(latent)を生成します。さらに、参照画像、音声エンコーディング、制御用動画、運動参照などの要素を取り入れることで、動画生成プロセスをより精密に制御できます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|------------|----------|------|------|------| +| `positive` | CONDITIONING | はい | - | 生成される動画に含まれるべきコンテンツを指示する正の条件付けプロンプト | +| `negative` | CONDITIONING | はい | - | 生成される動画に含まれてはならないコンテンツを指定する負の条件付けプロンプト | +| `vae` | VAE | はい | - | 動画の潜在表現の符号化および復号化に使用される VAE モデル | +| `width` | INT | はい | 16 ~ MAX_RESOLUTION | 出力動画の幅(ピクセル単位)。デフォルト値:832。16 の倍数である必要があります。 | +| `height` | INT | はい | 16 ~ MAX_RESOLUTION | 出力動画の高さ(ピクセル単位)。デフォルト値:480。16 の倍数である必要があります。 | +| `length` | INT | はい | 1 ~ MAX_RESOLUTION | 生成される動画のフレーム数。デフォルト値:77。4 の倍数である必要があります。 | +| `batch_size` | INT | はい | 1 ~ 4096 | 同時に生成する動画の数。デフォルト値:1 | +| `audio_encoder_output` | AUDIOENCODEROUTPUT | いいえ | - | オプションの音声エンコーディング。音声の特徴に基づいて動画生成に影響を与えます。 | +| `ref_image` | IMAGE | いいえ | - | オプションの参照画像。動画コンテンツに対して視覚的なガイドを提供します。 | +| `control_video` | IMAGE | いいえ | - | オプションの制御用動画。生成される動画の動きや構造をガイドします。 | +| `ref_motion` | IMAGE | いいえ | - | オプションの運動参照。動画内の動きのパターンをガイドします。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|--------|----------|------| +| `positive` | CONDITIONING | 動画生成向けに処理・調整された正の条件付けプロンプト | +| `negative` | CONDITIONING | 動画生成向けに処理・調整された負の条件付けプロンプト | +| `latent` | LATENT | 潜在空間における生成動画の表現。最終的な動画フレームへと復号化可能です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/WanSoundImageToVideoExtend.mdx b/ja/built-in-nodes/WanSoundImageToVideoExtend.mdx new file mode 100644 index 000000000..8fd9aae41 --- /dev/null +++ b/ja/built-in-nodes/WanSoundImageToVideoExtend.mdx @@ -0,0 +1,35 @@ +--- +title: "WanSoundImageToVideoExtend - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における WanSoundImageToVideoExtend ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanSoundImageToVideoExtend" +icon: "circle" +mode: wide +translationSourceHash: a726e1bc +translationFrom: built-in-nodes/WanSoundImageToVideoExtend.mdx, zh-CN/built-in-nodes/WanSoundImageToVideoExtend.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください![GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanSoundImageToVideoExtend/en.md) + +WanSoundImageToVideoExtend ノードは、音声条件付け(audio conditioning)と参照画像を取り入れることで、画像から動画を生成する機能を拡張します。このノードは、正の条件付け(positive conditioning)および負の条件付け(negative conditioning)、動画の潜在表現(video latent data)、および任意の音声埋め込み(audio embeddings)を受け取り、拡張された動画シーケンスを生成します。ノードはこれらの入力を処理し、音声のヒント(audio cues)と同期した一貫性のある動画出力を生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | 動画に含めるべき内容を指示する正の条件付けプロンプト | +| `negative` | CONDITIONING | はい | - | 動画から除外すべき内容を指定する負の条件付けプロンプト | +| `vae` | VAE | はい | - | 動画フレームの符号化および復号化に使用される変分自己符号化器(Variational Autoencoder) | +| `length` | INT | はい | 1 ~ MAX_RESOLUTION | 動画シーケンスに対して生成するフレーム数(デフォルト値:77、ステップ:4) | +| `video_latent` | LATENT | はい | - | 拡張の起点となる初期の動画潜在表現 | +| `audio_encoder_output` | AUDIOENCODEROUTPUT | いいえ | - | 音声の特徴に基づいて動画生成に影響を与えることのできる任意の音声埋め込み | +| `ref_image` | IMAGE | いいえ | - | 動画生成に視覚的なガイドを提供する任意の参照画像 | +| `control_video` | IMAGE | いいえ | - | 生成される動画の動きやスタイルを制御するための任意の制御動画 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 動画コンテキストが適用された処理済みの正の条件付け | +| `negative` | CONDITIONING | 動画コンテキストが適用された処理済みの負の条件付け | +| `latent` | LATENT | 拡張された動画シーケンスを含む生成された動画潜在表現 | \ No newline at end of file diff --git a/ja/built-in-nodes/WanTextToImageApi.mdx b/ja/built-in-nodes/WanTextToImageApi.mdx new file mode 100644 index 000000000..b98e4f0e6 --- /dev/null +++ b/ja/built-in-nodes/WanTextToImageApi.mdx @@ -0,0 +1,31 @@ +--- +title: "WanTextToImageApi - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の WanTextToImageApi ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanTextToImageApi" +icon: "circle" +mode: wide +translationSourceHash: 4c3b1555 +translationFrom: built-in-nodes/WanTextToImageApi.mdx, zh-CN/built-in-nodes/WanTextToImageApi.mdx +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見された場合、または改善のご提案がありましたら、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanTextToImageApi/en.md) + +「Wan テキストから画像へ」ノードは、テキストによる説明に基づいて画像を生成します。このノードでは、AI モデルを用いて、書かれたプロンプトから視覚的なコンテンツを作成します。英語および中国語のテキスト入力に対応しています。また、出力画像のサイズ、画質、スタイルの好みなどを調整するためのさまざまな制御機能を提供します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | "wan2.5-t2i-preview" | 使用するモデル(デフォルト: "wan2.5-t2i-preview") | +| `prompt` | STRING | はい | - | 要素や視覚的特徴を記述するためのプロンプト。英語/中国語をサポート(デフォルト: 空) | +| `negative_prompt` | STRING | いいえ | - | 生成時に回避すべき内容を指示するネガティブなテキストプロンプト(デフォルト: 空) | +| `width` | INT | いいえ | 768–1440 | 画像の幅(ピクセル単位)(デフォルト: 1024、ステップ: 32) | +| `height` | INT | いいえ | 768–1440 | 画像の高さ(ピクセル単位)(デフォルト: 1024、ステップ: 32) | +| `seed` | INT | いいえ | 0–2147483647 | 生成に使用するシード値(デフォルト: 0) | +| `prompt_extend` | BOOLEAN | いいえ | - | プロンプトを AI の支援により強化するかどうか(デフォルト: True) | +| `watermark` | BOOLEAN | いいえ | - | 結果画像に「AI 生成」の透かしを追加するかどうか(デフォルト: True) | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | IMAGE | テキストプロンプトに基づいて生成された画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/WanTextToVideoApi.mdx b/ja/built-in-nodes/WanTextToVideoApi.mdx new file mode 100644 index 000000000..61f823fb7 --- /dev/null +++ b/ja/built-in-nodes/WanTextToVideoApi.mdx @@ -0,0 +1,37 @@ +--- +title: "WanTextToVideoApi - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における WanTextToVideoApi ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanTextToVideoApi" +icon: "circle" +mode: wide +translationSourceHash: e6c2c3e8 +translationFrom: built-in-nodes/WanTextToVideoApi.mdx, zh-CN/built-in-nodes/WanTextToVideoApi.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanTextToVideoApi/en.md) + +Wan 文生動画(テキストから動画を生成)ノードは、テキストによる説明に基づいて動画コンテンツを生成します。このノードでは、プロンプトから動画を生成する AI モデルが利用され、さまざまな動画解像度・再生時間およびオプションの音声入力に対応しています。必要に応じて音声を自動生成することも可能であり、プロンプトの強化やウォーターマークの追加といった機能も提供されます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | COMBO | はい | "wan2.5-t2v-preview" | 使用するモデル(デフォルト:"wan2.5-t2v-preview") | +| `prompt` | STRING | はい | - | 要素および視覚的特徴を記述するためのプロンプト。英語/中国語をサポート(デフォルト:"") | +| `negative_prompt` | STRING | いいえ | - | 避けるべき内容を指示するネガティブなテキストプロンプト(デフォルト:"") | +| `size` | COMBO | いいえ | "480p: 1:1 (624x624)"
"480p: 16:9 (832x480)"
"480p: 9:16 (480x832)"
"720p: 1:1 (960x960)"
"720p: 16:9 (1280x720)"
"720p: 9:16 (720x1280)"
"720p: 4:3 (1088x832)"
"720p: 3:4 (832x1088)"
"1080p: 1:1 (1440x1440)"
"1080p: 16:9 (1920x1080)"
"1080p: 9:16 (1080x1920)"
"1080p: 4:3 (1632x1248)"
"1080p: 3:4 (1248x1632)" | 動画の解像度およびアスペクト比(デフォルト:"480p: 1:1 (624x624)") | +| `duration` | INT | いいえ | 5–10 | 利用可能な再生時間:5 秒および 10 秒(デフォルト:5) | +| `audio` | AUDIO | いいえ | - | 音声には明瞭かつ大きな声が必要であり、雑音や背景音楽を含んではいけません | +| `seed` | INT | いいえ | 0–2147483647 | 生成時に使用するシード値(デフォルト:0) | +| `generate_audio` | BOOLEAN | いいえ | - | 音声入力がない場合に、自動的に音声を生成するかどうか(デフォルト:False) | +| `prompt_extend` | BOOLEAN | いいえ | - | AI を用いた補助によりプロンプトを強化するかどうか(デフォルト:True) | +| `watermark` | BOOLEAN | いいえ | - | 結果に「AI 生成」のウォーターマークを追加するかどうか(デフォルト:True) | + +**注意:** `duration` パラメーターは、利用可能な再生時間として 5 秒または 10 秒のみを受け付けます。音声入力を指定する場合、その長さは 3.0 秒~29.0 秒の範囲内である必要があります。また、明瞭な人声を含み、背景ノイズや音楽を含んではいけません。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 入力パラメーターに基づいて生成された動画 | \ No newline at end of file diff --git a/ja/built-in-nodes/WanTrackToVideo.mdx b/ja/built-in-nodes/WanTrackToVideo.mdx new file mode 100644 index 000000000..50dcb99c8 --- /dev/null +++ b/ja/built-in-nodes/WanTrackToVideo.mdx @@ -0,0 +1,41 @@ +--- +title: "WanTrackToVideo - ComfyUI 組み込みノードのドキュメンテーション" +description: "ComfyUI の WanTrackToVideo ノードに関する完全なドキュメンテーションです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanTrackToVideo" +icon: "circle" +mode: wide +translationSourceHash: 59f3a593 +translationFrom: built-in-nodes/WanTrackToVideo.mdx, zh-CN/built-in-nodes/WanTrackToVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメンテーションは AI によって生成されました。誤りを発見した場合、または改善の提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanTrackToVideo/en.md) + +WanTrackToVideo ノードは、トラッキングポイントを処理し、対応する動画フレームを生成することで、モーショントラッキングデータを動画シーケンスに変換します。このノードはトラッキング座標を入力として受け取り、動画生成に利用可能な動画条件情報(video conditioning)および潜在表現(latent representation)を生成します。トラックデータが提供されない場合、標準的な画像から動画への変換モードにフォールバックします。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | 動画生成用のポジティブ条件情報 | +| `negative` | CONDITIONING | はい | - | 動画生成用のネガティブ条件情報 | +| `vae` | VAE | はい | - | 符号化および復号化に使用する VAE モデル | +| `tracks` | STRING | はい | - | JSON 形式のトラッキングデータ(複数行の文字列、デフォルト: `"[]"`) | +| `width` | INT | はい | 16 ~ MAX_RESOLUTION | 出力動画の幅(ピクセル単位、デフォルト: 832、ステップ: 16) | +| `height` | INT | はい | 16 ~ MAX_RESOLUTION | 出力動画の高さ(ピクセル単位、デフォルト: 480、ステップ: 16) | +| `length` | INT | はい | 1 ~ MAX_RESOLUTION | 出力動画のフレーム数(デフォルト: 81、ステップ: 4) | +| `batch_size` | INT | はい | 1 ~ 4096 | 同時に生成する動画の数(デフォルト: 1) | +| `temperature` | FLOAT | はい | 1.0 ~ 1000.0 | モーションパッチング用の温度パラメーター(デフォルト: 220.0、ステップ: 0.1) | +| `topk` | INT | はい | 1 ~ 10 | モーションパッチング用の top-k 値(デフォルト: 2) | +| `start_image` | IMAGE | いいえ | - | 動画生成の開始画像 | +| `clip_vision_output` | CLIPVISIONOUTPUT | いいえ | - | 追加の条件付けに使用する CLIP ビジョン出力 | + +**注意:** `tracks` に有効なトラッキングデータが含まれている場合、ノードはモーショントラックを処理して動画を生成します。`tracks` が空の場合、ノードは標準的な画像から動画への変換モードに切り替わります。`start_image` が指定されている場合、その画像が動画シーケンスの最初のフレームとして初期化されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | モーショントラック情報が適用されたポジティブ条件情報 | +| `negative` | CONDITIONING | モーショントラック情報が適用されたネガティブ条件情報 | +| `latent` | LATENT | 生成された動画の潜在表現 | \ No newline at end of file diff --git a/ja/built-in-nodes/WanVaceToVideo.mdx b/ja/built-in-nodes/WanVaceToVideo.mdx new file mode 100644 index 000000000..f629a425b --- /dev/null +++ b/ja/built-in-nodes/WanVaceToVideo.mdx @@ -0,0 +1,41 @@ +--- +title: "WanVaceToVideo - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における WanVaceToVideo ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WanVaceToVideo" +icon: "circle" +mode: wide +translationSourceHash: f2b4ecf1 +translationFrom: built-in-nodes/WanVaceToVideo.mdx, zh-CN/built-in-nodes/WanVaceToVideo.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WanVaceToVideo/en.md) + +WanVaceToVideo ノードは、動画生成モデル向けの動画条件付けデータを処理します。このノードは、正方向および負方向の条件付け入力に加えて動画制御データを受け取り、動画生成のための潜在表現(latent representation)を準備します。また、このノードは動画のアップスケーリング、マスク処理、および VAE エンコーディングを実行し、動画モデルに適した条件付け構造を作成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `positive` | CONDITIONING | はい | - | 生成をガイドするための正方向条件付け入力 | +| `negative` | CONDITIONING | はい | - | 生成をガイドするための負方向条件付け入力 | +| `vae` | VAE | はい | - | 画像および動画フレームのエンコーディングに使用される VAE モデル | +| `width` | INT | はい | 16 ~ MAX_RESOLUTION | 出力動画の幅(ピクセル単位)(デフォルト:832、ステップ:16) | +| `height` | INT | はい | 16 ~ MAX_RESOLUTION | 出力動画の高さ(ピクセル単位)(デフォルト:480、ステップ:16) | +| `length` | INT | はい | 1 ~ MAX_RESOLUTION | 動画のフレーム数(デフォルト:81、ステップ:4) | +| `batch_size` | INT | はい | 1 ~ 4096 | 同時に生成する動画の数(デフォルト:1) | +| `strength` | FLOAT | はい | 0.0 ~ 1000.0 | 動画条件付けの制御強度(デフォルト:1.0、ステップ:0.01) | +| `control_video` | IMAGE | いいえ | - | 制御条件付け用の任意の入力動画 | +| `control_masks` | MASK | いいえ | - | 動画のどの部分を変更するかを制御するための任意のマスク | +| `reference_image` | IMAGE | いいえ | - | 追加の条件付け用の任意の参照画像 | + +**注意:** `control_video` が指定された場合、その動画は指定された幅および高さに合わせてアップスケールされます。`control_masks` が指定された場合、それらは制御動画のサイズと一致している必要があります。`reference_image` が指定された場合、その画像は VAE を通じてエンコードされ、潜在シーケンスの先頭に追加(prepend)されます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `positive` | CONDITIONING | 動画制御データが適用された正方向条件付け | +| `negative` | CONDITIONING | 動画制御データが適用された負方向条件付け | +| `latent` | LATENT | 動画生成に備えた空の潜在テンソル | +| `trim_latent` | INT | 参照画像を使用する際にトリミングする潜在フレーム数 | \ No newline at end of file diff --git a/ja/built-in-nodes/WavespeedFlashVSRNode.mdx b/ja/built-in-nodes/WavespeedFlashVSRNode.mdx new file mode 100644 index 000000000..0f359eb80 --- /dev/null +++ b/ja/built-in-nodes/WavespeedFlashVSRNode.mdx @@ -0,0 +1,32 @@ +--- +title: "WavespeedFlashVSRNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における WavespeedFlashVSRNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WavespeedFlashVSRNode" +icon: "circle" +mode: wide +translationSourceHash: 3da86964 +translationFrom: built-in-nodes/WavespeedFlashVSRNode.mdx, zh-CN/built-in-nodes/WavespeedFlashVSRNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集する](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WavespeedFlashVSRNode/en.md) + +WavespeedFlashVSRNode は、低解像度またはぼやけた映像の解像度を向上させ、鮮明さを復元する高速かつ高品質な動画超解像(アップスケール)ノードです。このノードは入力動画を処理し、ユーザーが選択したより高い解像度で新しい動画を出力します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `video` | VIDEO | はい | N/A | アップスケール対象の入力動画ファイルです。 | +| `target_resolution` | STRING | はい | `"720p"`
`"1080p"`
`"2K"`
`"4K"` | アップスケール後の出力動画の目的解像度です。 | + +**入力制約:** + +* 入力 `video` ファイルは MP4 コンテナ形式である必要があります。 +* 入力 `video` の再生時間は 5 秒以上 10 分間(600 秒)以下である必要があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `output` | VIDEO | 選択された目的解像度で生成されたアップスケール済みの動画ファイルです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/WavespeedImageUpscaleNode.mdx b/ja/built-in-nodes/WavespeedImageUpscaleNode.mdx new file mode 100644 index 000000000..5fa0d8144 --- /dev/null +++ b/ja/built-in-nodes/WavespeedImageUpscaleNode.mdx @@ -0,0 +1,30 @@ +--- +title: "WavespeedImageUpscaleNode - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における WavespeedImageUpscaleNode ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WavespeedImageUpscaleNode" +icon: "circle" +mode: wide +translationSourceHash: f10480b1 +translationFrom: built-in-nodes/WavespeedImageUpscaleNode.mdx, zh-CN/built-in-nodes/WavespeedImageUpscaleNode.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WavespeedImageUpscaleNode/en.md) + +WaveSpeed 画像超解像ノードは、外部の AI サービスを用いて画像の解像度と画質を向上させます。このノードは単一の入力画像を受け取り、2K、4K、8K などのより高い目標解像度へと超解像処理を行い、よりシャープで詳細が豊かな結果を生成します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | STRING | はい | `"SeedVR2"`
`"Ultimate"` | 超解像処理に使用する AI モデルです。「SeedVR2」と「Ultimate」は、画質と価格のレベルが異なります。 | +| `image` | IMAGE | はい | | 超解像処理を行う入力画像です。 | +| `target_resolution` | STRING | はい | `"2K"`
`"4K"`
`"8K"` | 超解像後の画像の目的とする出力解像度です。 | + +**注意:** このノードでは、正確に 1 枚の入力画像が必要です。複数枚の画像(バッチ)を入力するとエラーになります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `image` | IMAGE | 超解像処理済みの高解像度出力画像です。 | \ No newline at end of file diff --git a/ja/built-in-nodes/WebcamCapture.mdx b/ja/built-in-nodes/WebcamCapture.mdx new file mode 100644 index 000000000..e868df33b --- /dev/null +++ b/ja/built-in-nodes/WebcamCapture.mdx @@ -0,0 +1,31 @@ +--- +title: "WebcamCapture - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における WebcamCapture ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "WebcamCapture" +icon: "circle" +mode: wide +translationSourceHash: 9f385df5 +translationFrom: built-in-nodes/WebcamCapture.mdx, zh-CN/built-in-nodes/WebcamCapture.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善のご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/WebcamCapture/en.md) + +WebcamCapture ノードは、ウェブカメラデバイスから画像をキャプチャし、ComfyUI のワークフロー内で使用可能な形式に変換します。このノードは `LoadImage` ノードを継承しており、キャプチャサイズおよびタイミングを制御するためのオプションを提供します。有効化すると、ワークフローのキューが処理されるたびに新しい画像をキャプチャできます。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `image` | WEBCAM | はい | - | 画像をキャプチャするためのウェブカメラ入力ソース | +| `width` | INT | いいえ | 0 ~ MAX_RESOLUTION | キャプチャ画像の希望幅(デフォルト:0、ウェブカメラのネイティブ解像度を使用) | +| `height` | INT | いいえ | 0 ~ MAX_RESOLUTION | キャプチャ画像の希望高さ(デフォルト:0、ウェブカメラのネイティブ解像度を使用) | +| `capture_on_queue` | BOOLEAN | いいえ | - | 有効にすると、ワークフローのキューが処理されるたびに新しい画像をキャプチャします(デフォルト:True) | + +**注意:** `width` および `height` の両方が 0 に設定されている場合、ノードはウェブカメラのネイティブ解像度を使用します。いずれかの次元を 0 でない値に設定すると、キャプチャされた画像がそれに応じてリサイズされます。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `IMAGE` | IMAGE | ComfyUI の画像形式に変換されたキャプチャ済みウェブカメラ画像 | \ No newline at end of file diff --git a/ja/built-in-nodes/ZImageFunControlnet.mdx b/ja/built-in-nodes/ZImageFunControlnet.mdx new file mode 100644 index 000000000..a3c1f150a --- /dev/null +++ b/ja/built-in-nodes/ZImageFunControlnet.mdx @@ -0,0 +1,36 @@ +--- +title: "ZImageFunControlnet - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における ZImageFunControlnet ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "ZImageFunControlnet" +icon: "circle" +mode: wide +translationSourceHash: f3bc78a6 +translationFrom: built-in-nodes/ZImageFunControlnet.mdx, zh-CN/built-in-nodes/ZImageFunControlnet.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見された場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/ZImageFunControlnet/en.md) + +ZImageFunControlnet ノードは、画像生成または編集プロセスに影響を与える専用のコントロールネットワークを適用します。このノードでは、ベースモデル、モデルパッチ、および VAE を使用し、コントロール効果の強さを調整できます。また、より精密な編集を実現するために、ベース画像、インペイント画像、およびマスクと併用することも可能です。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | - | 生成プロセスで使用されるベースモデルです。 | +| `model_patch` | MODEL_PATCH | はい | - | コントロールネットワークによるガイドを適用する専用のパッチモデルです。 | +| `vae` | VAE | はい | - | 画像のエンコードおよびデコードに使用される変分オートエンコーダです。 | +| `strength` | FLOAT | はい | -10.0 ~ 10.0 | コントロールネットワークの影響力の強さです。正の値では効果が適用され、負の値では効果が反転される場合があります(デフォルト値:1.0)。 | +| `image` | IMAGE | いいえ | - | 生成プロセスをガイドするための任意のベース画像です。 | +| `inpaint_image` | IMAGE | いいえ | - | マスクで定義された領域のインペイントに特化して使用される任意の画像です。 | +| `mask` | MASK | いいえ | - | 画像のどの領域を編集またはインペイントするかを定義する任意のマスクです。 | + +**注意:** `inpaint_image` パラメーターは通常、`mask` と組み合わせて使用され、インペイント対象のコンテンツを指定します。ノードの動作は、提供される任意の入力(例:`image` をガイドとして使用する場合、あるいは `image`、`mask`、`inpaint_image` を組み合わせてインペイントを行う場合など)に応じて変化する可能性があります。 + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | コントロールネットワークのパッチが適用されたモデルで、サンプリングパイプラインで直ちに使用可能です。 | +| `positive` | CONDITIONING | コントロールネットワークの入力によって変更される可能性のあるポジティブ条件付けです。 | +| `negative` | CONDITIONING | コントロールネットワークの入力によって変更される可能性のあるネガティブ条件付けです。 | \ No newline at end of file diff --git a/ja/built-in-nodes/conditioning/video-models/wan-vace-to-video.mdx b/ja/built-in-nodes/conditioning/video-models/wan-vace-to-video.mdx new file mode 100644 index 000000000..4c024a97c --- /dev/null +++ b/ja/built-in-nodes/conditioning/video-models/wan-vace-to-video.mdx @@ -0,0 +1,137 @@ +--- +title: "Wan Vace To Video - ComfyUI 組み込みノード ドキュメント" +description: "アリババの Tongyi Wanxiang が提供する高解像度動画生成 API を使用して動画を作成します" +sidebarTitle: "Wan Vace To Video" +icon: "circle" +translationSourceHash: 6e86d933 +translationFrom: built-in-nodes/conditioning/video-models/wan-vace-to-video.mdx, zh-CN/built-in-nodes/conditioning/video-models/wan-vace-to-video.mdx +translationMismatches: + - "description" +--- + +![Wan Vace To Video](/images/built-in-nodes/conditioning/video-models/wan-vace-to-video.jpg) + +Wan Vace To Video ノードは、テキストプロンプトを用いた動画生成を可能にし、テキスト、画像、動画、マスク、制御信号など、複数の入力方式をサポートします。 + +このノードは、入力条件(プロンプト)、制御動画、およびマスクを統合して高品質な動画を生成します。まず入力を前処理・エンコードし、その後、条件情報を適用して最終的な動画の潜在表現(latent representation)を生成します。 +参照画像が指定された場合、その画像が動画生成の初期参照として使用されます。また、制御動画およびマスクを活用することで生成プロセスを制御し、期待通りの結果を得やすくなります。 + +## パラメーター説明 + +### 必須パラメーター + +| パラメーター | 型 | デフォルト値 | 範囲 | 説明 | +| ------------ | ---------- | ------------ | ----------------- | ------------------------ | +| positive | CONDITIONING | - | - | ポジティブプロンプト条件 | +| negative | CONDITIONING | - | - | ネガティブプロンプト条件 | +| vae | VAE | - | - | エンコード/デコード用の VAE モデル | +| width | INT | 832 | 16–MAX_RESOLUTION | 動画の幅(ステップサイズ:16) | +| height | INT | 480 | 16–MAX_RESOLUTION | 動画の高さ(ステップサイズ:16) | +| length | INT | 81 | 1–MAX_RESOLUTION | 動画のフレーム数(ステップサイズ:4) | +| batch_size | INT | 1 | 1–4096 | バッチサイズ | +| strength | FLOAT | 1.0 | 0.0–1000.0 | 条件の強さ(ステップサイズ:0.01) | + +### オプションパラメーター +| パラメーター | 型 | 説明 | +| ------------------ | ----- | -------------------------------------- | +| control_video | IMAGE | 生成プロセスを制御するための制御動画 | +| control_masks | MASK | 制御対象となる領域を定義する制御マスク | +| reference_image | IMAGE | 動画生成の開始点または参照として使用する画像(単一画像) | + +### 出力パラメーター + +| パラメーター | 型 | 説明 | +| --------------- | ---------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | +| positive | CONDITIONING | 処理済みのポジティブプロンプト条件 | +| negative | CONDITIONING | 処理済みのネガティブプロンプト条件 | +| latent | LATENT | 生成された動画の潜在表現 | +| trim_latent | INT | 潜在表現をトリミングするためのパラメーター(デフォルト値:0)。参照画像が指定された場合、この値は参照画像の潜在空間における形状サイズに設定されます。これは、後続ノードが生成された潜在表現から参照画像由来のコンテンツをどれだけ削除すべきかを示すものであり、最終的な動画出力において参照画像の影響を適切に制御するために必要です。 | + + +## ソースコード + +[ソースコード更新日時: 2025-05-15] + +```Python +class WanVaceToVideo: + @classmethod + def INPUT_TYPES(s): + return {"required": {"positive": ("CONDITIONING", ), + "negative": ("CONDITIONING", ), + "vae": ("VAE", ), + "width": ("INT", {"default": 832, "min": 16, "max": nodes.MAX_RESOLUTION, "step": 16}), + "height": ("INT", {"default": 480, "min": 16, "max": nodes.MAX_RESOLUTION, "step": 16}), + "length": ("INT", {"default": 81, "min": 1, "max": nodes.MAX_RESOLUTION, "step": 4}), + "batch_size": ("INT", {"default": 1, "min": 1, "max": 4096}), + "strength": ("FLOAT", {"default": 1.0, "min": 0.0, "max": 1000.0, "step": 0.01}), + }, + "optional": {"control_video": ("IMAGE", ), + "control_masks": ("MASK", ), + "reference_image": ("IMAGE", ), + }} + + RETURN_TYPES = ("CONDITIONING", "CONDITIONING", "LATENT", "INT") + RETURN_NAMES = ("positive", "negative", "latent", "trim_latent") + FUNCTION = "encode" + + CATEGORY = "conditioning/video_models" + + EXPERIMENTAL = True + + def encode(self, positive, negative, vae, width, height, length, batch_size, strength, control_video=None, control_masks=None, reference_image=None): + latent_length = ((length - 1) // 4) + 1 + if control_video is not None: + control_video = comfy.utils.common_upscale(control_video[:length].movedim(-1, 1), width, height, "bilinear", "center").movedim(1, -1) + if control_video.shape[0] < length: + control_video = torch.nn.functional.pad(control_video, (0, 0, 0, 0, 0, 0, 0, length - control_video.shape[0]), value=0.5) + else: + control_video = torch.ones((length, height, width, 3)) * 0.5 + + if reference_image is not None: + reference_image = comfy.utils.common_upscale(reference_image[:1].movedim(-1, 1), width, height, "bilinear", "center").movedim(1, -1) + reference_image = vae.encode(reference_image[:, :, :, :3]) + reference_image = torch.cat([reference_image, comfy.latent_formats.Wan21().process_out(torch.zeros_like(reference_image))], dim=1) + + if control_masks is None: + mask = torch.ones((length, height, width, 1)) + else: + mask = control_masks + if mask.ndim == 3: + mask = mask.unsqueeze(1) + mask = comfy.utils.common_upscale(mask[:length], width, height, "bilinear", "center").movedim(1, -1) + if mask.shape[0] < length: + mask = torch.nn.functional.pad(mask, (0, 0, 0, 0, 0, 0, 0, length - mask.shape[0]), value=1.0) + + control_video = control_video - 0.5 + inactive = (control_video * (1 - mask)) + 0.5 + reactive = (control_video * mask) + 0.5 + + inactive = vae.encode(inactive[:, :, :, :3]) + reactive = vae.encode(reactive[:, :, :, :3]) + control_video_latent = torch.cat((inactive, reactive), dim=1) + if reference_image is not None: + control_video_latent = torch.cat((reference_image, control_video_latent), dim=2) + + vae_stride = 8 + height_mask = height // vae_stride + width_mask = width // vae_stride + mask = mask.view(length, height_mask, vae_stride, width_mask, vae_stride) + mask = mask.permute(2, 4, 0, 1, 3) + mask = mask.reshape(vae_stride * vae_stride, length, height_mask, width_mask) + mask = torch.nn.functional.interpolate(mask.unsqueeze(0), size=(latent_length, height_mask, width_mask), mode='nearest-exact').squeeze(0) + + trim_latent = 0 + if reference_image is not None: + mask_pad = torch.zeros_like(mask[:, :reference_image.shape[2], :, :]) + mask = torch.cat((mask_pad, mask), dim=1) + latent_length += reference_image.shape[2] + trim_latent = reference_image.shape[2] + + mask = mask.unsqueeze(0) + positive = node_helpers.conditioning_set_values(positive, {"vace_frames": control_video_latent, "vace_mask": mask, "vace_strength": strength}) + negative = node_helpers.conditioning_set_values(negative, {"vace_frames": control_video_latent, "vace_mask": mask, "vace_strength": strength}) + + latent = torch.zeros([batch_size, 16, latent_length, height // 8, width // 8], device=comfy.model_management.intermediate_device()) + out_latent = {} + out_latent["samples"] = latent + return (positive, negative, out_latent, trim_latent) diff --git a/ja/built-in-nodes/image/video/create-video.mdx b/ja/built-in-nodes/image/video/create-video.mdx new file mode 100644 index 000000000..6a6f4351f --- /dev/null +++ b/ja/built-in-nodes/image/video/create-video.mdx @@ -0,0 +1,70 @@ +--- +title: "Create Video - ComfyUI 組み込みノードドキュメンテーション" +description: "Create Video ノードは、ComfyUI で動画を作成するために使用されます。" +sidebarTitle: "Create Video" +icon: "circle" +translationSourceHash: 717d4295 +translationFrom: built-in-nodes/image/video/create-video.mdx, zh-CN/built-in-nodes/image/video/create-video.mdx +--- + +![Create Video](/images/built-in-nodes/image/video/create-video.jpg) + +CreateVideo ノードは、一連の画像を動画に合成する際に使用され、オプションで音声を追加できます。フレームレート(fps)を設定することで、再生速度を制御できます。このノードは、生成された画像シーケンスを共有やポストプロセッシング向けの標準動画ファイルにエクスポートする際に、よく利用されます。 + +## パラメーター説明 + +### 入力パラメーター + +| パラメーター | 型 | 必須 | デフォルト | 説明 | +| ---------- | ----- | ---- | -------- | -------------------------------------------------------------------- | +| images | IMAGE | はい | なし | 動画作成用の画像シーケンス(順序通りに並べる必要があります) | +| fps | FLOAT | はい | 30.0 | 動画のフレームレート(1秒間に表示されるフレーム数)。一般的な範囲は 1~120 | +| audio | AUDIO | いいえ | なし | オプションパラメーター。動画に追加する音声トラック | + +`images`:画像のシーケンスを必ず入力してください。画像の順序が動画の再生順序を決定します。 +`fps`:フレームレートが高いほど動画の滑らかさが向上しますが、ファイルサイズも大きくなります。一般的な値には 24、30、60 などがあります。 +`audio`:オプションパラメーターであり、背景音楽やナレーションを動画に追加できます。音声が不要な場合は空欄のままにしてください。 + +### 出力パラメーター +| 出力 | 型 | 説明 | +| ----- | ----- | ------------ | +| video | VIDEO | 生成された動画 | + +## 使用例 + + +動画生成ワークフローを参照し、Create Video ノードを用いて画像シーケンスを動画に統合する方法を学びましょう。 + + +## ソースコード + +[2025年5月15日更新] + +```python +class CreateVideo(ComfyNodeABC): + @classmethod + def INPUT_TYPES(cls): + return { + "required": { + "images": (IO.IMAGE, {"tooltip": "The images to create a video from."}), + "fps": ("FLOAT", {"default": 30.0, "min": 1.0, "max": 120.0, "step": 1.0}), + }, + "optional": { + "audio": (IO.AUDIO, {"tooltip": "The audio to add to the video."}), + } + } + + RETURN_TYPES = (IO.VIDEO,) + FUNCTION = "create_video" + + CATEGORY = "image/video" + DESCRIPTION = "Create a video from images." + + def create_video(self, images: ImageInput, fps: float, audio: Optional[AudioInput] = None): + return (VideoFromComponents( + VideoComponents( + images=images, + audio=audio, + frame_rate=Fraction(fps), + ) + ),) \ No newline at end of file diff --git a/ja/built-in-nodes/latent/video/trim-video-latent.mdx b/ja/built-in-nodes/latent/video/trim-video-latent.mdx new file mode 100644 index 000000000..3d717947c --- /dev/null +++ b/ja/built-in-nodes/latent/video/trim-video-latent.mdx @@ -0,0 +1,59 @@ +--- +title: TrimVideoLatent ノード +description: 潜在空間における動画フレームのトリミング +sidebarTitle: TrimVideoLatent +translationSourceHash: ab672112 +translationFrom: built-in-nodes/latent/video/trim-video-latent.mdx, zh-CN/built-in-nodes/latent/video/trim-video-latent.mdx +translationMismatches: + - "description" +--- + +![ComfyUI TrimVideoLatent ノード](/images/built-in-nodes/latent/video/trim-video-latent.jpg) + +TrimVideoLatent ノードは、潜在空間(LATENT)内で動画フレームをトリミングするために使用されます。動画の潜在変数シーケンスを処理する際に、先頭から不要なフレームを除去する「前方トリミング」を実現するために、よく用いられます。 + +基本的な使い方:トリミング対象の動画潜在データを `samples` に入力し、`trim_amount` にトリミングするフレーム数を指定します。このノードは、動画の先頭から指定されたフレーム数を削除し、残った潜在変数シーケンスを出力します。 +典型的な利用シーン:動画生成や動画編集などの用途において、不要な先頭フレームを除去する場合、あるいは他のノードと連携して動画セグメントの結合・処理を行う場合などに使用されます。 + +## パラメータ + +### 入力パラメータ +| パラメータ | 型 | 必須 | デフォルト | 説明 | +| -------------- | ------ | ---- | ---------- | -------------------------------- | +| samples | LATENT | はい | なし | 入力する潜在動画データ | +| trim_amount | INT | はい | 0 | トリミングするフレーム数(先頭から) | + +### 出力パラメータ +| パラメータ | 型 | 説明 | +| ---------- | ------ | -------------------- | +| samples | LATENT | トリミング後の動画潜在データ | + +## 使用例 + + +Wan2.1 VACE 動画生成ワークフローの例 + + +### ソースコード + +```python +class TrimVideoLatent: + @classmethod + def INPUT_TYPES(s): + return {"required": { "samples": ("LATENT",), + "trim_amount": ("INT", {"default": 0, "min": 0, "max": 99999}), + }} + + RETURN_TYPES = ("LATENT",) + FUNCTION = "op" + + CATEGORY = "latent/video" + + EXPERIMENTAL = True + + def op(self, samples, trim_amount): + samples_out = samples.copy() + + s1 = samples["samples"] + samples_out["samples"] = s1[:, :, trim_amount:] + return (samples_out,) diff --git a/ja/built-in-nodes/overview.mdx b/ja/built-in-nodes/overview.mdx new file mode 100644 index 000000000..602c6b065 --- /dev/null +++ b/ja/built-in-nodes/overview.mdx @@ -0,0 +1,17 @@ +--- +title: "ComfyUI 組み込みノード" +description: "ComfyUI 組み込みノードの紹介" +sidebarTitle: "概要" +translationSourceHash: 89fae77b +translationFrom: built-in-nodes/overview.mdx, zh-CN/built-in-nodes/overview.mdx +--- + +組み込みノードは、ComfyUI のデフォルトノードです。これらは ComfyUI のコア機能であり、第三者製のカスタムノードパッケージを追加でインストールすることなく利用できます。 + +## 組み込みノードのドキュメントについて + +現在、組み込みノード向けのヘルプドキュメントを追加しました。このセクションの内容は、定期的に [このリポジトリ](https://github.com/Comfy-Org/embedded-docs) から同期されています。コンテンツの更新は、毎週1回手動で行います。 + +## 貢献について + +コンテンツに誤りを発見した場合、または不足している内容を追加したい場合は、[このリポジトリ](https://github.com/Comfy-Org/embedded-docs) にて Issue または PR を提出して、私たちの改善活動にご協力ください。 \ No newline at end of file diff --git a/ja/built-in-nodes/partner-node/image/bfl/flux-1-1-pro-ultra-image.mdx b/ja/built-in-nodes/partner-node/image/bfl/flux-1-1-pro-ultra-image.mdx new file mode 100644 index 000000000..bae9ed56c --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/bfl/flux-1-1-pro-ultra-image.mdx @@ -0,0 +1,196 @@ +--- +title: "Flux 1.1 [pro] Ultra Image — ComfyUI ネイティブノードドキュメント" +description: "Black Forest Labs の高解像度画像生成 API を使用して画像を作成します" +sidebarTitle: "Flux 1.1 [pro] Ultra Image" +icon: "circle" +translationSourceHash: 5694546b +translationFrom: built-in-nodes/partner-node/image/bfl/flux-1-1-pro-ultra-image.mdx, zh-CN/built-in-nodes/partner-node/image/bfl/flux-1-1-pro-ultra-image.mdx +--- + +![ComfyUI ネイティブ Flux 1.1 [pro] Ultra Image ノード](/images/built-in-nodes/api_nodes/bfl/flux-1-1-pro-ultra-image.jpg) + +Flux 1.1 [pro] Ultra Image ノードは、テキストプロンプトを用いて超高解像度の画像を生成する機能を提供し、Black Forest Labs の最新画像生成 API に直接接続します。 + +このノードは、以下の2つの主要な使用モードをサポートしています: +1. **テキスト→画像(Text-to-Image)**:画像入力がない場合、テキストプロンプトから高品質な画像を生成します +2. **画像→画像(Image-to-Image)**:既存の画像とプロンプトを組み合わせ、両者の特徴を融合した新しい画像を生成します(Remix モード) + +このノードは API 呼び出しを通じて Ultra モードをサポートしており、標準的な Flux 1.1 [pro] と比較して最大4倍の解像度(最大4MP)で画像を生成できます。また、プロンプトへの忠実性を損なわず、わずか10秒という超高速な生成時間を実現します。他の高解像度モデルと比較すると、その生成速度は2.5倍以上高速です。 + +## パラメータ説明 + +### 基本パラメータ + +| パラメータ | 型 | デフォルト値 | 説明 | +| ----------------- | ------ | ------------ | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | +| prompt | 文字列 | "" | 画像生成のためのテキストによる説明 | +| prompt_upsampling | ブール値 | False | プロンプトのディテール強化にプロンプトアップサンプリング技術を用いるかどうか。有効にすると、より創造的な生成のために自動的にプロンプトが修正されますが、結果は非決定論的になります(同一のシードでも完全に同じ結果にはなりません) | +| seed | 整数 | 0 | 乱数シード値。生成時のランダム性を制御します | +| aspect_ratio | 文字列 | "16:9" | 画像の幅と高さの比率。1:4 ~ 4:1 の範囲内である必要があります | +| raw | ブール値 | False | `True` に設定すると、処理が少なく、より自然な見た目の画像が生成されます | + +### オプションパラメータ + +| パラメータ | 型 | デフォルト値 | 説明 | +| --------------------- | ------ | ------------ | ------------------------------------------------------------------------------------------------------------------------------------------------- | +| image_prompt | 画像 | なし | オプションの入力。画像→画像(Remix)モードで使用します | +| image_prompt_strength | 浮動小数点数 | 0.1 | `image_prompt` が入力された場合に有効になり、プロンプトと画像プロンプトのブレンド具合を調整します。値が大きいほど出力画像は入力画像に近くなります(範囲:0.0~1.0) | + +### 出力 + +| 出力 | 型 | 説明 | +| ------ | ---- | ------------------------ | +| IMAGE | 画像 | 生成された高解像度画像の結果 | + +## 使用例 +対応する使用例については、以下のチュートリアルをご覧ください。 + +- [Flux 1.1 Pro Ultra Image API ノード ComfyUI 公式サンプルワークフロー](/tutorials/partner-nodes/black-forest-labs/flux-1-1-pro-ultra-image) + +## 動作原理 + +Flux 1.1 [pro] Ultra モードは、最適化されたディープラーニングアーキテクチャと効率的な GPU 加速技術を活用することで、高速性を犠牲にすることなく高解像度画像の生成を実現します。API へリクエストが送信されると、システムはプロンプトを解析し、適切なパラメータを適用した上で並列処理により画像を計算し、最終的に高解像度の結果を生成・返却します。 + +常規模型と比較して、Ultra モードは特に大規模なスケールにおけるディテールの保持と一貫性に重点を置いており、4MP という高解像度においても優れた画質を保証します。 + +## ソースコード + +[ノードソースコード(2025-05-03 更新)] + +```python +class FluxProUltraImageNode(ComfyNodeABC): + """ + Generates images synchronously based on prompt and resolution. + """ + + MINIMUM_RATIO = 1 / 4 + MAXIMUM_RATIO = 4 / 1 + MINIMUM_RATIO_STR = "1:4" + MAXIMUM_RATIO_STR = "4:1" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "Prompt for the image generation", + }, + ), + "prompt_upsampling": ( + IO.BOOLEAN, + { + "default": False, + "tooltip": "Whether to perform upsampling on the prompt. If active, automatically modifies the prompt for more creative generation, but results are nondeterministic (same seed will not produce exactly the same result).", + }, + ), + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 0xFFFFFFFFFFFFFFFF, + "control_after_generate": True, + "tooltip": "The random seed used for creating the noise.", + }, + ), + "aspect_ratio": ( + IO.STRING, + { + "default": "16:9", + "tooltip": "Aspect ratio of image; must be between 1:4 and 4:1.", + }, + ), + "raw": ( + IO.BOOLEAN, + { + "default": False, + "tooltip": "When True, generate less processed, more natural-looking images.", + }, + ), + }, + "optional": { + "image_prompt": (IO.IMAGE,), + "image_prompt_strength": ( + IO.FLOAT, + { + "default": 0.1, + "min": 0.0, + "max": 1.0, + "step": 0.01, + "tooltip": "Blend between the prompt and the image prompt.", + }, + ), + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + @classmethod + def VALIDATE_INPUTS(cls, aspect_ratio: str): + try: + validate_aspect_ratio( + aspect_ratio, + minimum_ratio=cls.MINIMUM_RATIO, + maximum_ratio=cls.MAXIMUM_RATIO, + minimum_ratio_str=cls.MINIMUM_RATIO_STR, + maximum_ratio_str=cls.MAXIMUM_RATIO_STR, + ) + except Exception as e: + return str(e) + return True + + RETURN_TYPES = (IO.IMAGE,) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "api_call" + API_NODE = True + CATEGORY = "api node/image/bfl" + + def api_call( + self, + prompt: str, + aspect_ratio: str, + prompt_upsampling=False, + raw=False, + seed=0, + image_prompt=None, + image_prompt_strength=0.1, + auth_token=None, + **kwargs, + ): + operation = SynchronousOperation( + endpoint=ApiEndpoint( + path="/proxy/bfl/flux-pro-1.1-ultra/generate", + method=HttpMethod.POST, + request_model=BFLFluxProUltraGenerateRequest, + response_model=BFLFluxProGenerateResponse, + ), + request=BFLFluxProUltraGenerateRequest( + prompt=prompt, + prompt_upsampling=prompt_upsampling, + seed=seed, + aspect_ratio=validate_aspect_ratio( + aspect_ratio, + minimum_ratio=self.MINIMUM_RATIO, + maximum_ratio=self.MAXIMUM_RATIO, + minimum_ratio_str=self.MINIMUM_RATIO_STR, + maximum_ratio_str=self.MAXIMUM_RATIO_STR, + ), + raw=raw, + image_prompt=( + image_prompt + if image_prompt is None + else convert_image_to_base64(image_prompt) + ), + image_prompt_strength=( + None if image_prompt is None else round(image_prompt_strength, 2) + ), + ), + auth_token=auth_token, + ) + output_image = handle_bfl_synchronous_operation(operation) + return (output_image,) \ No newline at end of file diff --git a/ja/built-in-nodes/partner-node/image/ideogram/ideogram-v1.mdx b/ja/built-in-nodes/partner-node/image/ideogram/ideogram-v1.mdx new file mode 100644 index 000000000..98d289146 --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/ideogram/ideogram-v1.mdx @@ -0,0 +1,170 @@ +--- +title: "Ideogram V1 - ComfyUI ネイティブノードドキュメント" +description: "Ideogram API を使用して、高精度なテキストレンダリング画像を生成するノード" +sidebarTitle: "Ideogram V1" +icon: "circle" +translationSourceHash: 543db2e1 +translationFrom: built-in-nodes/partner-node/image/ideogram/ideogram-v1.mdx, zh-CN/built-in-nodes/partner-node/image/ideogram/ideogram-v1.mdx +translationMismatches: + - "description" +--- + +![ComfyUI ネイティブ Ideogram V1 ノード](/images/built-in-nodes/api_nodes/ideogram/ideogram-v1.jpg) + +Ideogram V1 ノードは、Ideogram のテキストから画像を生成する API を用いて、高品質なテキストレンダリング機能を備えた画像を生成できます。 + +## パラメータ説明 + +### 必須パラメータ + +| パラメータ | 型 | デフォルト値 | 説明 | +| --------------------- | ------ | ------------ | -------------------------------------------------------------------- | +| `prompt` | 文字列 | `""` | 生成するコンテンツを記述するテキストプロンプト | +| `turbo` | ブール値 | `False` | Turbo モードを使用するかどうか(生成が高速だが、画質がやや低下する可能性あり) | +| `aspect_ratio` | 選択肢 | `"1:1"` | 画像のアスペクト比 | +| `magic_prompt_option` | 選択肢 | `"AUTO"` | 生成時に MagicPrompt を使用するかを決定するオプション:`AUTO`、`ON`、`OFF` | +| `seed` | 整数 | `0` | 乱数シード値(0~2147483647) | +| `negative_prompt` | 文字列 | `""` | 画像に含めたくない要素を指定 | +| `num_images` | 整数 | `1` | 生成する画像の枚数(1~8) | + + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ---------------- | +| `IMAGE` | 画像 | 生成された画像結果 | + +## ソースコード + +[ノードソースコード(2025-05-03 更新)] + +```python +class IdeogramV1(ComfyNodeABC): + """ + Generates images synchronously using the Ideogram V1 model. + + Images links are available for a limited period of time; if you would like to keep the image, you must download it. + """ + + def __init__(self): + pass + + @classmethod + def INPUT_TYPES(cls) -> InputTypeDict: + return { + "required": { + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "Prompt for the image generation", + }, + ), + "turbo": ( + IO.BOOLEAN, + { + "default": False, + "tooltip": "Whether to use turbo mode (faster generation, potentially lower quality)", + } + ), + }, + "optional": { + "aspect_ratio": ( + IO.COMBO, + { + "options": list(V1_V2_RATIO_MAP.keys()), + "default": "1:1", + "tooltip": "The aspect ratio for image generation.", + }, + ), + "magic_prompt_option": ( + IO.COMBO, + { + "options": ["AUTO", "ON", "OFF"], + "default": "AUTO", + "tooltip": "Determine if MagicPrompt should be used in generation", + }, + ), + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 2147483647, + "step": 1, + "control_after_generate": True, + "display": "number", + }, + ), + "negative_prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "Description of what to exclude from the image", + }, + ), + "num_images": ( + IO.INT, + {"default": 1, "min": 1, "max": 8, "step": 1, "display": "number"}, + ), + }, + "hidden": {"auth_token": "AUTH_TOKEN_COMFY_ORG"}, + } + + RETURN_TYPES = (IO.IMAGE,) + FUNCTION = "api_call" + CATEGORY = "api node/image/ideogram/v1" + DESCRIPTION = cleandoc(__doc__ or "") + API_NODE = True + + def api_call( + self, + prompt, + turbo=False, + aspect_ratio="1:1", + magic_prompt_option="AUTO", + seed=0, + negative_prompt="", + num_images=1, + auth_token=None, + ): + # Determine the model based on turbo setting + aspect_ratio = V1_V2_RATIO_MAP.get(aspect_ratio, None) + model = "V_1_TURBO" if turbo else "V_1" + + operation = SynchronousOperation( + endpoint=ApiEndpoint( + path="/proxy/ideogram/generate", + method=HttpMethod.POST, + request_model=IdeogramGenerateRequest, + response_model=IdeogramGenerateResponse, + ), + request=IdeogramGenerateRequest( + image_request=ImageRequest( + prompt=prompt, + model=model, + num_images=num_images, + seed=seed, + aspect_ratio=aspect_ratio if aspect_ratio != "ASPECT_1_1" else None, + magic_prompt_option=( + magic_prompt_option if magic_prompt_option != "AUTO" else None + ), + negative_prompt=negative_prompt if negative_prompt else None, + ) + ), + auth_token=auth_token, + ) + + response = operation.execute() + + if not response.data or len(response.data) == 0: + raise Exception("No images were generated in the response") + + image_urls = [image_data.url for image_data in response.data if image_data.url] + + if not image_urls: + raise Exception("No image URLs were generated in the response") + + return (download_and_process_images(image_urls),) \ No newline at end of file diff --git a/ja/built-in-nodes/partner-node/image/ideogram/ideogram-v2.mdx b/ja/built-in-nodes/partner-node/image/ideogram/ideogram-v2.mdx new file mode 100644 index 000000000..e08ac3507 --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/ideogram/ideogram-v2.mdx @@ -0,0 +1,217 @@ +--- +title: "Ideogram V2 - ComfyUI 組み込みノードのドキュメント" +description: "Ideogram V2 API を使用して高品質な画像およびテキストレンダリングを生成するノード" +sidebarTitle: "Ideogram V2" +icon: "circle" +translationSourceHash: c1d3fdee +translationFrom: built-in-nodes/partner-node/image/ideogram/ideogram-v2.mdx, zh-CN/built-in-nodes/partner-node/image/ideogram/ideogram-v2.mdx +translationMismatches: + - "description" +--- + +![ComfyUI 組み込み Ideogram V2 ノード](/images/built-in-nodes/api_nodes/ideogram/ideogram-v2.jpg) + +Ideogram V2 ノードは、Ideogram の第2世代 AI モデルを活用して、より洗練された画像を生成します。特にテキストのレンダリング品質、画像全体の画質、および美観において大幅な向上が図られています。 + +## パラメーター + +### 必須パラメーター + +| パラメーター | 型 | デフォルト値 | 説明 | +| ------------ | ------ | ------------ | ------------------------------------------------------------ | +| prompt | 文字列 | "" | 生成対象のコンテンツを記述するテキストプロンプト | +| turbo | ブール値 | False | Turbo モードを使用するかどうか(生成速度は速いが、画質がやや低下する可能性あり) | + +### オプションパラメーター + +| パラメーター | 型 | デフォルト値 | 説明 | +| ---------------------- | ------ | ------------ | ------------------------------------------------------------------------------------------------------ | +| aspect_ratio | 選択肢 | "1:1" | 画像のアスペクト比。`resolution` が `"Auto"` に設定されている場合に有効 | +| resolution | 選択肢 | "Auto" | 出力画像の解像度。`"Auto"` 以外に設定した場合、`aspect_ratio` の設定を上書きします | +| magic_prompt_option | 選択肢 | "AUTO" | 生成時に MagicPrompt 機能を利用するかどうかを指定します。選択肢は `["AUTO", "ON", "OFF"]` です | +| seed | 整数 | 0 | 乱数シード値(範囲:0~2147483647) | +| style_type | 選択肢 | "NONE" | 生成スタイルの種類(V2 専用)。選択肢は `["AUTO", "GENERAL", "REALISTIC", "DESIGN", "RENDER_3D", "ANIME"]` です | +| negative_prompt | 文字列 | "" | 画像内に出現してほしくない要素を指定します | +| num_images | 整数 | 1 | 生成する画像の枚数(範囲:1~8) | + +### 出力 + +| 出力 | 型 | 説明 | +| ------- | ---- | ------------ | +| IMAGE | 画像 | 生成された画像 | + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] +```python + +class IdeogramV2(ComfyNodeABC): + """ + Generates images synchronously using the Ideogram V2 model. + + Images links are available for a limited period of time; if you would like to keep the image, you must download it. + """ + + def __init__(self): + pass + + @classmethod + def INPUT_TYPES(cls) -> InputTypeDict: + return { + "required": { + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "Prompt for the image generation", + }, + ), + "turbo": ( + IO.BOOLEAN, + { + "default": False, + "tooltip": "Whether to use turbo mode (faster generation, potentially lower quality)", + } + ), + }, + "optional": { + "aspect_ratio": ( + IO.COMBO, + { + "options": list(V1_V2_RATIO_MAP.keys()), + "default": "1:1", + "tooltip": "The aspect ratio for image generation. Ignored if resolution is not set to AUTO.", + }, + ), + "resolution": ( + IO.COMBO, + { + "options": list(V1_V1_RES_MAP.keys()), + "default": "Auto", + "tooltip": "The resolution for image generation. If not set to AUTO, this overrides the aspect_ratio setting.", + }, + ), + "magic_prompt_option": ( + IO.COMBO, + { + "options": ["AUTO", "ON", "OFF"], + "default": "AUTO", + "tooltip": "Determine if MagicPrompt should be used in generation", + }, + ), + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 2147483647, + "step": 1, + "control_after_generate": True, + "display": "number", + }, + ), + "style_type": ( + IO.COMBO, + { + "options": ["AUTO", "GENERAL", "REALISTIC", "DESIGN", "RENDER_3D", "ANIME"], + "default": "NONE", + "tooltip": "Style type for generation (V2 only)", + }, + ), + "negative_prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "Description of what to exclude from the image", + }, + ), + "num_images": ( + IO.INT, + {"default": 1, "min": 1, "max": 8, "step": 1, "display": "number"}, + ), + #"color_palette": ( + # IO.STRING, + # { + # "multiline": False, + # "default": "", + # "tooltip": "Color palette preset name or hex colors with weights", + # }, + #), + }, + "hidden": {"auth_token": "AUTH_TOKEN_COMFY_ORG"}, + } + + RETURN_TYPES = (IO.IMAGE,) + FUNCTION = "api_call" + CATEGORY = "api node/image/ideogram/v2" + DESCRIPTION = cleandoc(__doc__ or "") + API_NODE = True + + def api_call( + self, + prompt, + turbo=False, + aspect_ratio="1:1", + resolution="Auto", + magic_prompt_option="AUTO", + seed=0, + style_type="NONE", + negative_prompt="", + num_images=1, + color_palette="", + auth_token=None, + ): + aspect_ratio = V1_V2_RATIO_MAP.get(aspect_ratio, None) + resolution = V1_V1_RES_MAP.get(resolution, None) + # Determine the model based on turbo setting + model = "V_2_TURBO" if turbo else "V_2" + + # Handle resolution vs aspect_ratio logic + # If resolution is not AUTO, it overrides aspect_ratio + final_resolution = None + final_aspect_ratio = None + + if resolution != "AUTO": + final_resolution = resolution + else: + final_aspect_ratio = aspect_ratio if aspect_ratio != "ASPECT_1_1" else None + + operation = SynchronousOperation( + endpoint=ApiEndpoint( + path="/proxy/ideogram/generate", + method=HttpMethod.POST, + request_model=IdeogramGenerateRequest, + response_model=IdeogramGenerateResponse, + ), + request=IdeogramGenerateRequest( + image_request=ImageRequest( + prompt=prompt, + model=model, + num_images=num_images, + seed=seed, + aspect_ratio=final_aspect_ratio, + resolution=final_resolution, + magic_prompt_option=( + magic_prompt_option if magic_prompt_option != "AUTO" else None + ), + style_type=style_type if style_type != "NONE" else None, + negative_prompt=negative_prompt if negative_prompt else None, + color_palette=color_palette if color_palette else None, + ) + ), + auth_token=auth_token, + ) + + response = operation.execute() + + if not response.data or len(response.data) == 0: + raise Exception("No images were generated in the response") + + image_urls = [image_data.url for image_data in response.data if image_data.url] + + if not image_urls: + raise Exception("No image URLs were generated in the response") + + return (download_and_process_images(image_urls),) diff --git a/ja/built-in-nodes/partner-node/image/ideogram/ideogram-v3.mdx b/ja/built-in-nodes/partner-node/image/ideogram/ideogram-v3.mdx new file mode 100644 index 000000000..053594cf8 --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/ideogram/ideogram-v3.mdx @@ -0,0 +1,299 @@ +--- +title: "Ideogram V3 - ComfyUI ネイティブノードドキュメント" +description: "Ideogram の最新 V3 API を使用して、高品質な画像およびテキストレンダリングを実行するノード" +sidebarTitle: "Ideogram V3" +icon: "circle" +translationSourceHash: e7b05ee5 +translationFrom: built-in-nodes/partner-node/image/ideogram/ideogram-v3.mdx, zh-CN/built-in-nodes/partner-node/image/ideogram/ideogram-v3.mdx +translationMismatches: + - "description" +--- + +![ComfyUI ネイティブ Ideogram V3 ノード](/images/built-in-nodes/api_nodes/ideogram/ideogram-v3.jpg) + +このノードは Ideogram V3 API に接続し、画像生成タスクを実行します。 + +現在、このノードは以下の2つの画像生成モードをサポートしています: +- **テキストから画像へ(Text-to-Image)モード**:テキストプロンプトから新しい画像を生成 +- **インペインティング(Inpainting)モード**:元の画像とマスクを指定することで、特定の領域を再生成 + +### テキストから画像へ(Text-to-Image)モード +これはデフォルトのモードであり、画像またはマスクの入力が提供されていない場合に有効になります。単にプロンプトと必要なパラメータを指定してください: + +1. プロンプト欄に、生成したい画像の内容を記述します +2. 適切なアスペクト比または解像度を選択します +3. マジックプロンプト、シード、レンダリング品質などのその他のパラメータを調整します +4. ノードを実行して画像を生成します + +### インペインティング(Inpainting)モード +**重要なお知らせ**:このモードでは、画像とマスクの両方の入力が必須です。片方のみが提供された場合、ノードはエラーをスローします。 + +1. 元の画像を `image` 入力ポートに接続します +2. 元の画像と同じサイズのマスクを作成し、白色の領域が再生成対象となるようにします +3. マスクを `mask` 入力ポートに接続します +4. プロンプト欄に、マスクで指定された領域に生成したい内容を記述します +5. ノードを実行して局所的な編集を行います + +## パラメータ説明 + +### 基本パラメータ + +| パラメータ | 型 | デフォルト値 | 説明 | +|----------------------|--------|------------|------------------------------------------| +| prompt | 文字列 | "" | 生成するコンテンツを記述するテキストプロンプト | +| aspect_ratio | 選択肢 | "1:1" | 画像のアスペクト比(テキストから画像へモードのみ有効) | +| resolution | 選択肢 | "Auto" | 画像の解像度。設定するとアスペクト比の設定を上書きします | +| magic_prompt_option | 選択肢 | "AUTO" | マジックプロンプトの強化設定:`AUTO`、`ON`、`OFF` | +| seed | 整数 | 0 | 乱数シード値。0 の場合はランダム生成になります | +| num_images | 整数 | 1 | 生成する画像の枚数(1~8) | +| rendering_speed | 選択肢 | "BALANCED" | レンダリング速度:`BALANCED`、`TURBO`、`QUALITY` | + +### オプションパラメータ + +| パラメータ | 型 | 説明 | +|----------|------|--------------------------------------------------------------| +| image | 画像 | インペインティングモード用の入力画像(**マスクと同時に指定必須**) | +| mask | マスク | インペインティング用のマスク。白色の領域が置き換えられます(**画像と同時に指定必須**) | + +### 出力 + +| 出力 | 型 | 説明 | +|--------|------|--------------| +| IMAGE | 画像 | 生成された画像 | + +## 動作原理 + +Ideogram V3 ノードは、最先端のAIモデルを活用してユーザー入力を処理し、複雑なデザイン意図やテキストレイアウト要件を理解することができます。主に以下の2つのモードをサポートしています: + +1. **生成モード**:テキストプロンプトから新しい画像を作成 +2. **編集モード**:元の画像とマスクの組み合わせを使用し、マスクで指定された領域のみを置き換えます + +## ソースコード + +[ノードソースコード(2025-05-03 更新)] + +```python + +class IdeogramV3(ComfyNodeABC): + """ + Generates images synchronously using the Ideogram V3 model. + + Supports both regular image generation from text prompts and image editing with mask. + Images links are available for a limited period of time; if you would like to keep the image, you must download it. + """ + + def __init__(self): + pass + + @classmethod + def INPUT_TYPES(cls) -> InputTypeDict: + return { + "required": { + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "Prompt for the image generation or editing", + }, + ), + }, + "optional": { + "image": ( + IO.IMAGE, + { + "default": None, + "tooltip": "Optional reference image for image editing.", + }, + ), + "mask": ( + IO.MASK, + { + "default": None, + "tooltip": "Optional mask for inpainting (white areas will be replaced)", + }, + ), + "aspect_ratio": ( + IO.COMBO, + { + "options": list(V3_RATIO_MAP.keys()), + "default": "1:1", + "tooltip": "The aspect ratio for image generation. Ignored if resolution is not set to Auto.", + }, + ), + "resolution": ( + IO.COMBO, + { + "options": V3_RESOLUTIONS, + "default": "Auto", + "tooltip": "The resolution for image generation. If not set to Auto, this overrides the aspect_ratio setting.", + }, + ), + "magic_prompt_option": ( + IO.COMBO, + { + "options": ["AUTO", "ON", "OFF"], + "default": "AUTO", + "tooltip": "Determine if MagicPrompt should be used in generation", + }, + ), + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 2147483647, + "step": 1, + "control_after_generate": True, + "display": "number", + }, + ), + "num_images": ( + IO.INT, + {"default": 1, "min": 1, "max": 8, "step": 1, "display": "number"}, + ), + "rendering_speed": ( + IO.COMBO, + { + "options": ["BALANCED", "TURBO", "QUALITY"], + "default": "BALANCED", + "tooltip": "Controls the trade-off between generation speed and quality", + }, + ), + }, + "hidden": {"auth_token": "AUTH_TOKEN_COMFY_ORG"}, + } + + RETURN_TYPES = (IO.IMAGE,) + FUNCTION = "api_call" + CATEGORY = "api node/image/ideogram/v3" + DESCRIPTION = cleandoc(__doc__ or "") + API_NODE = True + + def api_call( + self, + prompt, + image=None, + mask=None, + resolution="Auto", + aspect_ratio="1:1", + magic_prompt_option="AUTO", + seed=0, + num_images=1, + rendering_speed="BALANCED", + auth_token=None, + ): + # Check if both image and mask are provided for editing mode + if image is not None and mask is not None: + # Edit mode + path = "/proxy/ideogram/ideogram-v3/edit" + + # Process image and mask + input_tensor = image.squeeze().cpu() + + # Validate mask dimensions match image + if mask.shape[1:] != image.shape[1:-1]: + raise Exception("Mask and Image must be the same size") + + # Process image + img_np = (input_tensor.numpy() * 255).astype(np.uint8) + img = Image.fromarray(img_np) + img_byte_arr = io.BytesIO() + img.save(img_byte_arr, format="PNG") + img_byte_arr.seek(0) + img_binary = img_byte_arr + img_binary.name = "image.png" + + # Process mask - white areas will be replaced + mask_np = (mask.squeeze().cpu().numpy() * 255).astype(np.uint8) + mask_img = Image.fromarray(mask_np) + mask_byte_arr = io.BytesIO() + mask_img.save(mask_byte_arr, format="PNG") + mask_byte_arr.seek(0) + mask_binary = mask_byte_arr + mask_binary.name = "mask.png" + + # Create edit request + edit_request = IdeogramV3EditRequest( + prompt=prompt, + rendering_speed=rendering_speed, + ) + + # Add optional parameters + if magic_prompt_option != "AUTO": + edit_request.magic_prompt = magic_prompt_option + if seed != 0: + edit_request.seed = seed + if num_images > 1: + edit_request.num_images = num_images + + # Execute the operation for edit mode + operation = SynchronousOperation( + endpoint=ApiEndpoint( + path=path, + method=HttpMethod.POST, + request_model=IdeogramV3EditRequest, + response_model=IdeogramGenerateResponse, + ), + request=edit_request, + files={ + "image": img_binary, + "mask": mask_binary, + }, + content_type="multipart/form-data", + auth_token=auth_token, + ) + + elif image is not None or mask is not None: + # If only one of image or mask is provided, raise an error + raise Exception("Ideogram V3 image editing requires both an image AND a mask") + else: + # Generation mode + path = "/proxy/ideogram/ideogram-v3/generate" + + # Create generation request + gen_request = IdeogramV3Request( + prompt=prompt, + rendering_speed=rendering_speed, + ) + + # Handle resolution vs aspect ratio + if resolution != "Auto": + gen_request.resolution = resolution + elif aspect_ratio != "1:1": + v3_aspect = V3_RATIO_MAP.get(aspect_ratio) + if v3_aspect: + gen_request.aspect_ratio = v3_aspect + + # Add optional parameters + if magic_prompt_option != "AUTO": + gen_request.magic_prompt = magic_prompt_option + if seed != 0: + gen_request.seed = seed + if num_images > 1: + gen_request.num_images = num_images + + # Execute the operation for generation mode + operation = SynchronousOperation( + endpoint=ApiEndpoint( + path=path, + method=HttpMethod.POST, + request_model=IdeogramV3Request, + response_model=IdeogramGenerateResponse, + ), + request=gen_request, + auth_token=auth_token, + ) + + # Execute the operation and process response + response = operation.execute() + + if not response.data or len(response.data) == 0: + raise Exception("No images were generated in the response") + + image_urls = [image_data.url for image_data in response.data if image_data.url] + + if not image_urls: + raise Exception("No image URLs were generated in the response") + + return (download_and_process_images(image_urls),) diff --git a/ja/built-in-nodes/partner-node/image/luma/luma-image-to-image.mdx b/ja/built-in-nodes/partner-node/image/luma/luma-image-to-image.mdx new file mode 100644 index 000000000..930b15edd --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/luma/luma-image-to-image.mdx @@ -0,0 +1,170 @@ +--- +title: "Luma Image to Image - ComfyUI 組み込みノードドキュメント" +description: "Luma AI を使用して画像を編集するノード" +sidebarTitle: "Luma Image to Image" +icon: "circle" +translationSourceHash: 4a7d1330 +translationFrom: built-in-nodes/partner-node/image/luma/luma-image-to-image.mdx, zh-CN/built-in-nodes/partner-node/image/luma/luma-image-to-image.mdx +translationMismatches: + - "description" +--- + +![ComfyUI 組み込み Luma Image to Image ノード](/images/built-in-nodes/api_nodes/luma/luma-image-to-image.jpg) + +Luma Image to Image ノードは、テキストプロンプトに基づいて既存の画像を Luma AI 技術で編集できるようにし、元の画像の特定の特徴や構造を保持します。 + +## ノードの機能 + +このノードは Luma AI のテキストから画像を生成する API に接続し、詳細なテキストプロンプトを用いて画像を生成することを可能にします。Luma AI は、優れたリアリズムとディテール表現が特徴であり、特に写真のようにリアルなコンテンツやアーティスティックなスタイルの画像生成に優れています。 + +## パラメーター + +### 基本パラメーター + +| パラメーター | 型 | デフォルト | 説明 | +| ------------------ | ------- | ---------- | -------------------------------------------------------------------------------------- | +| prompt | 文字列 | "" | 生成するコンテンツを記述するテキストプロンプト | +| model | 選択肢 | - | 使用する生成モデルを選択 | +| aspect_ratio | 選択肢 | 16:9 | 出力画像のアスペクト比を設定 | +| seed | 整数 | 0 | ノードを再実行するかどうかを判定するためのシード値ですが、実際の出力結果はシードに依存しません | +| style_image_weight | 浮動小数点数 | 1.0 | スタイル参照画像の重み(範囲:0.02~1.0)。`style_image` が指定されている場合のみ有効です | + +### オプションパラメーター +以下のパラメーターが入力されない場合、ノードは「テキストから画像」モードで動作します。 + +| パラメーター | 型 | 説明 | +| ----------------- | -------- | --------------------------------------------------------------------------------------------------------------------------------- | +| image_luma_ref | LUMA_REF | Luma 参照ノードとの接続。入力画像を通じて生成結果に影響を与え、最大4枚の画像を考慮できます | +| style_image | 画像 | スタイル参照画像。1枚のみ使用され、生成画像のスタイルに影響を与えます。`style_image_weight` でその影響度を調整できます | +| character_image | 画像 | 生成結果にキャラクターの特徴を追加します。複数枚の画像をバッチとして指定可能で、最大4枚まで対応します | + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | -------------- | +| IMAGE | 画像 | 生成された画像 | + +## 使用例 + +## 動作原理 + +Luma Image to Image ノードは、入力画像を解析し、テキストプロンプトと組み合わせることで編集プロセスを制御します。Luma AI の生成モデルを活用し、プロンプトに基づいた創造的な画像変更を行います。 + +ノードの処理手順: + +1. まず、入力画像を ComfyAPI にアップロードします +2. 次に、取得した画像の URL とプロンプトを Luma API に送信します +3. Luma AI の処理完了を待ちます +4. 生成された画像をダウンロードして返します + +`image_weight` パラメーターは、元の画像の影響度を制御します。値が 0 に近いほど元の画像の特徴がより多く保持され、1 に近いほど大幅な変更が可能になります。 + +## ソースコード + +[ノードのソースコード(2025-05-05 更新)] + +```python + +class LumaImageModifyNode(ComfyNodeABC): + """ + Modifies images synchronously based on prompt and aspect ratio. + """ + + RETURN_TYPES = (IO.IMAGE,) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "api_call" + API_NODE = True + CATEGORY = "api node/image/Luma" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "image": (IO.IMAGE,), + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "Prompt for the image generation", + }, + ), + "image_weight": ( + IO.FLOAT, + { + "default": 1.0, + "min": 0.02, + "max": 1.0, + "step": 0.01, + "tooltip": "Weight of the image; the closer to 0.0, the less the image will be modified.", + }, + ), + "model": ([model.value for model in LumaImageModel],), + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 0xFFFFFFFFFFFFFFFF, + "control_after_generate": True, + "tooltip": "Seed to determine if node should re-run; actual results are nondeterministic regardless of seed.", + }, + ), + }, + "optional": {}, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + def api_call( + self, + prompt: str, + model: str, + image: torch.Tensor, + image_weight: float, + seed, + auth_token=None, + **kwargs, + ): + # first, upload image + download_urls = upload_images_to_comfyapi( + image, max_images=1, auth_token=auth_token + ) + image_url = download_urls[0] + # next, make Luma call with download url provided + operation = SynchronousOperation( + endpoint=ApiEndpoint( + path="/proxy/luma/generations/image", + method=HttpMethod.POST, + request_model=LumaImageGenerationRequest, + response_model=LumaGeneration, + ), + request=LumaImageGenerationRequest( + prompt=prompt, + model=model, + modify_image_ref=LumaModifyImageRef( + url=image_url, weight=round(image_weight, 2) + ), + ), + auth_token=auth_token, + ) + response_api: LumaGeneration = operation.execute() + + operation = PollingOperation( + poll_endpoint=ApiEndpoint( + path=f"/proxy/luma/generations/{response_api.id}", + method=HttpMethod.GET, + request_model=EmptyRequest, + response_model=LumaGeneration, + ), + completed_statuses=[LumaState.completed], + failed_statuses=[LumaState.failed], + status_extractor=lambda x: x.state, + auth_token=auth_token, + ) + response_poll = operation.execute() + + img_response = requests.get(response_poll.assets.image) + img = process_image_response(img_response) + return (img,) diff --git a/ja/built-in-nodes/partner-node/image/luma/luma-reference.mdx b/ja/built-in-nodes/partner-node/image/luma/luma-reference.mdx new file mode 100644 index 000000000..5ffdb9497 --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/luma/luma-reference.mdx @@ -0,0 +1,97 @@ +--- +title: "Luma Reference - ComfyUI 組み込みノードのドキュメント" +description: "Luma 画像生成に参考画像を提供する補助ノード" +sidebarTitle: "Luma Reference" +icon: "circle" +translationSourceHash: 620313cc +translationFrom: built-in-nodes/partner-node/image/luma/luma-reference.mdx, zh-CN/built-in-nodes/partner-node/image/luma/luma-reference.mdx +translationMismatches: + - "description" +--- + +![ComfyUI 組み込み Luma Reference ノード](/images/built-in-nodes/api_nodes/luma/luma-reference.jpg) + +Luma Reference ノードは、Luma 画像生成ノードの作成プロセスをガイドするために参考画像とその重みを設定できるようにします。これにより、生成される画像が参考画像の特定の特徴に近づくようになります。 + +## ノードの機能 + +このノードは、Luma 生成ノードの補助ツールとして機能し、ユーザーが生成結果に影響を与えるための参考画像を提供できるようにします。また、参考画像の重みを設定することで、最終結果への影響度を制御できます。 +複数の Luma Reference ノードをチェーン(連鎖)接続することが可能ですが、API の仕様により、同時に動作可能なノード数は最大で 4 つまでです。 + +## パラメーター + +### 基本パラメーター + +| パラメーター | 型 | デフォルト値 | 説明 | +| ------ | ------ | ------ | ---------------------------- | +| image | 画像 | - | 参考として使用する入力画像 | +| weight | 浮動小数点数 | 1.0 | 参考画像の影響強度を制御(0~1) | + +### 出力 + +| 出力 | 型 | 説明 | +| -------- | -------- | ------------------------ | +| luma_ref | LUMA_REF | 画像と重みを含む参考オブジェクト | + +## 使用例 + + +Luma Text to Image ワークフローの例 + + +## 動作原理 + +Luma Reference ノードは画像入力を受信し、重み値を設定できます。このノード自体は画像を直接生成・変更することはありませんが、画像データと重み情報を含む参考オブジェクトを作成し、それを Luma 生成ノードへ渡します。 + +生成処理中、Luma AI は参考画像の特徴を解析し、設定された重みに基づいてこれらの特徴を生成結果に反映させます。重み値が高いほど、生成画像は参考画像の特徴により近くなります。逆に、重み値が低いほど、参考画像の影響は最終結果に対してわずかになります。 + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] + +```python + +class LumaReferenceNode(ComfyNodeABC): + """ + Holds an image and weight for use with Luma Generate Image node. + """ + + RETURN_TYPES = (LumaIO.LUMA_REF,) + RETURN_NAMES = ("luma_ref",) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "create_luma_reference" + CATEGORY = "api node/image/Luma" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "image": ( + IO.IMAGE, + { + "tooltip": "Image to use as reference.", + }, + ), + "weight": ( + IO.FLOAT, + { + "default": 1.0, + "min": 0.0, + "max": 1.0, + "step": 0.01, + "tooltip": "Weight of image reference.", + }, + ), + }, + "optional": {"luma_ref": (LumaIO.LUMA_REF,)}, + } + + def create_luma_reference( + self, image: torch.Tensor, weight: float, luma_ref: LumaReferenceChain = None + ): + if luma_ref is not None: + luma_ref = luma_ref.clone() + else: + luma_ref = LumaReferenceChain() + luma_ref.add(LumaReference(image=image, weight=round(weight, 2))) + return (luma_ref,) diff --git a/ja/built-in-nodes/partner-node/image/luma/luma-text-to-image.mdx b/ja/built-in-nodes/partner-node/image/luma/luma-text-to-image.mdx new file mode 100644 index 000000000..79874c283 --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/luma/luma-text-to-image.mdx @@ -0,0 +1,231 @@ +--- +title: "Luma Text to Image - ComfyUI ネイティブノードドキュメント" +description: "Luma AI を使用してテキスト記述を高品質な画像に変換するノード" +sidebarTitle: "Luma Text to Image" +icon: "circle" +translationSourceHash: a6f31e96 +translationFrom: built-in-nodes/partner-node/image/luma/luma-text-to-image.mdx, zh-CN/built-in-nodes/partner-node/image/luma/luma-text-to-image.mdx +translationMismatches: + - "description" +--- + +![ComfyUI ネイティブ Luma Text to Image ノード](/images/built-in-nodes/api_nodes/luma/luma-text-to-image.jpg) + +Luma Text to Image ノードは、Luma AI の高度な画像生成機能を活用して、テキスト記述から非常にリアルで芸術性の高い画像を作成できます。 + +## ノードの機能 + +このノードは Luma AI のテキスト・トゥ・イメージ API に接続し、詳細なテキストプロンプトを通じて画像を生成できるようにします。Luma AI は優れたリアリズムとディテール表現力で知られており、特に写真のようにリアルなコンテンツやアーティスティックなスタイルの画像生成に優れています。 + +## パラメータ + +### 基本パラメータ + +| パラメータ | 型 | デフォルト | 説明 | +| ------------------ | ------ | ---------- | ------------------------------------------------------------------------------------------------------------ | +| prompt | 文字列 | "" | 生成対象のコンテンツを記述するテキストプロンプト | +| model | 選択 | - | 使用する生成モデルを選択 | +| aspect_ratio | 選択 | 16:9 | 出力画像のアスペクト比を設定 | +| seed | 整数 | 0 | ノードを再実行するかどうかを判定するためのシード値ですが、実際の生成結果はシード値とは無関係です | +| style_image_weight | 浮動小数点数 | 1.0 | スタイル画像の重み(範囲:0.0–1.0)。`style_image` が指定されている場合のみ有効で、値が大きいほどスタイル参照が強くなります | + +### オプションパラメータ + +| パラメータ | 型 | 説明 | +| --------------- | ------ | --------------------------------------------------------------------------------- | +| image_luma_ref | LUMA_REF | 入力画像を用いて生成を制御するための Luma 参照ノード接続。最大 4 枚の画像を考慮可能 | +| style_image | 画像 | スタイル参照画像。1 枚のみ使用されます | +| character_image | 画像 | キャラクター参照画像。複数枚のバッチとして指定可能で、最大 4 枚を考慮可能 | + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ---------------- | +| IMAGE | 画像 | 生成された画像結果 | + +## 使用例 + + +Luma Text to Image ワークフローの詳細ガイド + + +## 動作原理 + +Luma Text to Image ノードは、ユーザーが提供したテキストプロンプトを解析し、Luma AI の生成モデルを用いて対応する画像を生成します。このプロセスでは、深層学習技術を活用してテキスト記述を理解し、それを視覚的な表現へと変換します。ユーザーは解像度、ガイドスケール、ネガティブプロンプトなどの各種パラメータを調整することで、生成プロセスを微調整できます。 + +さらに、このノードは参照画像およびコンセプトガイドを用いた生成結果への影響もサポートしており、クリエイターが自身の創造的ビジョンをより正確に実現できるよう支援します。 + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] + +```python + +class LumaImageGenerationNode(ComfyNodeABC): + """ + Generates images synchronously based on prompt and aspect ratio. + """ + + RETURN_TYPES = (IO.IMAGE,) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "api_call" + API_NODE = True + CATEGORY = "api node/image/Luma" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "Prompt for the image generation", + }, + ), + "model": ([model.value for model in LumaImageModel],), + "aspect_ratio": ( + [ratio.value for ratio in LumaAspectRatio], + { + "default": LumaAspectRatio.ratio_16_9, + }, + ), + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 0xFFFFFFFFFFFFFFFF, + "control_after_generate": True, + "tooltip": "Seed to determine if node should re-run; actual results are nondeterministic regardless of seed.", + }, + ), + "style_image_weight": ( + IO.FLOAT, + { + "default": 1.0, + "min": 0.0, + "max": 1.0, + "step": 0.01, + "tooltip": "Weight of style image. Ignored if no style_image provided.", + }, + ), + }, + "optional": { + "image_luma_ref": ( + LumaIO.LUMA_REF, + { + "tooltip": "Luma Reference node connection to influence generation with input images; up to 4 images can be considered." + }, + ), + "style_image": ( + IO.IMAGE, + {"tooltip": "Style reference image; only 1 image will be used."}, + ), + "character_image": ( + IO.IMAGE, + { + "tooltip": "Character reference images; can be a batch of multiple, up to 4 images can be considered." + }, + ), + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + def api_call( + self, + prompt: str, + model: str, + aspect_ratio: str, + seed, + style_image_weight: float, + image_luma_ref: LumaReferenceChain = None, + style_image: torch.Tensor = None, + character_image: torch.Tensor = None, + auth_token=None, + **kwargs, + ): + # handle image_luma_ref + api_image_ref = None + if image_luma_ref is not None: + api_image_ref = self._convert_luma_refs( + image_luma_ref, max_refs=4, auth_token=auth_token + ) + # handle style_luma_ref + api_style_ref = None + if style_image is not None: + api_style_ref = self._convert_style_image( + style_image, weight=style_image_weight, auth_token=auth_token + ) + # handle character_ref images + character_ref = None + if character_image is not None: + download_urls = upload_images_to_comfyapi( + character_image, max_images=4, auth_token=auth_token + ) + character_ref = LumaCharacterRef( + identity0=LumaImageIdentity(images=download_urls) + ) + + operation = SynchronousOperation( + endpoint=ApiEndpoint( + path="/proxy/luma/generations/image", + method=HttpMethod.POST, + request_model=LumaImageGenerationRequest, + response_model=LumaGeneration, + ), + request=LumaImageGenerationRequest( + prompt=prompt, + model=model, + aspect_ratio=aspect_ratio, + image_ref=api_image_ref, + style_ref=api_style_ref, + character_ref=character_ref, + ), + auth_token=auth_token, + ) + response_api: LumaGeneration = operation.execute() + + operation = PollingOperation( + poll_endpoint=ApiEndpoint( + path=f"/proxy/luma/generations/{response_api.id}", + method=HttpMethod.GET, + request_model=EmptyRequest, + response_model=LumaGeneration, + ), + completed_statuses=[LumaState.completed], + failed_statuses=[LumaState.failed], + status_extractor=lambda x: x.state, + auth_token=auth_token, + ) + response_poll = operation.execute() + + img_response = requests.get(response_poll.assets.image) + img = process_image_response(img_response) + return (img,) + + def _convert_luma_refs( + self, luma_ref: LumaReferenceChain, max_refs: int, auth_token=None + ): + luma_urls = [] + ref_count = 0 + for ref in luma_ref.refs: + download_urls = upload_images_to_comfyapi( + ref.image, max_images=1, auth_token=auth_token + ) + luma_urls.append(download_urls[0]) + ref_count += 1 + if ref_count >= max_refs: + break + return luma_ref.create_api_model(download_urls=luma_urls, max_refs=max_refs) + + def _convert_style_image( + self, style_image: torch.Tensor, weight: float, auth_token=None + ): + chain = LumaReferenceChain( + first_ref=LumaReference(image=style_image, weight=weight) + ) + return self._convert_luma_refs(chain, max_refs=1, auth_token=auth_token) diff --git a/ja/built-in-nodes/partner-node/image/openai/openai-dalle2.mdx b/ja/built-in-nodes/partner-node/image/openai/openai-dalle2.mdx new file mode 100644 index 000000000..b5fe5ba76 --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/openai/openai-dalle2.mdx @@ -0,0 +1,200 @@ +--- +title: "OpenAI DALL·E 2 — ComfyUI ネイティブノードドキュメント" +description: "OpenAI の DALL·E 2 モデルを用いて画像を生成するノード" +sidebarTitle: "OpenAI DALL·E 2" +icon: "circle" +translationSourceHash: 91e16528 +translationFrom: built-in-nodes/partner-node/image/openai/openai-dalle2.mdx, zh-CN/built-in-nodes/partner-node/image/openai/openai-dalle2.mdx +--- + +![ComfyUI ネイティブ Stability AI Stable Image Ultra ノード](/images/built-in-nodes/api_nodes/openai/openai-dall-e-2.jpg) + +OpenAI DALL·E 2 ノードは、OpenAI の DALL·E 2 API を使用して、テキストによる説明から創造的な画像を生成できます。 + +## パラメーター + +### 基本パラメーター + +| パラメーター | 型 | デフォルト値 | 説明 | +| ------------ | ------ | ------------ | ---------------------------------------------------- | +| prompt | 文字列 | "" | DALL·E が画像を生成するためのテキストプロンプト。複数行入力に対応しています | +| seed | 整数 | 0 | 実際の出力結果はこのシード値とは無関係ですが、このパラメーターは再実行の有無を制御します | +| size | 選択 | "1024x1024" | 出力画像サイズ。選択肢:256x256、512x512、1024x1024 | +| n | 整数 | 1 | 生成する画像の枚数(範囲:1~8) | + +### オプションパラメーター + +| パラメーター | 型 | デフォルト値 | 説明 | +| ------------ | ---- | ------------ | ------------------------------------------ | +| image | 画像 | None | 画像編集用の任意の参照画像 | +| mask | マスク | None | 欠損部分補完(inpainting)用の任意のマスク(白い領域が置き換えられます) | + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ---------------- | +| IMAGE | 画像 | 生成された画像 | + +## 機能 + +- 基本機能:テキストプロンプトから画像を生成 +- 画像編集:`image` および `mask` の両方のパラメーターが指定された場合、画像編集が実行されます(マスクの白い領域が置き換えられます) + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] + +```python + +class OpenAIDalle2(ComfyNodeABC): + """ + Generates images synchronously via OpenAI's DALL·E 2 endpoint. + + Uses the proxy at /proxy/openai/images/generations. Returned URLs are short‑lived, + so download or cache results if you need to keep them. + """ + + def __init__(self): + pass + + @classmethod + def INPUT_TYPES(cls) -> InputTypeDict: + return { + "required": { + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "Text prompt for DALL·E", + }, + ), + }, + "optional": { + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 2**31 - 1, + "step": 1, + "display": "number", + "control_after_generate": True, + "tooltip": "not implemented yet in backend", + }, + ), + "size": ( + IO.COMBO, + { + "options": ["256x256", "512x512", "1024x1024"], + "default": "1024x1024", + "tooltip": "Image size", + }, + ), + "n": ( + IO.INT, + { + "default": 1, + "min": 1, + "max": 8, + "step": 1, + "display": "number", + "tooltip": "How many images to generate", + }, + ), + "image": ( + IO.IMAGE, + { + "default": None, + "tooltip": "Optional reference image for image editing.", + }, + ), + "mask": ( + IO.MASK, + { + "default": None, + "tooltip": "Optional mask for inpainting (white areas will be replaced)", + }, + ), + }, + "hidden": {"auth_token": "AUTH_TOKEN_COMFY_ORG"}, + } + + RETURN_TYPES = (IO.IMAGE,) + FUNCTION = "api_call" + CATEGORY = "api node/image/openai" + DESCRIPTION = cleandoc(__doc__ or "") + API_NODE = True + + def api_call( + self, + prompt, + seed=0, + image=None, + mask=None, + n=1, + size="1024x1024", + auth_token=None, + ): + model = "dall-e-2" + path = "/proxy/openai/images/generations" + content_type = "application/json" + request_class = OpenAIImageGenerationRequest + img_binary = None + + if image is not None and mask is not None: + path = "/proxy/openai/images/edits" + content_type = "multipart/form-data" + request_class = OpenAIImageEditRequest + + input_tensor = image.squeeze().cpu() + height, width, channels = input_tensor.shape + rgba_tensor = torch.ones(height, width, 4, device="cpu") + rgba_tensor[:, :, :channels] = input_tensor + + if mask.shape[1:] != image.shape[1:-1]: + raise Exception("Mask and Image must be the same size") + rgba_tensor[:, :, 3] = 1 - mask.squeeze().cpu() + + rgba_tensor = downscale_image_tensor(rgba_tensor.unsqueeze(0)).squeeze() + + image_np = (rgba_tensor.numpy() * 255).astype(np.uint8) + img = Image.fromarray(image_np) + img_byte_arr = io.BytesIO() + img.save(img_byte_arr, format="PNG") + img_byte_arr.seek(0) + img_binary = img_byte_arr # .getvalue() + img_binary.name = "image.png" + elif image is not None or mask is not None: + raise Exception("Dall-E 2 image editing requires an image AND a mask") + + # Build the operation + operation = SynchronousOperation( + endpoint=ApiEndpoint( + path=path, + method=HttpMethod.POST, + request_model=request_class, + response_model=OpenAIImageGenerationResponse, + ), + request=request_class( + model=model, + prompt=prompt, + n=n, + size=size, + seed=seed, + ), + files=( + { + "image": img_binary, + } + if img_binary + else None + ), + content_type=content_type, + auth_token=auth_token, + ) + + response = operation.execute() + + img_tensor = validate_and_cast_response(response) + return (img_tensor,) \ No newline at end of file diff --git a/ja/built-in-nodes/partner-node/image/openai/openai-dalle3.mdx b/ja/built-in-nodes/partner-node/image/openai/openai-dalle3.mdx new file mode 100644 index 000000000..9255ebd8c --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/openai/openai-dalle3.mdx @@ -0,0 +1,142 @@ +--- +title: "OpenAI DALL·E 3 — ComfyUI ネイティブノードドキュメント" +description: "OpenAI の DALL·E 3 モデルを用いて高品質な画像を生成するノード" +sidebarTitle: "OpenAI DALL·E 3" +icon: "circle" +translationSourceHash: 3a5875fb +translationFrom: built-in-nodes/partner-node/image/openai/openai-dalle3.mdx, zh-CN/built-in-nodes/partner-node/image/openai/openai-dalle3.mdx +translationMismatches: + - "description" +--- + +![ComfyUI ネイティブ OpenAI DALL·E 3 ノード](/images/built-in-nodes/api_nodes/openai/openai-dall-e-3.jpg) + +このノードは OpenAI の DALL·E 3 API に接続し、詳細なテキストプロンプトを用いて高品質な画像を生成できます。DALL·E 3 は OpenAI が提供する画像生成モデルであり、前世代と比較して、画像品質の大幅な向上、プロンプト理解の精度向上、およびディテール再現性の改善が特徴です。 + +## パラメータ + +### 入力パラメータ +| パラメータ | 型 | デフォルト値 | 説明 | +|-----|-----|-------|------| +| prompt | 文字列 | "" | 生成対象を詳細に記述したテキストプロンプト | +| seed | 整数 | 0 | 最終的な出力結果はシード値とは無関係であり、このパラメータは再実行の有無を制御するだけです | +| quality | 選択肢 | "standard" | 画像品質。「standard」または「hd」から選択可能 | +| style | 選択肢 | "natural" | 視覚スタイル。「natural」または「vivid」から選択可能。「vivid」では、より超現実的で劇的な画像が生成されやすくなります。「natural」では、より自然で超現実的でない画像が生成されます | +| size | 選択肢 | "1024x1024" | 出力画像サイズ。「1024x1024」、「1024x1792」、「1792x1024」から選択可能 | + +### 出力パラメータ +| 出力 | 型 | 説明 | +|-----|-----|------| +| IMAGE | 画像 | 生成された画像の結果 | + +## ソースコード + +[ノードソースコード(2025-05-03 更新)] + +```python + +class OpenAIDalle3(ComfyNodeABC): + """ + Generates images synchronously via OpenAI's DALL·E 3 endpoint. + + Uses the proxy at /proxy/openai/images/generations. Returned URLs are short‑lived, + so download or cache results if you need to keep them. + """ + + def __init__(self): + pass + + @classmethod + def INPUT_TYPES(cls) -> InputTypeDict: + return { + "required": { + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "Text prompt for DALL·E", + }, + ), + }, + "optional": { + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 2**31 - 1, + "step": 1, + "display": "number", + "control_after_generate": True, + "tooltip": "not implemented yet in backend", + }, + ), + "quality": ( + IO.COMBO, + { + "options": ["standard", "hd"], + "default": "standard", + "tooltip": "Image quality", + }, + ), + "style": ( + IO.COMBO, + { + "options": ["natural", "vivid"], + "default": "natural", + "tooltip": "Vivid causes the model to lean towards generating hyper-real and dramatic images. Natural causes the model to produce more natural, less hyper-real looking images.", + }, + ), + "size": ( + IO.COMBO, + { + "options": ["1024x1024", "1024x1792", "1792x1024"], + "default": "1024x1024", + "tooltip": "Image size", + }, + ), + }, + "hidden": {"auth_token": "AUTH_TOKEN_COMFY_ORG"}, + } + + RETURN_TYPES = (IO.IMAGE,) + FUNCTION = "api_call" + CATEGORY = "api node/image/openai" + DESCRIPTION = cleandoc(__doc__ or "") + API_NODE = True + + def api_call( + self, + prompt, + seed=0, + style="natural", + quality="standard", + size="1024x1024", + auth_token=None, + ): + model = "dall-e-3" + + # build the operation + operation = SynchronousOperation( + endpoint=ApiEndpoint( + path="/proxy/openai/images/generations", + method=HttpMethod.POST, + request_model=OpenAIImageGenerationRequest, + response_model=OpenAIImageGenerationResponse, + ), + request=OpenAIImageGenerationRequest( + model=model, + prompt=prompt, + quality=quality, + size=size, + style=style, + seed=seed, + ), + auth_token=auth_token, + ) + + response = operation.execute() + + img_tensor = validate_and_cast_response(response) + return (img_tensor,) \ No newline at end of file diff --git a/ja/built-in-nodes/partner-node/image/openai/openai-gpt-image1.mdx b/ja/built-in-nodes/partner-node/image/openai/openai-gpt-image1.mdx new file mode 100644 index 000000000..6a5794e78 --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/openai/openai-gpt-image1.mdx @@ -0,0 +1,249 @@ +--- +title: "OpenAI GPT Image 1 - ComfyUI ネイティブノードドキュメント" +description: "OpenAI の GPT-4 Vision モデルを用いて画像を生成するノード" +sidebarTitle: "OpenAI GPT Image 1" +icon: "circle" +translationSourceHash: f6b1193a +translationFrom: built-in-nodes/partner-node/image/openai/openai-gpt-image1.mdx, zh-CN/built-in-nodes/partner-node/image/openai/openai-gpt-image1.mdx +translationMismatches: + - "description" +--- + +![ComfyUI ネイティブ OpenAI GPT Image 1 ノード](/images/built-in-nodes/api_nodes/openai/openai-gpt-image-1.jpg) + +このノードは OpenAI の GPT Image 1 API に接続し、詳細なテキストプロンプトを用いて画像を生成できます。従来の DALL·E モデルとは異なり、GPT Image 1 は GPT-4 の言語理解能力を活用して、より複雑なプロンプトを処理し、ユーザーの意図により正確に合致した画像を生成します。 + +## パラメータ + +### 基本パラメータ + +| パラメータ | 型 | デフォルト値 | 説明 | +| ---------- | -------- | ------------ | ------------------------------------------------------------------ | +| prompt | 文字列 | "" | 生成対象を記述するテキストプロンプト | +| quality | 選択肢 | "low" | 画像品質レベル:「low」、「medium」、「high」のいずれか | +| size | 選択肢 | "auto" | 出力画像サイズ:「auto」、「1024x1024」、「1024x1536」、「1536x1024」 | + +### 画像編集パラメータ + +| パラメータ | 型 | 説明 | +| ---------- | ---- | ----------------------------------------------------- | +| image | 画像 | 画像編集用の入力画像(複数枚の画像をサポート) | +| mask | マスク | 変更対象領域を指定するオプションのマスク(単一画像のみ) | + +### オプションパラメータ + +| パラメータ | 型 | 説明 | +| ----------- | -------- | -------------------------------------- | +| background | 選択肢 | 背景設定:「opaque」(不透明)または「transparent」(透過) | +| seed | 整数 | 乱数シード(現時点ではバックエンド未実装) | +| n | 整数 | 生成する画像の枚数(1~8 の範囲) | + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ----------------- | +| IMAGE | 画像 | 生成された画像結果 | + +## 動作原理 + +OpenAI GPT Image 1 ノードは、GPT-4 の言語理解能力と画像生成技術を統合しています。まずテキストプロンプトを解析し、その意味およびユーザーの意図を理解したうえで、それに合致する画像を生成します。 + +画像編集モードでは、既存の画像を修正・編集できます。マスクを併用することで、変更対象となる領域を精密に制御できます。ただし、マスク入力は単一画像のみに対応しており、複数画像には使用できません。 + +ユーザーは、品質レベル、出力サイズ、背景処理、生成枚数などのパラメータを調整することで、出力結果を制御できます。 + +## ソースコード + +[ノードソースコード(2025-05-03 更新)] + +```python + +class OpenAIGPTImage1(ComfyNodeABC): + """ + Generates images synchronously via OpenAI's GPT Image 1 endpoint. + + Uses the proxy at /proxy/openai/images/generations. Returned URLs are short‑lived, + so download or cache results if you need to keep them. + """ + + def __init__(self): + pass + + @classmethod + def INPUT_TYPES(cls) -> InputTypeDict: + return { + "required": { + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "Text prompt for GPT Image 1", + }, + ), + }, + "optional": { + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 2**31 - 1, + "step": 1, + "display": "number", + "control_after_generate": True, + "tooltip": "not implemented yet in backend", + }, + ), + "quality": ( + IO.COMBO, + { + "options": ["low", "medium", "high"], + "default": "low", + "tooltip": "Image quality, affects cost and generation time.", + }, + ), + "background": ( + IO.COMBO, + { + "options": ["opaque", "transparent"], + "default": "opaque", + "tooltip": "Return image with or without background", + }, + ), + "size": ( + IO.COMBO, + { + "options": ["auto", "1024x1024", "1024x1536", "1536x1024"], + "default": "auto", + "tooltip": "Image size", + }, + ), + "n": ( + IO.INT, + { + "default": 1, + "min": 1, + "max": 8, + "step": 1, + "display": "number", + "tooltip": "How many images to generate", + }, + ), + "image": ( + IO.IMAGE, + { + "default": None, + "tooltip": "Optional reference image for image editing.", + }, + ), + "mask": ( + IO.MASK, + { + "default": None, + "tooltip": "Optional mask for inpainting (white areas will be replaced)", + }, + ), + }, + "hidden": {"auth_token": "AUTH_TOKEN_COMFY_ORG"}, + } + + RETURN_TYPES = (IO.IMAGE,) + FUNCTION = "api_call" + CATEGORY = "api node/image/openai" + DESCRIPTION = cleandoc(__doc__ or "") + API_NODE = True + + def api_call( + self, + prompt, + seed=0, + quality="low", + background="opaque", + image=None, + mask=None, + n=1, + size="1024x1024", + auth_token=None, + ): + model = "gpt-image-1" + path = "/proxy/openai/images/generations" + content_type="application/json" + request_class = OpenAIImageGenerationRequest + img_binaries = [] + mask_binary = None + files = [] + + if image is not None: + path = "/proxy/openai/images/edits" + request_class = OpenAIImageEditRequest + content_type ="multipart/form-data" + + batch_size = image.shape[0] + + for i in range(batch_size): + single_image = image[i : i + 1] + scaled_image = downscale_image_tensor(single_image).squeeze() + + image_np = (scaled_image.numpy() * 255).astype(np.uint8) + img = Image.fromarray(image_np) + img_byte_arr = io.BytesIO() + img.save(img_byte_arr, format="PNG") + img_byte_arr.seek(0) + img_binary = img_byte_arr + img_binary.name = f"image_{i}.png" + + img_binaries.append(img_binary) + if batch_size == 1: + files.append(("image", img_binary)) + else: + files.append(("image[]", img_binary)) + + if mask is not None: + if image.shape[0] != 1: + raise Exception("Cannot use a mask with multiple image") + if image is None: + raise Exception("Cannot use a mask without an input image") + if mask.shape[1:] != image.shape[1:-1]: + raise Exception("Mask and Image must be the same size") + batch, height, width = mask.shape + rgba_mask = torch.zeros(height, width, 4, device="cpu") + rgba_mask[:, :, 3] = 1 - mask.squeeze().cpu() + + scaled_mask = downscale_image_tensor(rgba_mask.unsqueeze(0)).squeeze() + + mask_np = (scaled_mask.numpy() * 255).astype(np.uint8) + mask_img = Image.fromarray(mask_np) + mask_img_byte_arr = io.BytesIO() + mask_img.save(mask_img_byte_arr, format="PNG") + mask_img_byte_arr.seek(0) + mask_binary = mask_img_byte_arr + mask_binary.name = "mask.png" + files.append(("mask", mask_binary)) + + # Build the operation + operation = SynchronousOperation( + endpoint=ApiEndpoint( + path=path, + method=HttpMethod.POST, + request_model=request_class, + response_model=OpenAIImageGenerationResponse, + ), + request=request_class( + model=model, + prompt=prompt, + quality=quality, + background=background, + n=n, + seed=seed, + size=size, + ), + files=files if files else None, + content_type=content_type, + auth_token=auth_token, + ) + + response = operation.execute() + + img_tensor = validate_and_cast_response(response) + return (img_tensor,) \ No newline at end of file diff --git a/ja/built-in-nodes/partner-node/image/recraft/recraft-color-rgb.mdx b/ja/built-in-nodes/partner-node/image/recraft/recraft-color-rgb.mdx new file mode 100644 index 000000000..a7058aa17 --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/recraft/recraft-color-rgb.mdx @@ -0,0 +1,88 @@ +--- +title: "Recraft Color RGB - ComfyUI ネイティブノードドキュメント" +description: "Recraft 画像生成における色制御を定義するための補助ノード" +sidebarTitle: "Recraft Color RGB" +icon: "circle" +translationSourceHash: f98d9d0c +translationFrom: built-in-nodes/partner-node/image/recraft/recraft-color-rgb.mdx, zh-CN/built-in-nodes/partner-node/image/recraft/recraft-color-rgb.mdx +translationMismatches: + - "description" +--- + +![ComfyUI ネイティブ Recraft Color RGB ノード](/images/built-in-nodes/api_nodes/recraft/recraft-color-rgb.jpg) +Recraft Color RGB ノードを使用すると、Recraft による画像生成で使用される色を精密に制御するための RGB 色値を定義できます。 + +## ノードの機能 + +このノードは、色設定オブジェクトを作成し、それを Recraft Controls ノードに接続することで、生成される画像で使用される色を指定します。 + +## パラメーター + +### 基本パラメーター + +| パラメーター | 型 | デフォルト値 | 説明 | +| ---------- | ------ | ------------ | ---------------- | +| r | 整数 | 0 | 赤チャンネル (0–255) | +| g | 整数 | 0 | 緑チャンネル (0–255) | +| b | 整数 | 0 | 青チャンネル (0–255) | + +### 出力 + +| 出力 | 型 | 説明 | +| -------------- | ------------- | ---------------------------------------- | +| recraft_color | Recraft Color | Recraft Controls ノードへ接続するための色設定オブジェクト | + +## 使用例 + + +Recraft Text to Image ワークフローの例 + + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] + +```python +class RecraftColorRGBNode: + """ + Create Recraft Color by choosing specific RGB values. + """ + + RETURN_TYPES = (RecraftIO.COLOR,) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + RETURN_NAMES = ("recraft_color",) + FUNCTION = "create_color" + CATEGORY = "api node/image/Recraft" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "r": (IO.INT, { + "default": 0, + "min": 0, + "max": 255, + "tooltip": "Red value of color." + }), + "g": (IO.INT, { + "default": 0, + "min": 0, + "max": 255, + "tooltip": "Green value of color." + }), + "b": (IO.INT, { + "default": 0, + "min": 0, + "max": 255, + "tooltip": "Blue value of color." + }), + }, + "optional": { + "recraft_color": (RecraftIO.COLOR,), + } + } + + def create_color(self, r: int, g: int, b: int, recraft_color: RecraftColorChain=None): + recraft_color = recraft_color.clone() if recraft_color else RecraftColorChain() + recraft_color.add(RecraftColor(r, g, b)) + return (recraft_color, ) diff --git a/ja/built-in-nodes/partner-node/image/recraft/recraft-controls.mdx b/ja/built-in-nodes/partner-node/image/recraft/recraft-controls.mdx new file mode 100644 index 000000000..4286519ca --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/recraft/recraft-controls.mdx @@ -0,0 +1,75 @@ +--- +title: "Recraft Controls - ComfyUI ネイティブノードドキュメント" +description: "Recraft による画像生成に高度な制御パラメーターを提供するノード" +sidebarTitle: "Recraft Controls" +icon: "circle" +translationSourceHash: e8a9d8d4 +translationFrom: built-in-nodes/partner-node/image/recraft/recraft-controls.mdx, zh-CN/built-in-nodes/partner-node/image/recraft/recraft-controls.mdx +translationMismatches: + - "description" +--- + +![ComfyUI ネイティブ Recraft Controls ノード](/images/built-in-nodes/api_nodes/recraft/recraft-contorols.jpg) + +Recraft Controls ノードは、画像生成プロセスを精密に制御するためのパラメーター(例:色や背景色)を定義できます。このノードは、複数の制御入力を統合し、単一の構造化された制御オブジェクトとして出力します。 + +## パラメーター + +### オプションパラメーター + +| パラメーター | 型 | 説明 | +| ------------------ | --------------- | -------------------------------- | +| colors | Recraft Color | 画像生成における色の制御パラメーター | +| background_color | Recraft Color | 背景色の制御パラメーター | + +### 出力 + +| 出力 | 型 | 説明 | +| ------------------ | -------------------- | ----------------------------------------- | +| recraft_controls | Recraft Controls | Recraft 生成ノードへ接続するための制御設定オブジェクト | + +## 使用例 + + +Recraft Text to Image ワークフローの例 + + +## 動作原理 + +ノードの処理手順: + +1. 入力された制御パラメーター(`colors` および `background_color`)を収集します +2. これらのパラメーターを構造化された制御オブジェクトに統合します +3. この制御オブジェクトを出力し、Recraft 生成ノードへ接続できるようにします + +Recraft 生成ノードと接続すると、これらの制御パラメーターが AI の生成プロセスに影響を与えます。AI はテキストプロンプトの意味的コンテンツだけでなく、その他の多様な要因も考慮します。色の入力が設定されている場合、AI は生成される画像内でそれらの色を適切に活用しようと試みます。 + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] + +```python +class RecraftControlsNode: + """ + Create Recraft Controls for customizing Recraft generation. + """ + + RETURN_TYPES = (RecraftIO.CONTROLS,) + RETURN_NAMES = ("recraft_controls",) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "create_controls" + CATEGORY = "api node/image/Recraft" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + }, + "optional": { + "colors": (RecraftIO.COLOR,), + "background_color": (RecraftIO.COLOR,), + } + } + + def create_controls(self, colors: RecraftColorChain=None, background_color: RecraftColorChain=None): + return (RecraftControls(colors=colors, background_color=background_color), ) diff --git a/ja/built-in-nodes/partner-node/image/recraft/recraft-creative-upscale.mdx b/ja/built-in-nodes/partner-node/image/recraft/recraft-creative-upscale.mdx new file mode 100644 index 000000000..3d2edeeba --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/recraft/recraft-creative-upscale.mdx @@ -0,0 +1,45 @@ +--- +title: "Recraft Creative Upscale - ComfyUI ネイティブノードドキュメンテーション" +description: "AI を活用して画像のディテールと解像度をクリエイティブに強化する Recraft パートナーノード" +sidebarTitle: "Recraft Creative Upscale" +icon: "circle" +translationSourceHash: 9da39c39 +translationFrom: built-in-nodes/partner-node/image/recraft/recraft-creative-upscale.mdx, zh-CN/built-in-nodes/partner-node/image/recraft/recraft-creative-upscale.mdx +--- + +![ComfyUI ネイティブ Recraft Creative Upscale ノード](/images/built-in-nodes/api_nodes/recraft/recraft-creative-upscale-image.jpg) + +Recraft Creative Upscale ノードは、Recraft の API を使用して画像の解像度を向上させるとともに、画像のディテールをクリエイティブに強化・豊かにします。 + +## パラメータ + +### 基本パラメータ + +| パラメータ | 型 | デフォルト | 説明 | +| ---------- | ---- | ---------- | ------------------------------ | +| image | 画像 | - | クリエイティブにアップスケールする入力画像 | + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | -------------------------------- | +| IMAGE | 画像 | クリエイティブなアップスケール後の高解像度画像 | + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] + +```python +class RecraftCreativeUpscaleNode(RecraftCrispUpscaleNode): + """ + Upscale image synchronously. + Enhances a given raster image using ‘creative upscale’ tool, boosting resolution with a focus on refining small details and faces. + """ + + RETURN_TYPES = (IO.IMAGE,) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "api_call" + API_NODE = True + CATEGORY = "api node/image/Recraft" + + RECRAFT_PATH = "/proxy/recraft/images/creativeUpscale" \ No newline at end of file diff --git a/ja/built-in-nodes/partner-node/image/recraft/recraft-crisp-upscale.mdx b/ja/built-in-nodes/partner-node/image/recraft/recraft-crisp-upscale.mdx new file mode 100644 index 000000000..a71568a19 --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/recraft/recraft-crisp-upscale.mdx @@ -0,0 +1,79 @@ +--- +title: "Recraft Crisp Upscale - ComfyUI ネイティブノードドキュメント" +description: "AI技術を用いて画像の鮮明度と解像度を向上させる Recraft パートナーノード" +sidebarTitle: "Recraft Crisp Upscale" +icon: "circle" +translationSourceHash: 0fc600d6 +translationFrom: built-in-nodes/partner-node/image/recraft/recraft-crisp-upscale.mdx, zh-CN/built-in-nodes/partner-node/image/recraft/recraft-crisp-upscale.mdx +--- + +![ComfyUI ネイティブ Recraft Crisp Upscale ノード](/images/built-in-nodes/api_nodes/recraft/recraft-crisp-upscale-image.jpg) + +Recraft Crisp Upscale ノードは、Recraft の API を使用して画像の解像度と鮮明度を向上させます。 + +## パラメータ + +### 基本パラメータ + +| パラメータ | 型 | デフォルト | 説明 | +| ---------- | ---- | ---------- | ------------------------ | +| image | 画像 | - | 解像度を向上させる入力画像 | + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ------------------------ | +| IMAGE | 画像 | 解像度向上および画質強化後の出力画像 | + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] + +```python +class RecraftCrispUpscaleNode: + """ + 画像を同期的に解像度向上します。 + 「crisp upscale」ツールを用いてラスタ画像の画質を強化し、解像度を高め、よりシャープでクリーンな画像にします。 + """ + + RETURN_TYPES = (IO.IMAGE,) + DESCRIPTION = cleandoc(__doc__ or "") # None の可能性に対応 + FUNCTION = "api_call" + API_NODE = True + CATEGORY = "api node/image/Recraft" + + RECRAFT_PATH = "/proxy/recraft/images/crispUpscale" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "image": (IO.IMAGE, ), + }, + "optional": { + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + def api_call( + self, + image: torch.Tensor, + auth_token=None, + **kwargs, + ): + images = [] + total = image.shape[0] + pbar = ProgressBar(total) + for i in range(total): + sub_bytes = handle_recraft_file_request( + image=image[i], + path=self.RECRAFT_PATH, + auth_token=auth_token, + ) + images.append(torch.cat([bytesio_to_image_tensor(x) for x in sub_bytes], dim=0)) + pbar.update(1) + + images_tensor = torch.cat(images, dim=0) + return (images_tensor,) \ No newline at end of file diff --git a/ja/built-in-nodes/partner-node/image/recraft/recraft-image-inpainting.mdx b/ja/built-in-nodes/partner-node/image/recraft/recraft-image-inpainting.mdx new file mode 100644 index 000000000..12ab7294b --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/recraft/recraft-image-inpainting.mdx @@ -0,0 +1,162 @@ +--- +title: "Recraft Image Inpainting - ComfyUI ネイティブノードドキュメント" +description: "Recraft API を使用して画像の特定領域を部分的に編集します" +sidebarTitle: "Recraft Image Inpainting" +icon: "circle" +translationSourceHash: dc90c48a +translationFrom: built-in-nodes/partner-node/image/recraft/recraft-image-inpainting.mdx, zh-CN/built-in-nodes/partner-node/image/recraft/recraft-image-inpainting.mdx +translationMismatches: + - "description" +--- + +![ComfyUI ネイティブ Recraft Image Inpainting ノード](/images/built-in-nodes/api_nodes/recraft/recraft-image-inpainting.jpg) + +Recraft Image Inpainting ノードは、画像の特定領域のみを編集し、残りの部分は変更せずに保持することができます。入力として画像、マスク、およびテキストプロンプトを指定することで、マスクで指定された領域に新しいコンテンツを生成・挿入できます。 + +## パラメーター + +### 基本パラメーター + +| パラメーター | 型 | デフォルト | 説明 | +| ----------- | ------ | ---------- | ---------------------------------------- | +| image | 画像 | - | 編集対象の入力画像 | +| mask | マスク | - | 編集対象領域を定義する白黒マスク | +| prompt | 文字列 | "" | マスク領域内に生成するコンテンツの説明 | +| n | 整数 | 1 | 生成する結果の数(1~6) | +| seed | 整数 | 0 | 乱数シード値 | + +### オプションパラメーター + +| パラメーター | 型 | 説明 | +| ------------------ | -------------- | -------------------------------------- | +| recraft_style | Recraft Style | 生成コンテンツのスタイル設定 | +| negative_prompt | 文字列 | 生成コンテンツに含めたくない要素の指定 | +| recraft_controls | Recraft Controls | 色など、その他の制御オプション | + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ------------------ | +| IMAGE | 画像 | 編集後の画像結果 | + + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] + +```python +class RecraftImageInpaintingNode: + """ + Modify image based on prompt and mask. + """ + + RETURN_TYPES = (IO.IMAGE,) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "api_call" + API_NODE = True + CATEGORY = "api node/image/Recraft" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "image": (IO.IMAGE, ), + "mask": (IO.MASK, ), + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "Prompt for the image generation.", + }, + ), + "n": ( + IO.INT, + { + "default": 1, + "min": 1, + "max": 6, + "tooltip": "The number of images to generate.", + }, + ), + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 0xFFFFFFFFFFFFFFFF, + "control_after_generate": True, + "tooltip": "Seed to determine if node should re-run; actual results are nondeterministic regardless of seed.", + }, + ), + }, + "optional": { + "recraft_style": (RecraftIO.STYLEV3,), + "negative_prompt": ( + IO.STRING, + { + "default": "", + "forceInput": True, + "tooltip": "An optional text description of undesired elements on an image.", + }, + ), + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + def api_call( + self, + image: torch.Tensor, + mask: torch.Tensor, + prompt: str, + n: int, + seed, + auth_token=None, + recraft_style: RecraftStyle = None, + negative_prompt: str = None, + **kwargs, + ): + default_style = RecraftStyle(RecraftStyleV3.realistic_image) + if recraft_style is None: + recraft_style = default_style + + if not negative_prompt: + negative_prompt = None + + request = RecraftImageGenerationRequest( + prompt=prompt, + negative_prompt=negative_prompt, + model=RecraftModel.recraftv3, + n=n, + style=recraft_style.style, + substyle=recraft_style.substyle, + style_id=recraft_style.style_id, + random_seed=seed, + ) + + # prepare mask tensor + _, H, W, _ = image.shape + mask = mask.unsqueeze(-1) + mask = mask.movedim(-1,1) + mask = common_upscale(mask, width=W, height=H, upscale_method="nearest-exact", crop="disabled") + mask = mask.movedim(1,-1) + mask = (mask > 0.5).float() + + images = [] + total = image.shape[0] + pbar = ProgressBar(total) + for i in range(total): + sub_bytes = handle_recraft_file_request( + image=image[i], + mask=mask[i:i+1], + path="/proxy/recraft/images/inpaint", + request=request, + auth_token=auth_token, + ) + images.append(torch.cat([bytesio_to_image_tensor(x) for x in sub_bytes], dim=0)) + pbar.update(1) + + images_tensor = torch.cat(images, dim=0) + return (images_tensor, ) \ No newline at end of file diff --git a/ja/built-in-nodes/partner-node/image/recraft/recraft-image-to-image.mdx b/ja/built-in-nodes/partner-node/image/recraft/recraft-image-to-image.mdx new file mode 100644 index 000000000..0851517f1 --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/recraft/recraft-image-to-image.mdx @@ -0,0 +1,172 @@ +--- +title: "Recraft Image to Image - ComfyUI ネイティブノードドキュメンテーション" +description: "テキストプロンプトと参照画像に基づいて新しい画像を生成する Recraft パートナーノード" +sidebarTitle: "Recraft Image to Image" +icon: "circle" +translationSourceHash: d773d09b +translationFrom: built-in-nodes/partner-node/image/recraft/recraft-image-to-image.mdx, zh-CN/built-in-nodes/partner-node/image/recraft/recraft-image-to-image.mdx +--- + +![ComfyUI ネイティブ Recraft Image to Image ノード](/images/built-in-nodes/api_nodes/recraft/recraft-image-to-image.jpg) + +Recraft Image to Image ノードは、Recraft の API を使用して、参照画像およびテキストプロンプトに基づいて新しい画像を生成します。 + +## パラメーター + +### 基本パラメーター + +| パラメーター | 型 | デフォルト | 説明 | +|------------|--------|------------|--------------------------| +| image | 画像 | - | 参照画像の入力 | +| prompt | 文字列 | "" | 生成画像のテキスト説明 | +| n | 整数 | 1 | 生成する画像の枚数(1~6) | +| seed | 整数 | 0 | 乱数シード値 | + +### オプションパラメーター + +| パラメーター | 型 | 説明 | +|---------------------|-----------------|--------------------------------| +| recraft_style | Recraft Style | 生成画像のスタイル設定 | +| negative_prompt | 文字列 | 生成画像に含めたくない要素の指定 | +| recraft_controls | Recraft Controls| 色など、追加の制御オプション | + +### 出力 + +| 出力 | 型 | 説明 | +|-------|------|------------------| +| IMAGE | 画像 | 生成された画像結果 | + + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] +```python + +class RecraftImageToImageNode: + """ + Modify image based on prompt and strength. + """ + + RETURN_TYPES = (IO.IMAGE,) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "api_call" + API_NODE = True + CATEGORY = "api node/image/Recraft" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "image": (IO.IMAGE, ), + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "Prompt for the image generation.", + }, + ), + "n": ( + IO.INT, + { + "default": 1, + "min": 1, + "max": 6, + "tooltip": "The number of images to generate.", + }, + ), + "strength": ( + IO.FLOAT, + { + "default": 0.5, + "min": 0.0, + "max": 1.0, + "step": 0.01, + "tooltip": "Defines the difference with the original image, should lie in [0, 1], where 0 means almost identical, and 1 means miserable similarity." + } + ), + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 0xFFFFFFFFFFFFFFFF, + "control_after_generate": True, + "tooltip": "Seed to determine if node should re-run; actual results are nondeterministic regardless of seed.", + }, + ), + }, + "optional": { + "recraft_style": (RecraftIO.STYLEV3,), + "negative_prompt": ( + IO.STRING, + { + "default": "", + "forceInput": True, + "tooltip": "An optional text description of undesired elements on an image.", + }, + ), + "recraft_controls": ( + RecraftIO.CONTROLS, + { + "tooltip": "Optional additional controls over the generation via the Recraft Controls node." + }, + ), + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + def api_call( + self, + image: torch.Tensor, + prompt: str, + n: int, + strength: float, + seed, + auth_token=None, + recraft_style: RecraftStyle = None, + negative_prompt: str = None, + recraft_controls: RecraftControls = None, + **kwargs, + ): + default_style = RecraftStyle(RecraftStyleV3.realistic_image) + if recraft_style is None: + recraft_style = default_style + + controls_api = None + if recraft_controls: + controls_api = recraft_controls.create_api_model() + + if not negative_prompt: + negative_prompt = None + + request = RecraftImageGenerationRequest( + prompt=prompt, + negative_prompt=negative_prompt, + model=RecraftModel.recraftv3, + n=n, + strength=round(strength, 2), + style=recraft_style.style, + substyle=recraft_style.substyle, + style_id=recraft_style.style_id, + controls=controls_api, + random_seed=seed, + ) + + images = [] + total = image.shape[0] + pbar = ProgressBar(total) + for i in range(total): + sub_bytes = handle_recraft_file_request( + image=image[i], + path="/proxy/recraft/images/imageToImage", + request=request, + auth_token=auth_token, + ) + images.append(torch.cat([bytesio_to_image_tensor(x) for x in sub_bytes], dim=0)) + pbar.update(1) + + images_tensor = torch.cat(images, dim=0) + return (images_tensor, ) \ No newline at end of file diff --git a/ja/built-in-nodes/partner-node/image/recraft/recraft-remove-background.mdx b/ja/built-in-nodes/partner-node/image/recraft/recraft-remove-background.mdx new file mode 100644 index 000000000..d98534fb4 --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/recraft/recraft-remove-background.mdx @@ -0,0 +1,79 @@ +--- +title: "Recraft Remove Background - ComfyUI ネイティブノードドキュメント" +description: "画像の背景を自動的に除去し、透過可能なアルファチャンネルを生成する Recraft パートナーノード" +sidebarTitle: "Recraft Remove Background" +icon: "circle" +translationSourceHash: f5a1b0bf +translationFrom: built-in-nodes/partner-node/image/recraft/recraft-remove-background.mdx, zh-CN/built-in-nodes/partner-node/image/recraft/recraft-remove-background.mdx +--- + +![ComfyUI ネイティブ Recraft Remove Background ノード](/images/built-in-nodes/api_nodes/recraft/recraft-remove-background.jpg) + +Recraft Remove Background ノードは Recraft の API を利用して、画像の背景を知能的に検出し、自動的に除去します。これにより、透過背景を持つ画像および対応するアルファマスクが生成されます。 + +## パラメータ + +### 基本パラメータ + +| パラメータ | 型 | デフォルト | 説明 | +| --------- | ---- | ---------- | ------------------------------ | +| image | 画像 | - | 背景を除去する入力画像 | + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | --------------------------------------------- | +| IMAGE | 画像 | 背景が除去された画像(アルファチャンネル付き) | +| MASK | マスク | 主要被写体のマスク(白色領域が保持される) | + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] + +```python +class RecraftRemoveBackgroundNode: + """ + Remove background from image, and return processed image and mask. + """ + + RETURN_TYPES = (IO.IMAGE, IO.MASK) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "api_call" + API_NODE = True + CATEGORY = "api node/image/Recraft" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "image": (IO.IMAGE, ), + }, + "optional": { + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + def api_call( + self, + image: torch.Tensor, + auth_token=None, + **kwargs, + ): + images = [] + total = image.shape[0] + pbar = ProgressBar(total) + for i in range(total): + sub_bytes = handle_recraft_file_request( + image=image[i], + path="/proxy/recraft/images/removeBackground", + auth_token=auth_token, + ) + images.append(torch.cat([bytesio_to_image_tensor(x) for x in sub_bytes], dim=0)) + pbar.update(1) + + images_tensor = torch.cat(images, dim=0) + # use alpha channel as masks, in B,H,W format + masks_tensor = images_tensor[:,:,:,-1:].squeeze(-1) + return (images_tensor, masks_tensor) diff --git a/ja/built-in-nodes/partner-node/image/recraft/recraft-replace-background.mdx b/ja/built-in-nodes/partner-node/image/recraft/recraft-replace-background.mdx new file mode 100644 index 000000000..b460a9347 --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/recraft/recraft-replace-background.mdx @@ -0,0 +1,149 @@ +--- +title: "Recraft Replace Background - ComfyUI ネイティブノードドキュメント" +description: "前景の被写体を自動検出し、背景を置き換える Recraft パートナーノード" +sidebarTitle: "Recraft Replace Background" +icon: "circle" +translationSourceHash: c4f8865e +translationFrom: built-in-nodes/partner-node/image/recraft/recraft-replace-background.mdx, zh-CN/built-in-nodes/partner-node/image/recraft/recraft-replace-background.mdx +translationMismatches: + - "description" +--- + +![ComfyUI ネイティブ Recraft Replace Background ノード](/images/built-in-nodes/api_nodes/recraft/recraft-replace-background.jpg) + +Recraft Replace Background ノードは、Recraft の API を活用して画像内の被写体を知的に検出し、テキストプロンプトに基づいて新しい背景を生成します。 + +## パラメーター + +### 基本パラメーター + +| パラメーター | 型 | デフォルト | 説明 | +| ------------ | ------ | ---------- | -------------------------------- | +| image | 画像 | - | 保持する被写体を含む入力画像 | +| prompt | 文字列 | "" | 背景生成用のテキストプロンプト | +| n | 整数 | 1 | 生成する画像の数(1~6) | +| seed | 整数 | 0 | ノードの再実行を制御する乱数シード | + +### オプションパラメーター + +| パラメーター | 型 | 説明 | +| ------------------ | --------------- | ------------------------------------ | +| recraft_style | Recraft Style | 背景生成のスタイル設定 | +| negative_prompt | 文字列 | 画像に含めたくない要素を記述するテキスト | + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ------------------------ | +| IMAGE | 画像 | 背景が置き換えられた最終画像 | + + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] + +```python + +class RecraftReplaceBackgroundNode: + """ + Replace background on image, based on provided prompt. + """ + + RETURN_TYPES = (IO.IMAGE,) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "api_call" + API_NODE = True + CATEGORY = "api node/image/Recraft" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "image": (IO.IMAGE, ), + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "Prompt for the image generation.", + }, + ), + "n": ( + IO.INT, + { + "default": 1, + "min": 1, + "max": 6, + "tooltip": "The number of images to generate.", + }, + ), + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 0xFFFFFFFFFFFFFFFF, + "control_after_generate": True, + "tooltip": "Seed to determine if node should re-run; actual results are nondeterministic regardless of seed.", + }, + ), + }, + "optional": { + "recraft_style": (RecraftIO.STYLEV3,), + "negative_prompt": ( + IO.STRING, + { + "default": "", + "forceInput": True, + "tooltip": "An optional text description of undesired elements on an image.", + }, + ), + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + def api_call( + self, + image: torch.Tensor, + prompt: str, + n: int, + seed, + auth_token=None, + recraft_style: RecraftStyle = None, + negative_prompt: str = None, + **kwargs, + ): + default_style = RecraftStyle(RecraftStyleV3.realistic_image) + if recraft_style is None: + recraft_style = default_style + + if not negative_prompt: + negative_prompt = None + + request = RecraftImageGenerationRequest( + prompt=prompt, + negative_prompt=negative_prompt, + model=RecraftModel.recraftv3, + n=n, + style=recraft_style.style, + substyle=recraft_style.substyle, + style_id=recraft_style.style_id, + ) + + images = [] + total = image.shape[0] + pbar = ProgressBar(total) + for i in range(total): + sub_bytes = handle_recraft_file_request( + image=image[i], + path="/proxy/recraft/images/replaceBackground", + request=request, + auth_token=auth_token, + ) + images.append(torch.cat([bytesio_to_image_tensor(x) for x in sub_bytes], dim=0)) + pbar.update(1) + + images_tensor = torch.cat(images, dim=0) + return (images_tensor, ) diff --git a/ja/built-in-nodes/partner-node/image/recraft/recraft-style-digital-illustration.mdx b/ja/built-in-nodes/partner-node/image/recraft/recraft-style-digital-illustration.mdx new file mode 100644 index 000000000..06f02b3f5 --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/recraft/recraft-style-digital-illustration.mdx @@ -0,0 +1,44 @@ +--- +title: "Recraft スタイル - デジタルイラストレーション - ComfyUI ネイティブノードドキュメント" +description: "Recraft による画像生成にデジタルイラストレーションスタイルを設定するための補助ノード" +sidebarTitle: "Recraft スタイル - デジタルイラストレーション" +icon: "circle" +translationSourceHash: 12e37181 +translationFrom: built-in-nodes/partner-node/image/recraft/recraft-style-digital-illustration.mdx, zh-CN/built-in-nodes/partner-node/image/recraft/recraft-style-digital-illustration.mdx +--- + +![ComfyUI ネイティブ Recraft スタイル デジタルイラストレーションノード](/images/built-in-nodes/api_nodes/recraft/recraft-style-digital-illustraion.jpg) + +このノードは、Recraft の画像生成プロセスを「デジタルイラストレーション」風のビジュアル表現へと導くためのスタイル設定オブジェクトを作成します。 + +## パラメータ + +### 基本パラメータ + +| パラメータ | 型 | デフォルト値 | 説明 | +| --------- | ---- | ------------ | ---------------------------------- | +| substyle | 選択 | None | デジタルイラストレーションの具体的なサブスタイル | + +### 出力 + +| 出力 | 型 | 説明 | +| -------------- | -------------- | --------------------------------------------------- | +| recraft_style | Recraft Style | Recraft 生成ノードに接続するためのスタイル設定オブジェクト | + +## 使用例 + + +Recraft Text to Image ワークフロー例 + + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] + +```python +class RecraftStyleV3DigitalIllustrationNode(RecraftStyleV3RealisticImageNode): + """ + digital_illustration スタイルおよび任意のサブスタイルを選択します。 + """ + + RECRAFT_STYLE = RecraftStyleV3.digital_illustration diff --git a/ja/built-in-nodes/partner-node/image/recraft/recraft-style-logo-raster.mdx b/ja/built-in-nodes/partner-node/image/recraft/recraft-style-logo-raster.mdx new file mode 100644 index 000000000..ff3329db6 --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/recraft/recraft-style-logo-raster.mdx @@ -0,0 +1,54 @@ +--- +title: "Recraft Style - Logo Raster - ComfyUI 組み込みノードドキュメント" +description: "Recraft による画像生成でロゴのラスタースタイルを設定するための補助ノード" +sidebarTitle: "Recraft Style - Logo Raster" +icon: "circle" +translationSourceHash: 2e1f779d +translationFrom: built-in-nodes/partner-node/image/recraft/recraft-style-logo-raster.mdx, zh-CN/built-in-nodes/partner-node/image/recraft/recraft-style-logo-raster.mdx +translationMismatches: + - "description" +--- + +![ComfyUI 組み込み Recraft Style - Logo Raster ノード](/images/built-in-nodes/api_nodes/recraft/recraft-style-logo-raster.jpg) + +このノードは、Recraft の画像生成プロセスを専門的なロゴデザイン効果へと導くスタイル設定オブジェクトを作成します。異なるサブスタイルを選択することで、生成されるロゴのデザインスタイル、複雑さ、および使用用途を定義できます。 + +## パラメータ + +### 基本パラメータ + +| パラメータ | 型 | デフォルト | 説明 | +| --------- | -- | -------- | ---- | +| substyle | 選択肢 | - | ロゴラスタースタイルの特定のサブスタイル(必須) | + +### 出力 + +| 出力 | 型 | 説明 | +| ---- | -- | ---- | +| recraft_style | Recraft Style | スタイル設定オブジェクト。Recraft 生成ノードへ接続します | + +## 使用例 + + +Recraft Text to Image ワークフローの例 + + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] + +```python +class RecraftStyleV3LogoRasterNode(RecraftStyleV3RealisticImageNode): + """ + Select vector_illustration style and optional substyle. + """ + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "substyle": (get_v3_substyles(s.RECRAFT_STYLE, include_none=False),), + } + } + + RECRAFT_STYLE = RecraftStyleV3.logo_raster \ No newline at end of file diff --git a/ja/built-in-nodes/partner-node/image/recraft/recraft-style-realistic-image.mdx b/ja/built-in-nodes/partner-node/image/recraft/recraft-style-realistic-image.mdx new file mode 100644 index 000000000..f6bd91f29 --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/recraft/recraft-style-realistic-image.mdx @@ -0,0 +1,68 @@ +--- +title: "Recraft Style - Realistic Image - ComfyUI ネイティブノードドキュメント" +description: "Recraft による画像生成向けに、リアルな写真スタイルを設定するための補助ノード" +sidebarTitle: "Recraft Style - Realistic Image" +icon: "circle" +translationSourceHash: 0d65748d +translationFrom: built-in-nodes/partner-node/image/recraft/recraft-style-realistic-image.mdx, zh-CN/built-in-nodes/partner-node/image/recraft/recraft-style-realistic-image.mdx +--- + +![ComfyUI ネイティブ Recraft Style - Realistic Image ノード](/images/built-in-nodes/api_nodes/recraft/recraft-style-realistic-image.jpg) + +「Recraft Style - Realistic Image」ノードは、Recraft による画像生成に対してリアルな写真スタイルを設定するためのノードであり、生成される画像の視覚的特徴を制御するための複数のサブスタイルオプションを提供します。 + +## ノードの機能 + +このノードは、Recraft の画像生成プロセスをリアルな写真表現へと導くためのスタイル設定オブジェクトを作成します。 + +## パラメータ + +### 基本パラメータ + +| パラメータ | 型 | デフォルト値 | 説明 | +| ---------- | ------ | ------------ | -------------------------------- | +| substyle | 選択肢 | None | リアルな写真スタイルの具体的なサブスタイル(必須) | + +### 出力 + +| 出力 | 型 | 説明 | +| ------------- | --------------- | -------------------------------------- | +| recraft_style | Recraft Style | Recraft 生成ノードへ接続するスタイル設定オブジェクト | + +## 使用例 + + +Recraft Text to Image ワークフローの例 + + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] + +```python + +class RecraftStyleV3RealisticImageNode: + """ + Select realistic_image style and optional substyle. + """ + + RETURN_TYPES = (RecraftIO.STYLEV3,) + RETURN_NAMES = ("recraft_style",) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "create_style" + CATEGORY = "api node/image/Recraft" + + RECRAFT_STYLE = RecraftStyleV3.realistic_image + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "substyle": (get_v3_substyles(s.RECRAFT_STYLE),), + } + } + + def create_style(self, substyle: str): + if substyle == "None": + substyle = None + return (RecraftStyle(self.RECRAFT_STYLE, substyle),) diff --git a/ja/built-in-nodes/partner-node/image/recraft/recraft-text-to-image.mdx b/ja/built-in-nodes/partner-node/image/recraft/recraft-text-to-image.mdx new file mode 100644 index 000000000..b810df1ac --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/recraft/recraft-text-to-image.mdx @@ -0,0 +1,173 @@ +--- +title: "Recraft Text to Image - ComfyUI 組み込みノードドキュメント" +description: "テキストによる説明から高品質な画像を生成する Recraft パートナーノード" +sidebarTitle: "Recraft Text to Image" +icon: "circle" +translationSourceHash: 78cce395 +translationFrom: built-in-nodes/partner-node/image/recraft/recraft-text-to-image.mdx, zh-CN/built-in-nodes/partner-node/image/recraft/recraft-text-to-image.mdx +translationMismatches: + - "description" +--- + +![ComfyUI 組み込み Recraft Text to Image ノード](/images/built-in-nodes/api_nodes/recraft/recraft-text-to-image.jpg) + +Recraft Text to Image ノードは、テキストプロンプトに基づいて高品質な画像を生成する機能を提供します。このノードは Recraft AI の画像生成 API に直接接続し、さまざまなスタイルの画像を作成できます。 + +## パラメーター + +### 基本パラメーター + +| パラメーター | 型 | デフォルト値 | 説明 | +| ------------ | ------ | ------------ | ------------------------ | +| prompt | 文字列 | "" | 画像生成用のテキスト説明 | +| size | 選択 | 1024x1024 | 出力画像サイズ | +| n | 整数 | 1 | 生成画像数(1~6) | +| seed | 整数 | 0 | 乱数シード値 | + +### オプションパラメーター + +| パラメーター | 型 | 説明 | +| ------------------ | ---------------- | ---------------------------------------------- | +| recraft_style | Recraft Style | 画像スタイル設定(デフォルトは「リアルな写真」) | +| negative_prompt | 文字列 | 生成から除外したい要素を指定 | +| recraft_controls | Recraft Controls | 追加制御パラメーター(色など) | + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ---------------- | +| IMAGE | 画像 | 生成された画像 | + + +## ソースコード + +[ノードソースコード(2025-05-03 更新)] + +```python +class RecraftTextToImageNode: + """ + Generates images synchronously based on prompt and resolution. + """ + + RETURN_TYPES = (IO.IMAGE,) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "api_call" + API_NODE = True + CATEGORY = "api node/image/Recraft" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "Prompt for the image generation.", + }, + ), + "size": ( + [res.value for res in RecraftImageSize], + { + "default": RecraftImageSize.res_1024x1024, + "tooltip": "The size of the generated image.", + }, + ), + "n": ( + IO.INT, + { + "default": 1, + "min": 1, + "max": 6, + "tooltip": "The number of images to generate.", + }, + ), + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 0xFFFFFFFFFFFFFFFF, + "control_after_generate": True, + "tooltip": "Seed to determine if node should re-run; actual results are nondeterministic regardless of seed.", + }, + ), + }, + "optional": { + "recraft_style": (RecraftIO.STYLEV3,), + "negative_prompt": ( + IO.STRING, + { + "default": "", + "forceInput": True, + "tooltip": "An optional text description of undesired elements on an image.", + }, + ), + "recraft_controls": ( + RecraftIO.CONTROLS, + { + "tooltip": "Optional additional controls over the generation via the Recraft Controls node." + }, + ), + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + def api_call( + self, + prompt: str, + size: str, + n: int, + seed, + recraft_style: RecraftStyle = None, + negative_prompt: str = None, + recraft_controls: RecraftControls = None, + auth_token=None, + **kwargs, + ): + default_style = RecraftStyle(RecraftStyleV3.realistic_image) + if recraft_style is None: + recraft_style = default_style + + controls_api = None + if recraft_controls: + controls_api = recraft_controls.create_api_model() + + if not negative_prompt: + negative_prompt = None + + operation = SynchronousOperation( + endpoint=ApiEndpoint( + path="/proxy/recraft/image_generation", + method=HttpMethod.POST, + request_model=RecraftImageGenerationRequest, + response_model=RecraftImageGenerationResponse, + ), + request=RecraftImageGenerationRequest( + prompt=prompt, + negative_prompt=negative_prompt, + model=RecraftModel.recraftv3, + size=size, + n=n, + style=recraft_style.style, + substyle=recraft_style.substyle, + style_id=recraft_style.style_id, + controls=controls_api, + ), + auth_token=auth_token, + ) + response: RecraftImageGenerationResponse = operation.execute() + images = [] + for data in response.data: + image = bytesio_to_image_tensor( + download_url_to_bytesio(data.url, timeout=1024) + ) + if len(image.shape) < 4: + image = image.unsqueeze(0) + images.append(image) + output_image = torch.cat(images, dim=0) + + return (output_image,) \ No newline at end of file diff --git a/ja/built-in-nodes/partner-node/image/recraft/recraft-text-to-vector.mdx b/ja/built-in-nodes/partner-node/image/recraft/recraft-text-to-vector.mdx new file mode 100644 index 000000000..37e69ab50 --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/recraft/recraft-text-to-vector.mdx @@ -0,0 +1,163 @@ +--- +title: "Recraft Text to Vector — ComfyUI ネイティブノードドキュメント" +description: "テキスト記述からスケーラブルなベクターグラフィックスを生成する Recraft パートナーノード" +sidebarTitle: "Recraft Text to Vector" +icon: "circle" +translationSourceHash: e04e8d4e +translationFrom: built-in-nodes/partner-node/image/recraft/recraft-text-to-vector.mdx, zh-CN/built-in-nodes/partner-node/image/recraft/recraft-text-to-vector.mdx +--- + +![ComfyUI ネイティブ Recraft Text to Vector ノード](/images/built-in-nodes/api_nodes/recraft/recraft-text-to-vector.jpg) + +Recraft Text to Vector ノードは、Recraft の API を使用してテキスト記述から高品質なベクターグラフィックス(SVG 形式)を生成します。ロゴ、アイコン、および無限にスケール可能なイラストの作成に最適です。 + +## パラメーター + +### 基本パラメーター + +| パラメーター | 型 | デフォルト値 | 説明 | +| ---------------- | -------- | ------------ | -------------------------------------------------- | +| `prompt` | 文字列 | `""` | 生成するベクターグラフィックスのテキスト記述 | +| `substyle` | 選択項目 | - | ベクタースタイルのサブタイプ | +| `size` | 選択項目 | `1024x1024` | ベクトル出力のキャンバスサイズ | +| `n` | 整数 | `1` | 生成する結果の数(1~6) | +| `seed` | 整数 | `0` | 乱数シード値 | + +### オプションパラメーター + +| パラメーター | 型 | 説明 | +| -------------------- | ---------------- | ---------------------------------------------- | +| `negative_prompt` | 文字列 | 生成から除外する要素を指定 | +| `recraft_controls` | Recraft Controls | 追加の制御パラメーター(色など) | + +### 出力 + +| 出力 | 型 | 説明 | +| ---- | ------ | ------------------------------------------------------------ | +| `SVG`| ベクター | 生成された SVG ベクターグラフィックス。保存には `SaveSVG` ノードへ接続してください。 | + +## ソースコード + +[ノードソースコード(2025-05-03 更新)] + +```python + +class RecraftTextToVectorNode: + """ + Generates SVG synchronously based on prompt and resolution. + """ + + RETURN_TYPES = (RecraftIO.SVG,) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "api_call" + API_NODE = True + CATEGORY = "api node/image/Recraft" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "Prompt for the image generation.", + }, + ), + "substyle": (get_v3_substyles(RecraftStyleV3.vector_illustration),), + "size": ( + [res.value for res in RecraftImageSize], + { + "default": RecraftImageSize.res_1024x1024, + "tooltip": "The size of the generated image.", + }, + ), + "n": ( + IO.INT, + { + "default": 1, + "min": 1, + "max": 6, + "tooltip": "The number of images to generate.", + }, + ), + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 0xFFFFFFFFFFFFFFFF, + "control_after_generate": True, + "tooltip": "Seed to determine if node should re-run; actual results are nondeterministic regardless of seed.", + }, + ), + }, + "optional": { + "negative_prompt": ( + IO.STRING, + { + "default": "", + "forceInput": True, + "tooltip": "An optional text description of undesired elements on an image.", + }, + ), + "recraft_controls": ( + RecraftIO.CONTROLS, + { + "tooltip": "Optional additional controls over the generation via the Recraft Controls node." + }, + ), + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + def api_call( + self, + prompt: str, + substyle: str, + size: str, + n: int, + seed, + negative_prompt: str = None, + recraft_controls: RecraftControls = None, + auth_token=None, + **kwargs, + ): + # create RecraftStyle so strings will be formatted properly (i.e. "None" will become None) + recraft_style = RecraftStyle(RecraftStyleV3.vector_illustration, substyle=substyle) + + controls_api = None + if recraft_controls: + controls_api = recraft_controls.create_api_model() + + if not negative_prompt: + negative_prompt = None + + operation = SynchronousOperation( + endpoint=ApiEndpoint( + path="/proxy/recraft/image_generation", + method=HttpMethod.POST, + request_model=RecraftImageGenerationRequest, + response_model=RecraftImageGenerationResponse, + ), + request=RecraftImageGenerationRequest( + prompt=prompt, + negative_prompt=negative_prompt, + model=RecraftModel.recraftv3, + size=size, + n=n, + style=recraft_style.style, + substyle=recraft_style.substyle, + controls=controls_api, + ), + auth_token=auth_token, + ) + response: RecraftImageGenerationResponse = operation.execute() + svg_data = [] + for data in response.data: + svg_data.append(download_url_to_bytesio(data.url, timeout=1024)) + + return (SVG(svg_data),) \ No newline at end of file diff --git a/ja/built-in-nodes/partner-node/image/recraft/recraft-vectorize-image.mdx b/ja/built-in-nodes/partner-node/image/recraft/recraft-vectorize-image.mdx new file mode 100644 index 000000000..88c46c15b --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/recraft/recraft-vectorize-image.mdx @@ -0,0 +1,84 @@ +--- +title: "Recraft Vectorize Image - ComfyUI 組み込みノードのドキュメント" +description: "ラスタ画像をベクターSVG形式に変換するRecraftパートナー・ノード" +sidebarTitle: "Recraft Vectorize Image" +icon: "circle" +translationSourceHash: 364663cb +translationFrom: built-in-nodes/partner-node/image/recraft/recraft-vectorize-image.mdx, zh-CN/built-in-nodes/partner-node/image/recraft/recraft-vectorize-image.mdx +translationMismatches: + - "description" +--- + +![ComfyUI 組み込み Recraft Vectorize Image ノード](/images/built-in-nodes/api_nodes/recraft/recraft-vectorize-image.jpg) + +Recraft Vectorize Image ノードは、Recraft の API を使用して、ラスタ画像(写真、PNG、JPEG など)をベクター SVG 形式に変換します。 + +## パラメーター + +### 基本パラメーター + +| パラメーター | 型 | デフォルト値 | 説明 | +| ----------- | ---- | ------------ | ------------------------------ | +| image | 画像 | - | ベクター形式に変換する入力画像 | + +### 出力 + +| 出力 | 型 | 説明 | +| ---- | ------ | -------------------------------------------------------------------- | +| SVG | ベクター | 変換された SVG ベクターグラフィック。保存するには SaveSVG ノードに接続する必要があります。 | + +## 使用例 + + +Recraft Text to Image ワークフローの例 + + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] + +```python + +class RecraftVectorizeImageNode: + """ + Generates SVG synchronously from an input image. + """ + + RETURN_TYPES = (RecraftIO.SVG,) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "api_call" + API_NODE = True + CATEGORY = "api node/image/Recraft" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "image": (IO.IMAGE, ), + }, + "optional": { + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + def api_call( + self, + image: torch.Tensor, + auth_token=None, + **kwargs, + ): + svgs = [] + total = image.shape[0] + pbar = ProgressBar(total) + for i in range(total): + sub_bytes = handle_recraft_file_request( + image=image[i], + path="/proxy/recraft/images/vectorize", + auth_token=auth_token, + ) + svgs.append(SVG(sub_bytes)) + pbar.update(1) + + return (SVG.combine_all(svgs), ) diff --git a/ja/built-in-nodes/partner-node/image/recraft/save-svg.mdx b/ja/built-in-nodes/partner-node/image/recraft/save-svg.mdx new file mode 100644 index 000000000..6fb558f82 --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/recraft/save-svg.mdx @@ -0,0 +1,123 @@ +--- +title: "Save SVG - ComfyUI 組み込みノードドキュメント" +description: "SVGベクターグラフィックスをファイルに保存するためのユーティリティノード" +sidebarTitle: "Save SVG" +icon: "circle" +translationSourceHash: 18f13733 +translationFrom: built-in-nodes/partner-node/image/recraft/save-svg.mdx, zh-CN/built-in-nodes/partner-node/image/recraft/save-svg.mdx +translationMismatches: + - "description" +--- + +![ComfyUI 組み込み Save SVG ノード](/images/built-in-nodes/api_nodes/recraft/save-svg.jpg) + +Save SVG ノードは、Recraft のベクターグラフィックス生成ノードから得られた SVG データを、ファイルシステム上の利用可能なファイルとして保存します。これはベクターグラフィックスの処理およびエクスポートを行うために不可欠なコンポーネントです。 + +## ノードの機能 + +このノードは SVG ベクトルデータを受信し、ファイルシステム上に標準的な SVG ファイルとして保存します。自動ファイル名付与および保存先パスの指定をサポートしており、ベクターグラフィックスを他のソフトウェアで開いて編集できるようにします。 + +## パラメーター + +### 基本パラメーター + +| パラメーター | 型 | デフォルト値 | 説明 | +| ----------------- | ------- | ------------ | -------------------------------------------------------------------- | +| svg | SVG | - | 保存する SVG ベクターデータ | +| filename_prefix | 文字列 | "recraft" | ファイル名のプレフィックス | +| output_dir | 文字列 | - | 出力ディレクトリ。デフォルトは `ComfyUI/output/svg/` の ComfyUI 出力フォルダ | +| index | 整数 | -1 | 保存インデックス。-1 の場合、生成されたすべての SVG を保存します | + +### 出力 + +| 出力 | 型 | 説明 | +| ---- | --- | ------------------------ | +| SVG | SVG | 入力された SVG データをそのまま出力します | + +## 使用例 + + +Recraft Text to Image ワークフローの例 + + +## ソースコード + +[ノードのソースコード (2025-05-03 更新)] + +```python +class SaveSVGNode: + """ + Save SVG files on disk. + """ + + def __init__(self): + self.output_dir = folder_paths.get_output_directory() + self.type = "output" + self.prefix_append = "" + + RETURN_TYPES = () + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "save_svg" + CATEGORY = "api node/image/Recraft" + OUTPUT_NODE = True + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "svg": (RecraftIO.SVG,), + "filename_prefix": ("STRING", {"default": "svg/ComfyUI", "tooltip": "The prefix for the file to save. This may include formatting information such as %date:yyyy-MM-dd% or %Empty Latent Image.width% to include values from nodes."}) + }, + "hidden": { + "prompt": "PROMPT", + "extra_pnginfo": "EXTRA_PNGINFO" + } + } + + def save_svg(self, svg: SVG, filename_prefix="svg/ComfyUI", prompt=None, extra_pnginfo=None): + filename_prefix += self.prefix_append + full_output_folder, filename, counter, subfolder, filename_prefix = folder_paths.get_save_image_path(filename_prefix, self.output_dir) + results = list() + + # Prepare metadata JSON + metadata_dict = {} + if prompt is not None: + metadata_dict["prompt"] = prompt + if extra_pnginfo is not None: + metadata_dict.update(extra_pnginfo) + + # Convert metadata to JSON string + metadata_json = json.dumps(metadata_dict, indent=2) if metadata_dict else None + + for batch_number, svg_bytes in enumerate(svg.data): + filename_with_batch_num = filename.replace("%batch_num%", str(batch_number)) + file = f"{filename_with_batch_num}_{counter:05}_.svg" + + # Read SVG content + svg_bytes.seek(0) + svg_content = svg_bytes.read().decode('utf-8') + + # Inject metadata if available + if metadata_json: + # Create metadata element with CDATA section + metadata_element = f""" + + +""" + # Insert metadata after opening svg tag using regex + import re + svg_content = re.sub(r'(]*>)', r'\1\n' + metadata_element, svg_content) + + # Write the modified SVG to file + with open(os.path.join(full_output_folder, file), 'wb') as svg_file: + svg_file.write(svg_content.encode('utf-8')) + + results.append({ + "filename": file, + "subfolder": subfolder, + "type": self.type + }) + counter += 1 + return { "ui": { "images": results } } diff --git a/ja/built-in-nodes/partner-node/image/stability-ai/stability-ai-stable-diffusion-3-5-image.mdx b/ja/built-in-nodes/partner-node/image/stability-ai/stability-ai-stable-diffusion-3-5-image.mdx new file mode 100644 index 000000000..d7533a8e7 --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/stability-ai/stability-ai-stable-diffusion-3-5-image.mdx @@ -0,0 +1,198 @@ +--- +title: "Stability AI Stable Diffusion 3.5 - ComfyUI ネイティブノードドキュメント" +description: "Stability AI の Stable Diffusion 3.5 モデルを用いて高品質な画像を生成するノード" +sidebarTitle: "Stability AI SD 3.5 画像" +icon: "circle" +translationSourceHash: 7c2c6512 +translationFrom: built-in-nodes/partner-node/image/stability-ai/stability-ai-stable-diffusion-3-5-image.mdx, zh-CN/built-in-nodes/partner-node/image/stability-ai/stability-ai-stable-diffusion-3-5-image.mdx +translationMismatches: + - "description" +--- + +![ComfyUI ネイティブ Stability AI Stable Diffusion 3.5 ノード](/images/built-in-nodes/api_nodes/stability-ai/stability-ai-stable-image-sd-3-5.jpg) + +Stability AI Stable Diffusion 3.5 画像ノードは、Stability AI 社の Stable Diffusion 3.5 API を使用して高品質な画像を生成します。テキストから画像を生成する「テキスト→画像」モードと、既存の画像をもとに新たな画像を生成する「画像→画像」モードの両方をサポートしており、テキストプロンプトから詳細な視覚コンテンツを作成できます。 + +## パラメータ + +### 必須パラメータ + +| パラメータ | 型 | デフォルト | 説明 | +| ------------ | ------ | ---------- | ------------------------------------------------------------------------------------------------------------------------------------ | +| prompt | 文字列 | "" | 出力画像に含めたい内容です。要素・色・テーマを明確に定義した、強力で具体的なプロンプトを使用すると、より優れた結果が得られます。 | +| model | 選択 | - | 使用する Stability SD 3.5 モデルを選択します。 | +| aspect_ratio | 選択 | "1:1" | 生成される画像の幅と高さの比率(アスペクト比)です。 | +| style_preset | 選択 | "None" | 生成画像に適用するオプションのスタイルプリセットです。 | +| cfg_scale | 浮動小数点数 | 4.0 | 拡散プロセスがプロンプトテキストにどれだけ厳密に従うかを制御します(値が大きいほど、出力画像はプロンプトに近くなります)。範囲:1.0~10.0、ステップ:0.1 | +| seed | 整数 | 0 | ノイズ生成に使用される乱数シード(0~4294967294)です。 | + +### オプションパラメータ + +| パラメータ | 型 | デフォルト | 説明 | +| --------------- | ------ | ---------- | -------------------------------------------------------------------------------------------------------------------------------------------------- | +| image | 画像 | - | 入力画像です。このパラメータに画像が指定された場合、ノードは「画像→画像」モードに自動的に切り替わります。 | +| negative_prompt | 文字列 | "" | 出力画像に含めたくない要素を表すキーワードです。高度な機能です。 | +| image_denoise | 浮動小数点数 | 0.5 | 入力画像のデノイズ強度です。0.0 では入力画像と同一の画像が出力され、1.0 では入力画像がまったく存在しない状態と同じになります。範囲:0.0~1.0、ステップ:0.01。image パラメータが指定されている場合のみ有効です。 | + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ---------- | +| IMAGE | 画像 | 生成された画像 | + +## 使用例 + + +Stability AI Stable Diffusion 3.5 画像ワークフローの例 + + +## 注意事項 + +- 入力画像が指定された場合、ノードは「テキスト→画像」モードから「画像→画像」モードに自動的に切り替わります。 +- 「画像→画像」モードでは、`aspect_ratio` パラメータは無視されます。 +- モードは、入力画像が提供されているかどうかに基づいて自動的に切り替わります: + - 画像が未指定の場合:「テキスト→画像」モード + - 画像が指定されている場合:「画像→画像」モード +- `style_preset` を `"None"` に設定した場合、スタイルプリセットは適用されません。 + +## ソースコード + +[ノードのソースコード(2025-05-07 更新)] + +```python +class StabilityStableImageSD_3_5Node: + """ + Generates images synchronously based on prompt and resolution. + """ + + RETURN_TYPES = (IO.IMAGE,) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "api_call" + API_NODE = True + CATEGORY = "api node/image/Stability AI" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "What you wish to see in the output image. A strong, descriptive prompt that clearly defines elements, colors, and subjects will lead to better results." + }, + ), + "model": ([x.value for x in Stability_SD3_5_Model],), + "aspect_ratio": ([x.value for x in StabilityAspectRatio], + { + "default": StabilityAspectRatio.ratio_1_1, + "tooltip": "Aspect ratio of generated image.", + }, + ), + "style_preset": (get_stability_style_presets(), + { + "tooltip": "Optional desired style of generated image.", + }, + ), + "cfg_scale": ( + IO.FLOAT, + { + "default": 4.0, + "min": 1.0, + "max": 10.0, + "step": 0.1, + "tooltip": "How strictly the diffusion process adheres to the prompt text (higher values keep your image closer to your prompt)", + }, + ), + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 4294967294, + "control_after_generate": True, + "tooltip": "The random seed used for creating the noise.", + }, + ), + }, + "optional": { + "image": (IO.IMAGE,), + "negative_prompt": ( + IO.STRING, + { + "default": "", + "forceInput": True, + "tooltip": "Keywords of what you do not wish to see in the output image. This is an advanced feature." + }, + ), + "image_denoise": ( + IO.FLOAT, + { + "default": 0.5, + "min": 0.0, + "max": 1.0, + "step": 0.01, + "tooltip": "Denoise of input image; 0.0 yields image identical to input, 1.0 is as if no image was provided at all.", + }, + ), + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + def api_call(self, model: str, prompt: str, aspect_ratio: str, style_preset: str, seed: int, cfg_scale: float, + negative_prompt: str=None, image: torch.Tensor = None, image_denoise: float=None, + auth_token=None): + validate_string(prompt, strip_whitespace=False) + # prepare image binary if image present + image_binary = None + mode = Stability_SD3_5_GenerationMode.text_to_image + if image is not None: + image_binary = tensor_to_bytesio(image, total_pixels=1504*1504).read() + mode = Stability_SD3_5_GenerationMode.image_to_image + aspect_ratio = None + else: + image_denoise = None + + if not negative_prompt: + negative_prompt = None + if style_preset == "None": + style_preset = None + + files = { + "image": image_binary + } + + operation = SynchronousOperation( + endpoint=ApiEndpoint( + path="/proxy/stability/v2beta/stable-image/generate/sd3", + method=HttpMethod.POST, + request_model=StabilityStable3_5Request, + response_model=StabilityStableUltraResponse, + ), + request=StabilityStable3_5Request( + prompt=prompt, + negative_prompt=negative_prompt, + aspect_ratio=aspect_ratio, + seed=seed, + strength=image_denoise, + style_preset=style_preset, + cfg_scale=cfg_scale, + model=model, + mode=mode, + ), + files=files, + content_type="multipart/form-data", + auth_token=auth_token, + ) + response_api = operation.execute() + + if response_api.finish_reason != "SUCCESS": + raise Exception(f"Stable Diffusion 3.5 Image generation failed: {response_api.finish_reason}.") + + image_data = base64.b64decode(response_api.image) + returned_image = bytesio_to_image_tensor(BytesIO(image_data)) + + return (returned_image,) \ No newline at end of file diff --git a/ja/built-in-nodes/partner-node/image/stability-ai/stability-ai-stable-image-ultra.mdx b/ja/built-in-nodes/partner-node/image/stability-ai/stability-ai-stable-image-ultra.mdx new file mode 100644 index 000000000..4b281225d --- /dev/null +++ b/ja/built-in-nodes/partner-node/image/stability-ai/stability-ai-stable-image-ultra.mdx @@ -0,0 +1,177 @@ +--- +title: "Stability Stable Image Ultra - ComfyUI ネイティブノードドキュメント" +description: "Stability AI の超安定拡散モデルを用いて高品質な画像を生成するノード" +sidebarTitle: "Stability Stable Image Ultra" +icon: "circle" +translationSourceHash: 0cb2b5aa +translationFrom: built-in-nodes/partner-node/image/stability-ai/stability-ai-stable-image-ultra.mdx, zh-CN/built-in-nodes/partner-node/image/stability-ai/stability-ai-stable-image-ultra.mdx +translationMismatches: + - "description" +--- + +![ComfyUI ネイティブ Stability Stable Image Ultra ノード](/images/built-in-nodes/api_nodes/stability-ai/stability-ai-stable-image-ultra.jpg) + +Stability Stable Image Ultra ノードは、Stability AI の Stable Diffusion Ultra API を使用して高品質な画像を生成します。テキストから画像への生成(text-to-image)および画像から画像への生成(image-to-image)の両方をサポートしており、テキストプロンプトに基づいて、ディテールが豊かで芸術性の高いビジュアルを生成します。 + +## パラメータ + +### 必須パラメータ + +| パラメータ | 型 | デフォルト値 | 説明 | +| ------------- | ------ | ------------ | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | +| prompt | 文字列 | "" | 生成したい内容を記述したテキストです。要素、色、テーマを明確に指定した、明瞭で描写力のあるプロンプトほど、より優れた結果が得られます。特定の単語の重みを制御するには `(単語:重み)` の形式を使用できます。ここで重みは 0~1 の範囲の値です。例:`空は (青:0.3) で (緑:0.8)` とすると、空の色は青よりも緑が強調されます。 | +| aspect_ratio | 選択 | "1:1" | 出力画像の幅と高さの比率 | +| style_preset | 選択 | "None" | 生成画像に適用するオプションのスタイルプリセット | +| seed | 整数 | 0 | ノイズ生成のための乱数シード(0~4294967294) | + +### オプションパラメータ + +| パラメータ | 型 | デフォルト値 | 説明 | +| ----------------- | ------ | ------------ | -------------------------------------------------------------------------------------------------------------------------- | +| image | 画像 | - | 画像から画像への生成(image-to-image)に使用する入力画像 | +| negative_prompt | 文字列 | "" | 出力画像に含めたくない要素を記述するテキストです。高度な機能です。 | +| image_denoise | 浮動小数点数 | 0.5 | 入力画像のデノイズ強度(0.0~1.0)。0.0 の場合、入力画像と完全に同一の出力となり、1.0 の場合、入力画像が存在しないのと同じ効果になります。 | + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ------------ | +| IMAGE | 画像 | 生成された画像 | + +## 注意事項 + +- 入力画像が指定されていない場合、`image_denoise` は無効になります。 +- `style_preset` が `"None"` の場合、スタイルプリセットは適用されません。 +- 画像から画像への生成では、入力画像が API 送信前に適切な形式に変換されます。 + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] + +```python + +class StabilityStableImageUltraNode: + """ + Generates images synchronously based on prompt and resolution. + """ + + RETURN_TYPES = (IO.IMAGE,) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "api_call" + API_NODE = True + CATEGORY = "api node/image/stability" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "What you wish to see in the output image. A strong, descriptive prompt that clearly defines" + + "What you wish to see in the output image. A strong, descriptive prompt that clearly defines" + + "elements, colors, and subjects will lead to better results. " + + "To control the weight of a given word use the format `(word:weight)`," + + "where `word` is the word you'd like to control the weight of and `weight`" + + "is a value between 0 and 1. For example: `The sky was a crisp (blue:0.3) and (green:0.8)`" + + "would convey a sky that was blue and green, but more green than blue." + }, + ), + "aspect_ratio": ([x.value for x in StabilityAspectRatio], + { + "default": StabilityAspectRatio.ratio_1_1, + "tooltip": "Aspect ratio of generated image.", + }, + ), + "style_preset": (get_stability_style_presets(), + { + "tooltip": "Optional desired style of generated image.", + }, + ), + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 4294967294, + "control_after_generate": True, + "tooltip": "The random seed used for creating the noise.", + }, + ), + }, + "optional": { + "image": (IO.IMAGE,), + "negative_prompt": ( + IO.STRING, + { + "default": "", + "forceInput": True, + "tooltip": "A blurb of text describing what you do not wish to see in the output image. This is an advanced feature." + }, + ), + "image_denoise": ( + IO.FLOAT, + { + "default": 0.5, + "min": 0.0, + "max": 1.0, + "step": 0.01, + "tooltip": "Denoise of input image; 0.0 yields image identical to input, 1.0 is as if no image was provided at all.", + }, + ), + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + def api_call(self, prompt: str, aspect_ratio: str, style_preset: str, seed: int, + negative_prompt: str=None, image: torch.Tensor = None, image_denoise: float=None, + auth_token=None): + # prepare image binary if image present + image_binary = None + if image is not None: + image_binary = tensor_to_bytesio(image, 1504 * 1504).read() + else: + image_denoise = None + + if not negative_prompt: + negative_prompt = None + if style_preset == "None": + style_preset = None + + files = { + "image": image_binary + } + + operation = SynchronousOperation( + endpoint=ApiEndpoint( + path="/proxy/stability/v2beta/stable-image/generate/ultra", + method=HttpMethod.POST, + request_model=StabilityStableUltraRequest, + response_model=StabilityStableUltraResponse, + ), + request=StabilityStableUltraRequest( + prompt=prompt, + negative_prompt=negative_prompt, + aspect_ratio=aspect_ratio, + seed=seed, + strength=image_denoise, + style_preset=style_preset, + ), + files=files, + content_type="multipart/form-data", + auth_token=auth_token, + ) + response_api = operation.execute() + + if response_api.finish_reason != "SUCCESS": + raise Exception(f"Stable Image Ultra generation failed: {response_api.finish_reason}.") + + image_data = base64.b64decode(response_api.image) + returned_image = bytesio_to_image_tensor(BytesIO(image_data)) + + return (returned_image,) + diff --git a/ja/built-in-nodes/partner-node/video/google/google-veo2-video.mdx b/ja/built-in-nodes/partner-node/video/google/google-veo2-video.mdx new file mode 100644 index 000000000..5ae119941 --- /dev/null +++ b/ja/built-in-nodes/partner-node/video/google/google-veo2-video.mdx @@ -0,0 +1,287 @@ +--- +title: "Google Veo2 Video - ComfyUI ネイティブノードドキュメント" +description: "Google の Veo2 技術を用いてテキスト記述から動画を生成するノード" +sidebarTitle: "Google Veo2 Video" +icon: "circle" +translationSourceHash: 881bd5a0 +translationFrom: built-in-nodes/partner-node/video/google/google-veo2-video.mdx, zh-CN/built-in-nodes/partner-node/video/google/google-veo2-video.mdx +translationMismatches: + - "description" +--- + +![ComfyUI ネイティブ Google Veo2 Video ノード](/images/built-in-nodes/api_nodes/google/veo2-video-generation.jpg) + +Google Veo2 Video ノードは、Google の Veo2 API 技術を活用してテキスト記述から高品質な動画を生成します。このノードは、テキストプロンプトを動的な動画コンテンツに変換します。 + +## パラメーター + +### 基本パラメーター + +| パラメーター | 型 | デフォルト値 | 説明 | +| ------------------- | ------- | ------------ | --------------------------------------------------- | +| `prompt` | 文字列 | `""` | 生成する動画の内容を記述するテキスト | +| `aspect_ratio` | 選択肢 | `"16:9"` | 出力動画のアスペクト比(`"16:9"` または `"9:16"`) | +| `negative_prompt` | 文字列 | `""` | 動画内に含めないよう指示するテキスト | +| `duration_seconds` | 整数 | `5` | 動画の再生時間(5~8 秒) | +| `enhance_prompt` | ブール値| `True` | プロンプトを AI で強化するかどうか | +| `person_generation` | 選択肢 | `"ALLOW"` | 人物の生成を許可/禁止(`"ALLOW"` または `"BLOCK"`)| +| `seed` | 整数 | `0` | 乱数シード(`0` の場合、ランダムに生成) | + +### オプションパラメーター + +| パラメーター | 型 | デフォルト値 | 説明 | +| ------------ | ---- | ------------ | -------------------------------- | +| `image` | 画像 | `None` | 動画生成を補助するための参照画像(任意) | + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ------------ | +| `VIDEO` | 動画 | 生成された動画 | + +## ソースコード + +[ノードソースコード(2025-05-03 更新)] + +```python + +class VeoVideoGenerationNode(ComfyNodeABC): + """ + Google の Veo API を使用して、テキストプロンプトから動画を生成します。 + + このノードは、テキスト記述およびオプションの画像入力から動画を作成でき、 + アスペクト比や再生時間などのパラメーターを制御できます。 + """ + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "動画の内容を記述するテキスト", + }, + ), + "aspect_ratio": ( + IO.COMBO, + { + "options": ["16:9", "9:16"], + "default": "16:9", + "tooltip": "出力動画のアスペクト比", + }, + ), + }, + "optional": { + "negative_prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "動画内で回避すべき内容を示すネガティブプロンプト", + }, + ), + "duration_seconds": ( + IO.INT, + { + "default": 5, + "min": 5, + "max": 8, + "step": 1, + "display": "number", + "tooltip": "出力動画の再生時間(秒単位)", + }, + ), + "enhance_prompt": ( + IO.BOOLEAN, + { + "default": True, + "tooltip": "AI を用いてプロンプトを強化するかどうか", + } + ), + "person_generation": ( + IO.COMBO, + { + "options": ["ALLOW", "BLOCK"], + "default": "ALLOW", + "tooltip": "動画内での人物生成を許可するかどうか", + }, + ), + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 0xFFFFFFFF, + "step": 1, + "display": "number", + "control_after_generate": True, + "tooltip": "動画生成用のシード値(0 の場合はランダム)", + }, + ), + "image": (IO.IMAGE, { + "default": None, + "tooltip": "動画生成を補助するための参照画像(任意)", + }), + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + RETURN_TYPES = (IO.VIDEO,) + FUNCTION = "generate_video" + CATEGORY = "api node/video/Veo" + DESCRIPTION = "Google の Veo API を使用して、テキストプロンプトから動画を生成します" + API_NODE = True + + def generate_video( + self, + prompt, + aspect_ratio="16:9", + negative_prompt="", + duration_seconds=5, + enhance_prompt=True, + person_generation="ALLOW", + seed=0, + image=None, + auth_token=None, + ): + # リクエスト用のインスタンスを準備 + instances = [] + + instance = { + "prompt": prompt + } + + # 画像が提供されている場合、追加 + if image is not None: + image_base64 = convert_image_to_base64(image) + if image_base64: + instance["image"] = { + "bytesBase64Encoded": image_base64, + "mimeType": "image/png" + } + + instances.append(instance) + + # パラメーター辞書を作成 + parameters = { + "aspectRatio": aspect_ratio, + "personGeneration": person_generation, + "durationSeconds": duration_seconds, + "enhancePrompt": enhance_prompt, + } + + # 提供されている場合、オプションパラメーターを追加 + if negative_prompt: + parameters["negativePrompt"] = negative_prompt + if seed > 0: + parameters["seed"] = seed + + # 動画生成を開始するための初期リクエスト + initial_operation = SynchronousOperation( + endpoint=ApiEndpoint( + path="/proxy/veo/generate", + method=HttpMethod.POST, + request_model=Veo2GenVidRequest, + response_model=Veo2GenVidResponse + ), + request=Veo2GenVidRequest( + instances=instances, + parameters=parameters + ), + auth_token=auth_token + ) + + initial_response = initial_operation.execute() + operation_name = initial_response.name + + logging.info(f"Veo 動画生成を開始しました(操作名: {operation_name})") + + # ステータス抽出関数を定義 + def status_extractor(response): + # 完了状態(成功・失敗を問わず)のみ「completed」を返す + # エラー検出はポーリング完了後に実施 + return "completed" if response.done else "pending" + + # 進行度抽出関数を定義 + def progress_extractor(response): + # API が進行度情報を提供する場合、拡張可能 + return None + + # ポーリング操作を定義 + poll_operation = PollingOperation( + poll_endpoint=ApiEndpoint( + path="/proxy/veo/poll", + method=HttpMethod.POST, + request_model=Veo2GenVidPollRequest, + response_model=Veo2GenVidPollResponse + ), + completed_statuses=["completed"], + failed_statuses=[], # 失敗ステータスは空にして、ポーリング完了後にエラー処理 + status_extractor=status_extractor, + progress_extractor=progress_extractor, + request=Veo2GenVidPollRequest( + operationName=operation_name + ), + auth_token=auth_token, + poll_interval=5.0 + ) + + # ポーリング操作を実行 + poll_response = poll_operation.execute() + + # 最終レスポンス内のエラーを確認 + # ポーリングレスポンス内のエラーを確認 + if hasattr(poll_response, 'error') and poll_response.error: + error_message = f"Veo API エラー: {poll_response.error.message}(コード: {poll_response.error.code})" + logging.error(error_message) + raise Exception(error_message) + + # RAI(Responsible AI)によるコンテンツフィルタリングを確認 + if (hasattr(poll_response.response, 'raiMediaFilteredCount') and + poll_response.response.raiMediaFilteredCount > 0): + + # 理由メッセージが存在するか確認 + if (hasattr(poll_response.response, 'raiMediaFilteredReasons') and + poll_response.response.raiMediaFilteredReasons): + reason = poll_response.response.raiMediaFilteredReasons[0] + error_message = f"Google の Responsible AI 方針によりコンテンツがフィルタリングされました: {reason}({poll_response.response.raiMediaFilteredCount} 件の動画がフィルタリング済み)" + else: + error_message = f"Google の Responsible AI 方針によりコンテンツがフィルタリングされました({poll_response.response.raiMediaFilteredCount} 件の動画がフィルタリング済み)" + + logging.error(error_message) + raise Exception(error_message) + + # 動画データを抽出 + video_data = None + if poll_response.response and hasattr(poll_response.response, 'videos') and poll_response.response.videos and len(poll_response.response.videos) > 0: + video = poll_response.response.videos[0] + + # 動画が base64 形式か URL 形式かを確認 + if hasattr(video, 'bytesBase64Encoded') and video.bytesBase64Encoded: + # base64 文字列をバイト列にデコード + video_data = base64.b64decode(video.bytesBase64Encoded) + elif hasattr(video, 'gcsUri') and video.gcsUri: + # URL からダウンロード + video_url = video.gcsUri + video_response = requests.get(video_url) + video_data = video_response.content + else: + raise Exception("動画は返却されましたが、データも URL も提供されていません") + else: + raise Exception("動画生成は完了しましたが、動画が返却されていません") + + if not video_data: + raise Exception("動画データが返却されませんでした") + + logging.info("動画生成が正常に完了しました") + + # 動画データを BytesIO オブジェクトに変換 + video_io = io.BytesIO(video_data) + + # VideoFromFile オブジェクトを返却 + return (VideoFromFile(video_io),) diff --git a/ja/built-in-nodes/partner-node/video/kwai_vgi/kling-camera-control-i2v.mdx b/ja/built-in-nodes/partner-node/video/kwai_vgi/kling-camera-control-i2v.mdx new file mode 100644 index 000000000..4d3bd62f7 --- /dev/null +++ b/ja/built-in-nodes/partner-node/video/kwai_vgi/kling-camera-control-i2v.mdx @@ -0,0 +1,109 @@ +--- +title: "Kling 画像から動画へ (カメラ制御) - ComfyUI 組み込みノード" +description: "カメラ制御機能を備えた Kling 画像から動画への変換ノード" +sidebarTitle: "Kling 画像から動画へ (カメラ制御)" +icon: "circle" +translationSourceHash: 47feaac7 +translationFrom: built-in-nodes/partner-node/video/kwai_vgi/kling-camera-control-i2v.mdx, zh-CN/built-in-nodes/partner-node/video/kwai_vgi/kling-camera-control-i2v.mdx +translationMismatches: + - "description" +--- + +![ComfyUI 組み込み Kling 画像から動画へ (カメラ制御) ノード](/images/built-in-nodes/api_nodes/kwai_vgi/kling-camera-control-i2v.jpg) + +Kling 画像から動画へ (カメラ制御) ノードは、静止画像をプロフェッショナルなカメラ動きを伴う動画に変換します。ズーム、回転、パン、チルト、およびファーストパーソンビューといったカメラ制御機能をサポートし、元の画像コンテンツへのフォーカスを維持します。 + +## パラメータ + +### 基本パラメータ + +| パラメータ | 型 | デフォルト値 | 説明 | +| ----------------- | ------ | ------------ | ---------------------------------------- | +| start_frame | 画像 | - | 動画に変換する入力画像 | +| prompt | 文字列 | "" | 動画の動作およびコンテンツを記述するテキストプロンプト | +| negative_prompt | 文字列 | "" | 動画に含めたくない要素 | +| cfg_scale | 浮動小数点数 | 7.0 | プロンプトへの従い具合を制御するパラメータ | +| aspect_ratio | 選択項目 | 16:9 | 出力動画のアスペクト比 | + +### カメラ制御パラメータ + +| パラメータ | 型 | 説明 | +| ------------------ | ----------- | ---------------------------------------------- | +| camera_control | CameraControl | Kling Camera Controls ノードから取得したカメラ制御設定 | + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ------------ | +| VIDEO | 動画 | 生成された動画 | + +## ソースコード + +[ノードソースコード (2025-05-03 更新)] +```python + +class KlingCameraControlI2VNode(KlingImage2VideoNode): + """ + Kling Image to Video Camera Control Node. This node is a image to video node, but it supports controlling the camera. + Duration, mode, and model_name request fields are hard-coded because camera control is only supported in pro mode with the kling-v1-5 model at 5s duration as of 2025-05-02. + """ + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "start_frame": model_field_to_node_input( + IO.IMAGE, KlingImage2VideoRequest, "image" + ), + "prompt": model_field_to_node_input( + IO.STRING, KlingImage2VideoRequest, "prompt", multiline=True + ), + "negative_prompt": model_field_to_node_input( + IO.STRING, + KlingImage2VideoRequest, + "negative_prompt", + multiline=True, + ), + "cfg_scale": model_field_to_node_input( + IO.FLOAT, KlingImage2VideoRequest, "cfg_scale" + ), + "aspect_ratio": model_field_to_node_input( + IO.COMBO, + KlingImage2VideoRequest, + "aspect_ratio", + enum_type=AspectRatio, + ), + "camera_control": ( + "CAMERA_CONTROL", + { + "tooltip": "Can be created using the Kling Camera Controls node. Controls the camera movement and motion during the video generation.", + }, + ), + }, + "hidden": {"auth_token": "AUTH_TOKEN_COMFY_ORG"}, + } + + DESCRIPTION = "静止画像を、実世界の映画撮影を模したプロフェッショナルなカメラ動きを伴うシネマティックな動画に変換します。ズーム、回転、パン、チルト、ファーストパーソンビューなどの仮想カメラ操作を制御し、元の画像へのフォーカスを維持します。" + + def api_call( + self, + start_frame: torch.Tensor, + prompt: str, + negative_prompt: str, + cfg_scale: float, + aspect_ratio: str, + camera_control: CameraControl, + auth_token: Optional[str] = None, + ): + return super().api_call( + model_name="kling-v1-5", + start_frame=start_frame, + cfg_scale=cfg_scale, + mode="pro", + aspect_ratio=aspect_ratio, + duration="5", + prompt=prompt, + negative_prompt=negative_prompt, + camera_control=camera_control, + auth_token=auth_token, + ) diff --git a/ja/built-in-nodes/partner-node/video/kwai_vgi/kling-camera-control-t2v.mdx b/ja/built-in-nodes/partner-node/video/kwai_vgi/kling-camera-control-t2v.mdx new file mode 100644 index 000000000..05af6f74e --- /dev/null +++ b/ja/built-in-nodes/partner-node/video/kwai_vgi/kling-camera-control-t2v.mdx @@ -0,0 +1,106 @@ +--- +title: "Kling テキストから動画へ (カメラ制御) - ComfyUI 組み込みノード" +description: "カメラ制御機能を備えた Kling テキストから動画への生成ノード" +sidebarTitle: "Kling テキストから動画へ (カメラ制御)" +icon: "circle" +translationSourceHash: 99989aac +translationFrom: built-in-nodes/partner-node/video/kwai_vgi/kling-camera-control-t2v.mdx, zh-CN/built-in-nodes/partner-node/video/kwai_vgi/kling-camera-control-t2v.mdx +translationMismatches: + - "description" +--- + +![ComfyUI 組み込み Kling テキストから動画へ (カメラ制御) ノード](/images/built-in-nodes/api_nodes/kwai_vgi/kling-camera-control-t2v.jpg) + +Kling テキストから動画へ (カメラ制御) ノードは、プロフェッショナルなカメラ動作を伴う動画をテキストから生成します。本ノードは標準の Kling テキストから動画へノードを拡張したものであり、カメラ制御機能を追加しています。 + +## パラメータ + +### 基本パラメータ + +| パラメータ | 型 | デフォルト値 | 説明 | +| ----------------- | -------------- | ------------ | ---------------------------------------- | +| prompt | 文字列 | "" | 動画の内容を記述するテキストプロンプト | +| negative_prompt | 文字列 | "" | 動画に含めたくない要素 | +| cfg_scale | 浮動小数点数 | 7.0 | プロンプトへの従い具合を制御する値 | +| aspect_ratio | 選択項目 | "16:9" | 出力動画のアスペクト比 | +| camera_control | CAMERA_CONTROL | - | Kling カメラ制御ノードから取得したカメラ設定 | + +### 固定パラメータ + +※以下のパラメータは固定されており、変更できません: +- モデル:kling-v1-5 +- モード:pro +- 再生時間:5秒 + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ------------ | +| VIDEO | 動画 | 生成された動画 | + +## ソースコード + +[ノードソースコード(2025-05-03 更新)] + +```python + +class KlingCameraControlT2VNode(KlingTextToVideoNode): + """ + Kling Text to Video Camera Control Node. This node is a text to video node, but it supports controlling the camera. + Duration, mode, and model_name request fields are hard-coded because camera control is only supported in pro mode with the kling-v1-5 model at 5s duration as of 2025-05-02. + """ + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "prompt": model_field_to_node_input( + IO.STRING, KlingText2VideoRequest, "prompt", multiline=True + ), + "negative_prompt": model_field_to_node_input( + IO.STRING, + KlingText2VideoRequest, + "negative_prompt", + multiline=True, + ), + "cfg_scale": model_field_to_node_input( + IO.FLOAT, KlingText2VideoRequest, "cfg_scale" + ), + "aspect_ratio": model_field_to_node_input( + IO.COMBO, + KlingText2VideoRequest, + "aspect_ratio", + enum_type=AspectRatio, + ), + "camera_control": ( + "CAMERA_CONTROL", + { + "tooltip": "Can be created using the Kling Camera Controls node. Controls the camera movement and motion during the video generation.", + }, + ), + }, + "hidden": {"auth_token": "AUTH_TOKEN_COMFY_ORG"}, + } + + DESCRIPTION = "実世界の映像撮影技術を模倣したプロフェッショナルなカメラ動作を用いて、テキストを映画的な動画に変換します。ズーム、回転、パン、チルト、ファーストパーソンビューなどの仮想カメラ操作を制御しながら、元のテキスト内容への焦点を維持します。" + + def api_call( + self, + prompt: str, + negative_prompt: str, + cfg_scale: float, + aspect_ratio: str, + camera_control: Optional[CameraControl] = None, + auth_token: Optional[str] = None, + ): + return super().api_call( + model_name="kling-v1-5", + cfg_scale=cfg_scale, + mode="pro", + aspect_ratio=aspect_ratio, + duration="5", + prompt=prompt, + negative_prompt=negative_prompt, + camera_control=camera_control, + auth_token=auth_token, + ) diff --git a/ja/built-in-nodes/partner-node/video/kwai_vgi/kling-camera-controls.mdx b/ja/built-in-nodes/partner-node/video/kwai_vgi/kling-camera-controls.mdx new file mode 100644 index 000000000..6d5bd5af3 --- /dev/null +++ b/ja/built-in-nodes/partner-node/video/kwai_vgi/kling-camera-controls.mdx @@ -0,0 +1,132 @@ +--- +title: "Kling Camera Controls - ComfyUI 組み込みノードドキュメント" +description: "Kling動画生成向けのカメラ制御パラメータを提供するノード" +sidebarTitle: "Kling Camera Controls" +icon: "circle" +translationSourceHash: c7f21f9b +translationFrom: built-in-nodes/partner-node/video/kwai_vgi/kling-camera-controls.mdx, zh-CN/built-in-nodes/partner-node/video/kwai_vgi/kling-camera-controls.mdx +--- + +![ComfyUI 組み込み Kling Camera Controls ノード](/images/built-in-nodes/api_nodes/kwai_vgi/kling-camera-controls.jpg) + +Kling Camera Controls ノードは、Kling動画生成時のカメラ移動および視点変化を制御するための仮想カメラの動作パラメータを定義します。 + +## パラメータ + +| パラメータ | 型 | デフォルト値 | 説明 | +| --------------------- | ------ | ------------ | -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | +| camera_control_type | 選択 | `"simple"` | 事前定義されたカメラ運動タイプ。「simple」:カスタマイズ可能なカメラ運動;「down_back」:カメラが下降して後退;「forward_up」:カメラが前方へ移動し上向きに傾斜;「right_turn_forward」:右回転しながら前方へ移動;「left_turn_forward」:左回転しながら前方へ移動 | +| horizontal_movement | 浮動小数点数 | `0` | カメラの水平軸(x軸)方向への移動を制御。負の値は左方向、正の値は右方向を意味します | +| vertical_movement | 浮動小数点数 | `0` | カメラの垂直軸(y軸)方向への移動を制御。負の値は下方向、正の値は上方向を意味します | +| pan | 浮動小数点数 | `0.5` | カメラの垂直平面内(x軸)での回転を制御。負の値は下向き回転、正の値は上向き回転を意味します | +| tilt | 浮動小数点数 | `0` | カメラの水平平面内(y軸)での回転を制御。負の値は左向き回転、正の値は右向き回転を意味します | +| roll | 浮動小数点数 | `0` | カメラのロール量(z軸)を制御。負の値は反時計回り、正の値は時計回りを意味します | +| zoom | 浮動小数点数 | `0` | カメラの焦点距離を制御。負の値は画角を狭め、正の値は画角を広げます | + +**注意**: 効果を適用するには、少なくとも1つのカメラ制御パラメータをゼロでない値に設定する必要があります。 + +### 出力 + +| 出力 | 型 | 説明 | +| -------------- | -------------- | ---------------------------- | +| camera_control | `CAMERA_CONTROL` | カメラ設定を含む構成オブジェクト | + +**注意**: すべてのモデルおよびモードの組み合わせがカメラ制御をサポートしているわけではありません。詳細については、Kling APIドキュメントをご確認ください。 + +## ソースコード + +[ノードソースコード(2025-05-03 更新)] + +```python + +class KlingCameraControls(KlingNodeBase): + """Kling Camera Controls Node""" + + @classmethod + def INPUT_TYPES(cls): + return { + "required": { + "camera_control_type": ( + IO.COMBO, + { + "options": [ + camera_control_type.value + for camera_control_type in CameraType + ], + "default": "simple", + "tooltip": "Predefined camera movements type. simple: Customizable camera movement. down_back: Camera descends and moves backward. forward_up: Camera moves forward and tilts up. right_turn_forward: Rotate right and move forward. left_turn_forward: Rotate left and move forward.", + }, + ), + "horizontal_movement": get_camera_control_input_config( + "Controls camera's movement along horizontal axis (x-axis). Negative indicates left, positive indicates right" + ), + "vertical_movement": get_camera_control_input_config( + "Controls camera's movement along vertical axis (y-axis). Negative indicates downward, positive indicates upward." + ), + "pan": get_camera_control_input_config( + "Controls camera's rotation in vertical plane (x-axis). Negative indicates downward rotation, positive indicates upward rotation.", + default=0.5, + ), + "tilt": get_camera_control_input_config( + "Controls camera's rotation in horizontal plane (y-axis). Negative indicates left rotation, positive indicates right rotation.", + ), + "roll": get_camera_control_input_config( + "Controls camera's rolling amount (z-axis). Negative indicates counterclockwise, positive indicates clockwise.", + ), + "zoom": get_camera_control_input_config( + "Controls change in camera's focal length. Negative indicates narrower field of view, positive indicates wider field of view.", + ), + } + } + + DESCRIPTION = "Kling Camera Controls Node. Not all model and mode combinations support camera control. Please refer to the Kling API documentation for more information." + RETURN_TYPES = ("CAMERA_CONTROL",) + RETURN_NAMES = ("camera_control",) + FUNCTION = "main" + + @classmethod + def VALIDATE_INPUTS( + cls, + horizontal_movement: float, + vertical_movement: float, + pan: float, + tilt: float, + roll: float, + zoom: float, + ) -> bool | str: + if not is_valid_camera_control_configs( + [ + horizontal_movement, + vertical_movement, + pan, + tilt, + roll, + zoom, + ] + ): + return "Invalid camera control configs: at least one of the values must be non-zero" + return True + + def main( + self, + camera_control_type: str, + horizontal_movement: float, + vertical_movement: float, + pan: float, + tilt: float, + roll: float, + zoom: float, + ) -> tuple[CameraControl]: + return ( + CameraControl( + type=CameraType(camera_control_type), + config=CameraConfig( + horizontal=horizontal_movement, + vertical=vertical_movement, + pan=pan, + roll=roll, + tilt=tilt, + zoom=zoom, + ), + ), + ) \ No newline at end of file diff --git a/ja/built-in-nodes/partner-node/video/kwai_vgi/kling-image-to-video.mdx b/ja/built-in-nodes/partner-node/video/kwai_vgi/kling-image-to-video.mdx new file mode 100644 index 000000000..c35a98e1c --- /dev/null +++ b/ja/built-in-nodes/partner-node/video/kwai_vgi/kling-image-to-video.mdx @@ -0,0 +1,159 @@ +--- +title: "Kling Image to Video - ComfyUI 組み込みノード" +description: "Kling の AI 技術を用いて静止画像を動画に変換するノード" +sidebarTitle: "Kling Image to Video" +icon: "circle" +translationSourceHash: 16cdc6d8 +translationFrom: built-in-nodes/partner-node/video/kwai_vgi/kling-image-to-video.mdx, zh-CN/built-in-nodes/partner-node/video/kwai_vgi/kling-image-to-video.mdx +translationMismatches: + - "description" +--- + +![ComfyUI 組み込み Kling Image to Video ノード](/images/built-in-nodes/api_nodes/kwai_vgi/kling-image-to-video.jpg) + +Kling Image to Video ノードは、Kling の画像から動画への API を使用して、静止画像を動的な動画コンテンツに変換します。 + +## パラメーター +### 基本パラメーター +以下のすべてのパラメーターは必須です: + +| パラメーター | 型 | デフォルト値 | 説明 | +| ----------------- | ------ | ------------ | ---------------------------------------- | +| start_frame | 画像 | - | 入力元の静止画像 | +| prompt | 文字列 | "" | 動画の動作および内容を記述するテキストプロンプト | +| negative_prompt | 文字列 | "" | 動画に含めたくない要素 | +| cfg_scale | 浮動小数点数 | 7.0 | プロンプトへの従い具合を制御するパラメーター | +| model_name | 選択 | "kling-v1-5" | 使用するモデルの種類 | +| aspect_ratio | 選択 | "16:9" | 出力動画のアスペクト比 | +| duration | 選択 | "5s" | 生成される動画の再生時間 | +| mode | 選択 | "pro" | 動画生成モード | + +### 出力 + +| 出力 | 型 | 説明 | +| -------- | ------ | ------------------ | +| VIDEO | 動画 | 生成された動画 | +| video_id | 文字列 | 動画の固有識別子 | +| duration | 文字列 | 動画の実際の再生時間 | + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] + +```python + +class KlingImage2VideoNode(KlingNodeBase): + """Kling Image to Video Node""" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "start_frame": model_field_to_node_input( + IO.IMAGE, KlingImage2VideoRequest, "image" + ), + "prompt": model_field_to_node_input( + IO.STRING, KlingImage2VideoRequest, "prompt", multiline=True + ), + "negative_prompt": model_field_to_node_input( + IO.STRING, + KlingImage2VideoRequest, + "negative_prompt", + multiline=True, + ), + "model_name": model_field_to_node_input( + IO.COMBO, + KlingImage2VideoRequest, + "model_name", + enum_type=KlingVideoGenModelName, + ), + "cfg_scale": model_field_to_node_input( + IO.FLOAT, KlingImage2VideoRequest, "cfg_scale" + ), + "mode": model_field_to_node_input( + IO.COMBO, + KlingImage2VideoRequest, + "mode", + enum_type=KlingVideoGenMode, + ), + "aspect_ratio": model_field_to_node_input( + IO.COMBO, + KlingImage2VideoRequest, + "aspect_ratio", + enum_type=KlingVideoGenAspectRatio, + ), + "duration": model_field_to_node_input( + IO.COMBO, + KlingImage2VideoRequest, + "duration", + enum_type=KlingVideoGenDuration, + ), + }, + "hidden": {"auth_token": "AUTH_TOKEN_COMFY_ORG"}, + } + + RETURN_TYPES = ("VIDEO", "STRING", "STRING") + RETURN_NAMES = ("VIDEO", "video_id", "duration") + DESCRIPTION = "Kling Image to Video Node" + + def get_response(self, task_id: str, auth_token: str) -> KlingImage2VideoResponse: + return poll_until_finished( + auth_token, + ApiEndpoint( + path=f"{PATH_IMAGE_TO_VIDEO}/{task_id}", + method=HttpMethod.GET, + request_model=KlingImage2VideoRequest, + response_model=KlingImage2VideoResponse, + ), + ) + + def api_call( + self, + start_frame: torch.Tensor, + prompt: str, + negative_prompt: str, + model_name: str, + cfg_scale: float, + mode: str, + aspect_ratio: str, + duration: str, + camera_control: Optional[KlingCameraControl] = None, + end_frame: Optional[torch.Tensor] = None, + auth_token: Optional[str] = None, + ) -> tuple[VideoFromFile]: + validate_prompts(prompt, negative_prompt, MAX_PROMPT_LENGTH_I2V) + initial_operation = SynchronousOperation( + endpoint=ApiEndpoint( + path=PATH_IMAGE_TO_VIDEO, + method=HttpMethod.POST, + request_model=KlingImage2VideoRequest, + response_model=KlingImage2VideoResponse, + ), + request=KlingImage2VideoRequest( + model_name=KlingVideoGenModelName(model_name), + image=tensor_to_base64_string(start_frame), + image_tail=( + tensor_to_base64_string(end_frame) + if end_frame is not None + else None + ), + prompt=prompt, + negative_prompt=negative_prompt if negative_prompt else None, + cfg_scale=cfg_scale, + mode=KlingVideoGenMode(mode), + aspect_ratio=KlingVideoGenAspectRatio(aspect_ratio), + duration=KlingVideoGenDuration(duration), + camera_control=camera_control, + ), + auth_token=auth_token, + ) + + task_creation_response = initial_operation.execute() + validate_task_creation_response(task_creation_response) + task_id = task_creation_response.data.task_id + + final_response = self.get_response(task_id, auth_token) + validate_video_result_response(final_response) + + video = get_video_from_response(final_response) + return video_result_to_node_output(video) diff --git a/ja/built-in-nodes/partner-node/video/kwai_vgi/kling-start-end-frame-to-video.mdx b/ja/built-in-nodes/partner-node/video/kwai_vgi/kling-start-end-frame-to-video.mdx new file mode 100644 index 000000000..558a2f89e --- /dev/null +++ b/ja/built-in-nodes/partner-node/video/kwai_vgi/kling-start-end-frame-to-video.mdx @@ -0,0 +1,152 @@ +--- +title: "Kling Start-End Frame to Video - ComfyUI 組み込みノード" +description: "Kling の AI 技術を用いて、開始フレームと終了フレームの間で滑らかな動画トランジションを生成するノード" +sidebarTitle: "Kling Start-End Frame to Video" +icon: "circle" +translationSourceHash: e61c56b6 +translationFrom: built-in-nodes/partner-node/video/kwai_vgi/kling-start-end-frame-to-video.mdx, zh-CN/built-in-nodes/partner-node/video/kwai_vgi/kling-start-end-frame-to-video.mdx +translationMismatches: + - "description" +--- + +![ComfyUI 組み込み Kling Start-End Frame to Video ノード](/images/built-in-nodes/api_nodes/kwai_vgi/kling-start-end-frame-to-video.jpg) + +Kling Start-End Frame to Video ノードを使用すると、2 枚の画像の間で滑らかな動画トランジションを生成できます。このノードは、流暢な変換を実現するために、すべての中間フレームを自動的に生成します。 + +## パラメーター + +### 必須パラメーター + +| パラメーター | 型 | 説明 | +| ----------------- | ------ | ---------------------------------------- | +| start_frame | 画像 | 動画の開始画像 | +| end_frame | 画像 | 動画の終了画像 | +| prompt | 文字列 | 動画の内容およびトランジションを説明するテキスト | +| negative_prompt | 文字列 | 動画に含めたくない要素 | +| cfg_scale | 浮動小数点数 | プロンプトへの従い具合を制御する値 | +| aspect_ratio | 選択 | 出力動画のアスペクト比 | +| mode | 選択 | 動画生成設定(モード/再生時間/モデル名) | + +### mode オプション + +利用可能なモードの組み合わせ: +- standard mode / 5s duration / kling-v1 +- standard mode / 5s duration / kling-v1-5 +- pro mode / 5s duration / kling-v1 +- pro mode / 5s duration / kling-v1-5 +- pro mode / 5s duration / kling-v1-6 +- pro mode / 10s duration / kling-v1-5 +- pro mode / 10s duration / kling-v1-6 + +デフォルト値:「pro mode / 5s duration / kling-v1」 + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ------------ | +| VIDEO | 動画 | 生成された動画 | + +## 動作原理 + +このノードは、開始フレームと終了フレームを解析し、それらの間で滑らかなトランジションシーケンスを生成します。その後、画像およびパラメーターを Kling の API サーバーへ送信し、流暢な変換に必要なすべての中間フレームを生成します。 + +トランジションのスタイルおよびコンテンツはプロンプトで制御可能であり、ネガティブプロンプトを用いることで不要な要素の出現を回避できます。 + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] +```python + + +class KlingStartEndFrameNode(KlingImage2VideoNode): + """ + Kling First Last Frame Node. This node allows creation of a video from a first and last frame. It calls the normal image to video endpoint, but only allows the subset of input options that support the `image_tail` request field. + """ + + @staticmethod + def get_mode_string_mapping() -> dict[str, tuple[str, str, str]]: + """ + Returns a mapping of mode strings to their corresponding (mode, duration, model_name) tuples. + Only includes config combos that support the `image_tail` request field. + """ + return { + "standard mode / 5s duration / kling-v1": ("std", "5", "kling-v1"), + "standard mode / 5s duration / kling-v1-5": ("std", "5", "kling-v1-5"), + "pro mode / 5s duration / kling-v1": ("pro", "5", "kling-v1"), + "pro mode / 5s duration / kling-v1-5": ("pro", "5", "kling-v1-5"), + "pro mode / 5s duration / kling-v1-6": ("pro", "5", "kling-v1-6"), + "pro mode / 10s duration / kling-v1-5": ("pro", "10", "kling-v1-5"), + "pro mode / 10s duration / kling-v1-6": ("pro", "10", "kling-v1-6"), + } + + @classmethod + def INPUT_TYPES(s): + modes = list(KlingStartEndFrameNode.get_mode_string_mapping().keys()) + return { + "required": { + "start_frame": model_field_to_node_input( + IO.IMAGE, KlingImage2VideoRequest, "image" + ), + "end_frame": model_field_to_node_input( + IO.IMAGE, KlingImage2VideoRequest, "image_tail" + ), + "prompt": model_field_to_node_input( + IO.STRING, KlingImage2VideoRequest, "prompt", multiline=True + ), + "negative_prompt": model_field_to_node_input( + IO.STRING, + KlingImage2VideoRequest, + "negative_prompt", + multiline=True, + ), + "cfg_scale": model_field_to_node_input( + IO.FLOAT, KlingImage2VideoRequest, "cfg_scale" + ), + "aspect_ratio": model_field_to_node_input( + IO.COMBO, + KlingImage2VideoRequest, + "aspect_ratio", + enum_type=AspectRatio, + ), + "mode": ( + modes, + { + "default": modes[2], + "tooltip": "The configuration to use for the video generation following the format: mode / duration / model_name.", + }, + ), + }, + "hidden": {"auth_token": "AUTH_TOKEN_COMFY_ORG"}, + } + + DESCRIPTION = "Generate a video sequence that transitions between your provided start and end images. The node creates all frames in between, producing a smooth transformation from the first frame to the last." + + def parse_inputs_from_mode(self, mode: str) -> tuple[str, str, str]: + """Parses the mode input into a tuple of (model_name, duration, mode).""" + return KlingStartEndFrameNode.get_mode_string_mapping()[mode] + + def api_call( + self, + start_frame: torch.Tensor, + end_frame: torch.Tensor, + prompt: str, + negative_prompt: str, + cfg_scale: float, + aspect_ratio: str, + mode: str, + auth_token: Optional[str] = None, + ): + mode, duration, model_name = self.parse_inputs_from_mode(mode) + return super().api_call( + prompt=prompt, + negative_prompt=negative_prompt, + model_name=model_name, + start_frame=start_frame, + cfg_scale=cfg_scale, + mode=mode, + aspect_ratio=aspect_ratio, + duration=duration, + end_frame=end_frame, + auth_token=auth_token, + ) + diff --git a/ja/built-in-nodes/partner-node/video/kwai_vgi/kling-text-to-video.mdx b/ja/built-in-nodes/partner-node/video/kwai_vgi/kling-text-to-video.mdx new file mode 100644 index 000000000..8b0457ad1 --- /dev/null +++ b/ja/built-in-nodes/partner-node/video/kwai_vgi/kling-text-to-video.mdx @@ -0,0 +1,170 @@ +--- +title: "Kling Text to Video - ComfyUI 組み込みノード" +description: "KlingのAI技術を用いてテキスト記述を動画に変換するノード" +sidebarTitle: "Kling Text to Video" +icon: "circle" +translationSourceHash: a9bef4b5 +translationFrom: built-in-nodes/partner-node/video/kwai_vgi/kling-text-to-video.mdx, zh-CN/built-in-nodes/partner-node/video/kwai_vgi/kling-text-to-video.mdx +translationMismatches: + - "description" +--- + +![ComfyUI 組み込み Kling Text to Video ノード](/images/built-in-nodes/api_nodes/kwai_vgi/kling-text-to-video.jpg) + +Kling Text to Video ノードは、Kling の API サービスに接続して、テキスト記述から動画を生成します。ユーザーは、目的の動画内容を記述したテキストを入力するだけで、対応する動画コンテンツを作成できます。 + +## パラメータ + +### 必須パラメータ + +| パラメータ | 型 | デフォルト値 | 説明 | +| ---------------- | ------ | ------------------- | ---------------------------------------- | +| prompt | 文字列 | "" | 生成したい動画内容を記述するプロンプトテキスト | +| negative_prompt | 文字列 | "" | 動画に含めたくない要素を指定するプロンプト | +| cfg_scale | 浮動小数点数 | 7.0 | プロンプトへの従い具合を制御するパラメータ | +| model_name | 選択 | "kling-v2-master" | 使用する動画生成モデル | +| aspect_ratio | 選択 | AspectRatio 列挙型 | 出力動画のアスペクト比 | +| duration | 選択 | Duration 列挙型 | 生成される動画の長さ | +| mode | 選択 | Mode 列挙型 | 動画生成モード | + +### 出力 + +| 出力 | 型 | 説明 | +| ---------------- | ------ | -------------------- | +| VIDEO | 動画 | 生成された動画 | +| Kling ID | 文字列 | タスク識別子 | +| Duration (sec) | 文字列 | 動画の長さ(秒単位) | + +## 動作原理 + +このノードは、テキストプロンプトを Kling の API サーバーに送信し、サーバー側で処理された後に生成された動画を返却します。処理には、初期リクエストとタスク状態のポーリングが含まれます。完了後、ノードは動画をダウンロードして出力します。 + +ユーザーは、ネガティブプロンプトや CFG スケール、動画の各種属性などのパラメータを調整することで、生成結果を制御できます。また、システムはプロンプトの長さを検証し、API の要件を満たすことを保証します。 + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] + +```python + +class KlingTextToVideoNode(KlingNodeBase): + """Kling Text to Video Node""" + + @staticmethod + def poll_for_task_status(task_id: str, auth_token: str) -> KlingText2VideoResponse: + """Polls the Kling API endpoint until the task reaches a terminal state.""" + polling_operation = PollingOperation( + poll_endpoint=ApiEndpoint( + path=f"{PATH_TEXT_TO_VIDEO}/{task_id}", + method=HttpMethod.GET, + request_model=EmptyRequest, + response_model=KlingText2VideoResponse, + ), + completed_statuses=[ + TaskStatus.succeed.value, + ], + failed_statuses=[TaskStatus.failed.value], + status_extractor=lambda response: ( + response.data.task_status.value + if response.data and response.data.task_status + else None + ), + auth_token=auth_token, + ) + return polling_operation.execute() + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "prompt": model_field_to_node_input( + IO.STRING, KlingText2VideoRequest, "prompt", multiline=True + ), + "negative_prompt": model_field_to_node_input( + IO.STRING, KlingText2VideoRequest, "negative_prompt", multiline=True + ), + "model_name": model_field_to_node_input( + IO.COMBO, + KlingText2VideoRequest, + "model_name", + enum_type=ModelName, + default="kling-v2-master", + ), + "cfg_scale": model_field_to_node_input( + IO.FLOAT, KlingText2VideoRequest, "cfg_scale" + ), + "mode": model_field_to_node_input( + IO.COMBO, KlingText2VideoRequest, "mode", enum_type=Mode + ), + "duration": model_field_to_node_input( + IO.COMBO, KlingText2VideoRequest, "duration", enum_type=Duration + ), + "aspect_ratio": model_field_to_node_input( + IO.COMBO, + KlingText2VideoRequest, + "aspect_ratio", + enum_type=AspectRatio, + ), + }, + "hidden": {"auth_token": "AUTH_TOKEN_COMFY_ORG"}, + } + + RETURN_TYPES = ("VIDEO", "STRING", "STRING") + RETURN_NAMES = ("VIDEO", "Kling ID", "Duration (sec)") + DESCRIPTION = "Kling Text to Video Node" + + def api_call( + self, + prompt: str, + negative_prompt: str, + model_name: str, + cfg_scale: float, + mode: str, + duration: int, + aspect_ratio: str, + camera_control: Optional[CameraControl] = None, + auth_token: Optional[str] = None, + ) -> tuple[VideoFromFile, str, str]: + validate_prompts(prompt, negative_prompt, MAX_PROMPT_LENGTH_T2V) + initial_operation = SynchronousOperation( + endpoint=ApiEndpoint( + path=PATH_TEXT_TO_VIDEO, + method=HttpMethod.POST, + request_model=KlingText2VideoRequest, + response_model=KlingText2VideoResponse, + ), + request=KlingText2VideoRequest( + prompt=prompt if prompt else None, + negative_prompt=negative_prompt if negative_prompt else None, + duration=Duration(duration), + mode=Mode(mode), + model_name=ModelName(model_name), + cfg_scale=cfg_scale, + aspect_ratio=AspectRatio(aspect_ratio), + camera_control=camera_control, + ), + auth_token=auth_token, + ) + + initial_response = initial_operation.execute() + if not is_valid_initial_response(initial_response): + error_msg = f"Kling initial request failed. Code: {initial_response.code}, Message: {initial_response.message}, Data: {initial_response.data}" + logging.error(error_msg) + raise KlingApiError(error_msg) + + task_id = initial_response.data.task_id + final_response = self.poll_for_task_status(task_id, auth_token) + if not is_valid_video_response(final_response): + error_msg = ( + f"Kling task {task_id} succeeded but no video data found in response." + ) + logging.error(error_msg) + raise KlingApiError(error_msg) + + video = final_response.data.task_result.videos[0] + logging.debug("Kling task %s succeeded. Video URL: %s", task_id, video.url) + return ( + download_url_to_video_output(video.url), + str(video.id), + str(video.duration), + ) diff --git a/ja/built-in-nodes/partner-node/video/luma/luma-concepts.mdx b/ja/built-in-nodes/partner-node/video/luma/luma-concepts.mdx new file mode 100644 index 000000000..64ea3738c --- /dev/null +++ b/ja/built-in-nodes/partner-node/video/luma/luma-concepts.mdx @@ -0,0 +1,113 @@ +--- +title: "Luma Concepts - ComfyUI ネイティブノードドキュメント" +description: "Luma 画像生成に向けたコンセプトガイドを提供する補助ノード" +sidebarTitle: "Luma Concepts" +icon: "circle" +translationSourceHash: 34251163 +translationFrom: built-in-nodes/partner-node/video/luma/luma-concepts.mdx, zh-CN/built-in-nodes/partner-node/video/luma/luma-concepts.mdx +translationMismatches: + - "description" +--- + +![ComfyUI ネイティブ Luma Concepts ノード](/images/built-in-nodes/api_nodes/luma/luma-concepts.jpg) + +Luma Concepts ノードは、事前に定義されたカメラコンセプトを Luma 生成プロセスに適用できるようにし、複雑なプロンプト記述を必要とせずに、カメラアングルや視点を精密に制御できます。 + +## ノードの機能 + +このノードは、Luma 生成ノードの補助ツールとして機能し、ユーザーが事前に定義されたカメラコンセプト(例:上から見たアングルや低角度、クローズアップやロングショットといった撮影距離、プッシュインやフォローといったカメラの動き)を選択・適用できるようにします。これにより、生成結果におけるカメラ効果を直感的に制御でき、クリエイティブなワークフローが簡素化されます。 + +## パラメータ + +### 基本パラメータ + +| パラメータ | 型 | 説明 | +| ---------- | ------ | ------------------------------------------------------------ | +| concept1 | 選択 | 最初のカメラコンセプト選択肢。各種プリセットおよび「none」を含む | +| concept2 | 選択 | 2番目のカメラコンセプト選択肢。各種プリセットおよび「none」を含む | +| concept3 | 選択 | 3番目のカメラコンセプト選択肢。各種プリセットおよび「none」を含む | +| concept4 | 選択 | 4番目のカメラコンセプト選択肢。各種プリセットおよび「none」を含む | + +### オプションパラメータ + +| パラメータ | 型 | 説明 | +| ---------------- | ------------- | ------------------------------------------------------ | +| luma_concepts | LUMA_CONCEPTS | オプションのカメラコンセプト。ここで選択したコンセプトと統合されます | + +### 出力 + +| 出力 | 型 | 説明 | +| -------------- | ------------- | ---------------------------------- | +| luma_concepts | LUMA_CONCEPT | 選択されたすべてのコンセプトを含む統合オブジェクト | + +## 使用例 + + +Luma Text to Video ワークフローの例 + + + +Luma Image to Video ワークフローの例 + + +## 動作原理 + +Luma Concepts ノードは、以下のような多様な事前定義カメラコンセプトを提供しています: +- 撮影距離(クローズアップ、ミディアムショット、ロングショット) +- 視点の高さ(アイレベル、オーバーヘッド、ローアングル) +- カメラの動き(プッシュイン、フォロー、オービット) +- 特殊効果(ハンドヘルド、スタビライズド、フローティング) + +ユーザーは最大4つのコンセプトを同時に選択できます。このノードは、選択されたカメラコンセプトを含むオブジェクトを作成し、それを Luma 生成ノードへ渡します。生成処理中、Luma AI はこれらのカメラコンセプトをもとに出力の視点や構図を制御し、選択された写真表現効果を正確に反映させます。 + +複数のカメラコンセプトを組み合わせることで、詳細なプロンプト記述を書かずに高度なカメラ指示を実現できます。これは、特定のカメラアングルや構図が求められる場合に特に有効です。 + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] + +```python + +class LumaConceptsNode(ComfyNodeABC): + """ + Holds one or more Camera Concepts for use with Luma Text to Video and Luma Image to Video nodes. + """ + + RETURN_TYPES = (LumaIO.LUMA_CONCEPTS,) + RETURN_NAMES = ("luma_concepts",) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "create_concepts" + CATEGORY = "api node/image/Luma" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "concept1": (get_luma_concepts(include_none=True),), + "concept2": (get_luma_concepts(include_none=True),), + "concept3": (get_luma_concepts(include_none=True),), + "concept4": (get_luma_concepts(include_none=True),), + }, + "optional": { + "luma_concepts": ( + LumaIO.LUMA_CONCEPTS, + { + "tooltip": "Optional Camera Concepts to add to the ones chosen here." + }, + ), + }, + } + + def create_concepts( + self, + concept1: str, + concept2: str, + concept3: str, + concept4: str, + luma_concepts: LumaConceptChain = None, + ): + chain = LumaConceptChain(str_list=[concept1, concept2, concept3, concept4]) + if luma_concepts is not None: + chain = luma_concepts.clone_and_merge(chain) + return (chain,) + diff --git a/ja/built-in-nodes/partner-node/video/luma/luma-image-to-video.mdx b/ja/built-in-nodes/partner-node/video/luma/luma-image-to-video.mdx new file mode 100644 index 000000000..76ade3dd1 --- /dev/null +++ b/ja/built-in-nodes/partner-node/video/luma/luma-image-to-video.mdx @@ -0,0 +1,212 @@ +--- +title: "Luma Image to Video - ComfyUI ネイティブ API ノードドキュメント" +description: "Luma AI を使用して静止画を動画に変換するノード" +sidebarTitle: "Luma Image to Video" +icon: "circle" +translationSourceHash: 469e3619 +translationFrom: built-in-nodes/partner-node/video/luma/luma-image-to-video.mdx, zh-CN/built-in-nodes/partner-node/video/luma/luma-image-to-video.mdx +translationMismatches: + - "description" +--- + +![ComfyUI ネイティブ Luma Image to Video ノード](/images/built-in-nodes/api_nodes/luma/luma-image-to-video.jpg) + +Luma Image to Video ノードは、Luma AI の技術を活用して静止画を滑らかでダイナミックな動画に変換し、画像に命と動きを吹き込みます。 + +## ノードの機能 + +このノードは Luma AI の「画像→動画」API に接続し、入力画像からダイナミックな動画を生成します。画像の内容を理解し、元のビジュアルスタイルを維持したまま自然で一貫性のある動きを生成します。テキストプロンプトと組み合わせることで、ユーザーは動画のダイナミックな効果を正確に制御できます。 + +## パラメータ + +### 基本パラメータ + +| パラメータ | 型 | デフォルト値 | 説明 | +| ----------- | ------- | ------------ | ------------------------------------------------ | +| prompt | 文字列 | "" | 動画の動きおよびコンテンツを記述するテキストプロンプト | +| model | 選択肢 | - | 使用する動画生成モデル | +| resolution | 選択肢 | "540p" | 出力動画の解像度 | +| duration | 選択肢 | - | 動画の長さオプション | +| loop | ブール値 | False | 動画をループ再生するかどうか | +| seed | 整数 | 0 | ノード再実行時のシード値(実際の結果はシードに依存せず非決定的) | + +### オプションパラメータ + +| パラメータ | 型 | 説明 | +| --------------- | --------------- | -------------------------------------------------- | +| first_image | 画像 | 動画の最初のフレーム(`last_image` が未指定の場合は必須) | +| last_image | 画像 | 動画の最後のフレーム(`first_image` が未指定の場合は必須) | +| luma_concepts | LUMA_CONCEPTS | カメラの動きやショットスタイルを制御するためのコンセプト | + +### 要件 + +- **first_image** または **last_image** のいずれか一方は必ず指定する必要があります +- 各画像入力(`first_image` および `last_image`)には、1 枚の画像のみを指定できます + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ------------ | +| VIDEO | 動画 | 生成された動画 | + +## 使用例 + + +Luma Image to Video ワークフローチュートリアル + + +## ソースコード + +[ノードソースコード(2025-05-03 更新)] +```python + +class LumaImageToVideoGenerationNode(ComfyNodeABC): + """ + Generates videos synchronously based on prompt, input images, and output_size. + """ + + RETURN_TYPES = (IO.VIDEO,) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "api_call" + API_NODE = True + CATEGORY = "api node/video/Luma" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "Prompt for the video generation", + }, + ), + "model": ([model.value for model in LumaVideoModel],), + # "aspect_ratio": ([ratio.value for ratio in LumaAspectRatio], { + # "default": LumaAspectRatio.ratio_16_9, + # }), + "resolution": ( + [resolution.value for resolution in LumaVideoOutputResolution], + { + "default": LumaVideoOutputResolution.res_540p, + }, + ), + "duration": ([dur.value for dur in LumaVideoModelOutputDuration],), + "loop": ( + IO.BOOLEAN, + { + "default": False, + }, + ), + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 0xFFFFFFFFFFFFFFFF, + "control_after_generate": True, + "tooltip": "Seed to determine if node should re-run; actual results are nondeterministic regardless of seed.", + }, + ), + }, + "optional": { + "first_image": ( + IO.IMAGE, + {"tooltip": "First frame of generated video."}, + ), + "last_image": (IO.IMAGE, {"tooltip": "Last frame of generated video."}), + "luma_concepts": ( + LumaIO.LUMA_CONCEPTS, + { + "tooltip": "Optional Camera Concepts to dictate camera motion via the Luma Concepts node." + }, + ), + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + def api_call( + self, + prompt: str, + model: str, + resolution: str, + duration: str, + loop: bool, + seed, + first_image: torch.Tensor = None, + last_image: torch.Tensor = None, + luma_concepts: LumaConceptChain = None, + auth_token=None, + **kwargs, + ): + if first_image is None and last_image is None: + raise Exception( + "At least one of first_image and last_image requires an input." + ) + keyframes = self._convert_to_keyframes(first_image, last_image, auth_token) + duration = duration if model != LumaVideoModel.ray_1_6 else None + resolution = resolution if model != LumaVideoModel.ray_1_6 else None + + operation = SynchronousOperation( + endpoint=ApiEndpoint( + path="/proxy/luma/generations", + method=HttpMethod.POST, + request_model=LumaGenerationRequest, + response_model=LumaGeneration, + ), + request=LumaGenerationRequest( + prompt=prompt, + model=model, + aspect_ratio=LumaAspectRatio.ratio_16_9, # ignored, but still needed by the API for some reason + resolution=resolution, + duration=duration, + loop=loop, + keyframes=keyframes, + concepts=luma_concepts.create_api_model() if luma_concepts else None, + ), + auth_token=auth_token, + ) + response_api: LumaGeneration = operation.execute() + + operation = PollingOperation( + poll_endpoint=ApiEndpoint( + path=f"/proxy/luma/generations/{response_api.id}", + method=HttpMethod.GET, + request_model=EmptyRequest, + response_model=LumaGeneration, + ), + completed_statuses=[LumaState.completed], + failed_statuses=[LumaState.failed], + status_extractor=lambda x: x.state, + auth_token=auth_token, + ) + response_poll = operation.execute() + + vid_response = requests.get(response_poll.assets.video) + return (VideoFromFile(BytesIO(vid_response.content)),) + + def _convert_to_keyframes( + self, + first_image: torch.Tensor = None, + last_image: torch.Tensor = None, + auth_token=None, + ): + if first_image is None and last_image is None: + return None + frame0 = None + frame1 = None + if first_image is not None: + download_urls = upload_images_to_comfyapi( + first_image, max_images=1, auth_token=auth_token + ) + frame0 = LumaImageReference(type="image", url=download_urls[0]) + if last_image is not None: + download_urls = upload_images_to_comfyapi( + last_image, max_images=1, auth_token=auth_token + ) + frame1 = LumaImageReference(type="image", url=download_urls[0]) + return LumaKeyframes(frame0=frame0, frame1=frame1) diff --git a/ja/built-in-nodes/partner-node/video/luma/luma-text-to-video.mdx b/ja/built-in-nodes/partner-node/video/luma/luma-text-to-video.mdx new file mode 100644 index 000000000..27ccd84f9 --- /dev/null +++ b/ja/built-in-nodes/partner-node/video/luma/luma-text-to-video.mdx @@ -0,0 +1,179 @@ +--- +title: "Luma Text to Video - ComfyUI ネイティブノードドキュメント" +description: "Luma AI を使用してテキスト記述を動画に変換するノード" +sidebarTitle: "Luma Text to Video" +icon: "circle" +translationSourceHash: 1bb8f5a8 +translationFrom: built-in-nodes/partner-node/video/luma/luma-text-to-video.mdx, zh-CN/built-in-nodes/partner-node/video/luma/luma-text-to-video.mdx +translationMismatches: + - "description" +--- + +![ComfyUI ネイティブ Luma Text to Video ノード](/images/built-in-nodes/api_nodes/luma/luma-text-to-video.jpg) + +Luma Text to Video ノードは、Luma AI の動画生成技術を活用して、テキストによる説明から高品質で滑らかな動画を生成します。 + +## ノードの機能 + +このノードは Luma AI の「テキストから動画へ」API に接続し、詳細なテキストプロンプトに基づいてダイナミックな動画コンテンツを生成できるようにします。 + +## パラメーター + +### 基本パラメーター + +| パラメーター | 型 | デフォルト値 | 説明 | +| -------------- | ------- | ------------ | -------------------------------------------------------- | +| prompt | 文字列 | "" | 生成する動画の内容を記述するテキストプロンプト | +| model | 選択肢 | - | 使用する動画生成モデル | +| aspect_ratio | 選択肢 | "ratio_16_9" | 動画のアスペクト比 | +| resolution | 選択肢 | "res_540p" | 動画の解像度 | +| duration | 選択肢 | - | 動画の長さオプション | +| loop | ブール値 | False | 動画をループ再生するかどうか | +| seed | 整数 | 0 | ノードの再実行を制御するためのシード値(実際の出力はシードに依存せず非決定的) | + + +Ray 1.6 モデルを使用する場合、`duration` および `resolution` パラメーターは無効になります。 + + +### オプションパラメーター + +| パラメーター | 型 | 説明 | +| ---------------- | ---------------- | ------------------------------------------------------------ | +| luma_concepts | LUMA_CONCEPTS | Luma Concepts ノードを介してカメラモーションを制御するためのカメラコンセプト(任意) | + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ------------ | +| VIDEO | 動画 | 生成された動画 | + +## 使用例 + + +Luma Text to Video ワークフローの例 + + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] +```python + +class LumaTextToVideoGenerationNode(ComfyNodeABC): + """ + Generates videos synchronously based on prompt and output_size. + """ + + RETURN_TYPES = (IO.VIDEO,) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "api_call" + API_NODE = True + CATEGORY = "api node/video/Luma" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "Prompt for the video generation", + }, + ), + "model": ([model.value for model in LumaVideoModel],), + "aspect_ratio": ( + [ratio.value for ratio in LumaAspectRatio], + { + "default": LumaAspectRatio.ratio_16_9, + }, + ), + "resolution": ( + [resolution.value for resolution in LumaVideoOutputResolution], + { + "default": LumaVideoOutputResolution.res_540p, + }, + ), + "duration": ([dur.value for dur in LumaVideoModelOutputDuration],), + "loop": ( + IO.BOOLEAN, + { + "default": False, + }, + ), + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 0xFFFFFFFFFFFFFFFF, + "control_after_generate": True, + "tooltip": "Seed to determine if node should re-run; actual results are nondeterministic regardless of seed.", + }, + ), + }, + "optional": { + "luma_concepts": ( + LumaIO.LUMA_CONCEPTS, + { + "tooltip": "Optional Camera Concepts to dictate camera motion via the Luma Concepts node." + }, + ), + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + def api_call( + self, + prompt: str, + model: str, + aspect_ratio: str, + resolution: str, + duration: str, + loop: bool, + seed, + luma_concepts: LumaConceptChain = None, + auth_token=None, + **kwargs, + ): + duration = duration if model != LumaVideoModel.ray_1_6 else None + resolution = resolution if model != LumaVideoModel.ray_1_6 else None + + operation = SynchronousOperation( + endpoint=ApiEndpoint( + path="/proxy/luma/generations", + method=HttpMethod.POST, + request_model=LumaGenerationRequest, + response_model=LumaGeneration, + ), + request=LumaGenerationRequest( + prompt=prompt, + model=model, + resolution=resolution, + aspect_ratio=aspect_ratio, + duration=duration, + loop=loop, + concepts=luma_concepts.create_api_model() if luma_concepts else None, + ), + auth_token=auth_token, + ) + response_api: LumaGeneration = operation.execute() + + operation = PollingOperation( + poll_endpoint=ApiEndpoint( + path=f"/proxy/luma/generations/{response_api.id}", + method=HttpMethod.GET, + request_model=EmptyRequest, + response_model=LumaGeneration, + ), + completed_statuses=[LumaState.completed], + failed_statuses=[LumaState.failed], + status_extractor=lambda x: x.state, + auth_token=auth_token, + ) + response_poll = operation.execute() + + vid_response = requests.get(response_poll.assets.video) + return (VideoFromFile(BytesIO(vid_response.content)),) diff --git a/ja/built-in-nodes/partner-node/video/minimax/minimax-image-to-video.mdx b/ja/built-in-nodes/partner-node/video/minimax/minimax-image-to-video.mdx new file mode 100644 index 000000000..a9903775c --- /dev/null +++ b/ja/built-in-nodes/partner-node/video/minimax/minimax-image-to-video.mdx @@ -0,0 +1,101 @@ +--- +title: "MiniMax Image to Video - ComfyUI ネイティブノードドキュメント" +description: "MiniMax AI を使用して静止画像を動画に変換するノード" +sidebarTitle: "MiniMax Image to Video" +icon: "circle" +translationSourceHash: dd98f2fe +translationFrom: built-in-nodes/partner-node/video/minimax/minimax-image-to-video.mdx, zh-CN/built-in-nodes/partner-node/video/minimax/minimax-image-to-video.mdx +translationMismatches: + - "description" +--- + +![ComfyUI ネイティブ MiniMax Image to Video ノード](/images/built-in-nodes/api_nodes/minimax/minimax-image-to-video.jpg) + +MiniMax Image to Video ノードは、MiniMax の API を用いて、入力画像およびテキストプロンプトから動画を生成します。 + +## パラメーター + +### 必須パラメーター + +| パラメーター | 型 | デフォルト値 | 説明 | +| ------------ | ------ | ------------ | ------------------------------------------------------ | +| image | 画像 | - | 動画生成の最初のフレームとして使用される入力画像 | +| prompt_text | 文字列 | "" | 動画生成をガイドするテキストプロンプト | +| model | 選択肢 | "I2V-01" | 利用可能なモデル: "I2V-01-Director"、"I2V-01"、"I2V-01-live" | + +### オプションパラメーター + +| パラメーター | 型 | 説明 | +| ------------ | ---- | ------------------------ | +| seed | 整数 | ノイズ生成に使用される乱数シード | + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ------------ | +| VIDEO | 動画 | 生成された動画 | + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] + +```python + +class MinimaxImageToVideoNode(MinimaxTextToVideoNode): + """ + Generates videos synchronously based on an image and prompt, and optional parameters using Minimax's API. + """ + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "image": ( + IO.IMAGE, + { + "tooltip": "Image to use as first frame of video generation" + }, + ), + "prompt_text": ( + "STRING", + { + "multiline": True, + "default": "", + "tooltip": "Text prompt to guide the video generation", + }, + ), + "model": ( + [ + "I2V-01-Director", + "I2V-01", + "I2V-01-live", + ], + { + "default": "I2V-01", + "tooltip": "Model to use for video generation", + }, + ), + }, + "optional": { + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 0xFFFFFFFFFFFFFFFF, + "control_after_generate": True, + "tooltip": "The random seed used for creating the noise.", + }, + ), + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + RETURN_TYPES = ("VIDEO",) + DESCRIPTION = "Generates videos from an image and prompts using Minimax's API" + FUNCTION = "generate_video" + CATEGORY = "api node/video/Minimax" + API_NODE = True + OUTPUT_NODE = True \ No newline at end of file diff --git a/ja/built-in-nodes/partner-node/video/minimax/minimax-text-to-video.mdx b/ja/built-in-nodes/partner-node/video/minimax/minimax-text-to-video.mdx new file mode 100644 index 000000000..a1494ab43 --- /dev/null +++ b/ja/built-in-nodes/partner-node/video/minimax/minimax-text-to-video.mdx @@ -0,0 +1,180 @@ +--- +title: "MiniMax Text to Video - ComfyUI ネイティブノードドキュメント" +description: "MiniMax AI を使用してテキスト記述を動画に変換するノード" +sidebarTitle: "MiniMax Text to Video" +icon: "circle" +translationSourceHash: bc9b6126 +translationFrom: built-in-nodes/partner-node/video/minimax/minimax-text-to-video.mdx, zh-CN/built-in-nodes/partner-node/video/minimax/minimax-text-to-video.mdx +translationMismatches: + - "description" +--- + +![ComfyUI ネイティブ MiniMax Text to Video ノード](/images/built-in-nodes/api_nodes/minimax/minimax-text-to-video.jpg) + +MiniMax Text to Video ノードは、MiniMax の API に接続し、テキストプロンプトから高品質で滑らかな動画を生成します。さまざまなスタイルの短い動画クリップを作成するために、複数の動画生成モデルをサポートしています。 + +## パラメーター + +### 必須パラメーター + +| パラメーター | 型 | デフォルト値 | 説明 | +| -------------- | ------ | ------------ | ------------------------------------------------------------ | +| prompt_text | 文字列 | "" | 動画生成をガイドするテキストプロンプト | +| model | 選択 | "T2V-01" | 使用する動画生成モデル。「T2V-01」および「T2V-01-Director」から選択可能 | +| seed | 整数 | 0 | ノイズ生成のための乱数シード(デフォルト値は 0) | + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ------------ | +| VIDEO | 動画 | 生成された動画 | + +## ソースコード + +[ノードのソースコード(2025-05-03 更新)] + +```python + +class MinimaxTextToVideoNode: + """ + Generates videos synchronously based on a prompt, and optional parameters using Minimax's API. + """ + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "prompt_text": ( + "STRING", + { + "multiline": True, + "default": "", + "tooltip": "Text prompt to guide the video generation", + }, + ), + "model": ( + [ + "T2V-01", + "T2V-01-Director", + ], + { + "default": "T2V-01", + "tooltip": "Model to use for video generation", + }, + ), + }, + "optional": { + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 0xFFFFFFFFFFFFFFFF, + "control_after_generate": True, + "tooltip": "The random seed used for creating the noise.", + }, + ), + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + RETURN_TYPES = ("VIDEO",) + DESCRIPTION = "Generates videos from prompts using Minimax's API" + FUNCTION = "generate_video" + CATEGORY = "api node/video/Minimax" + API_NODE = True + OUTPUT_NODE = True + + def generate_video( + self, + prompt_text, + seed=0, + model="T2V-01", + image: torch.Tensor=None, # used for ImageToVideo + subject: torch.Tensor=None, # used for SubjectToVideo + auth_token=None, + ): + ''' + Function used between Minimax nodes - supports T2V, I2V, and S2V, based on provided arguments. + ''' + # upload image, if passed in + image_url = None + if image is not None: + image_url = upload_images_to_comfyapi(image, max_images=1, auth_token=auth_token)[0] + + # TODO: figure out how to deal with subject properly, API returns invalid params when using S2V-01 model + subject_reference = None + if subject is not None: + subject_url = upload_images_to_comfyapi(subject, max_images=1, auth_token=auth_token)[0] + subject_reference = [SubjectReferenceItem(image=subject_url)] + + + video_generate_operation = SynchronousOperation( + endpoint=ApiEndpoint( + path="/proxy/minimax/video_generation", + method=HttpMethod.POST, + request_model=MinimaxVideoGenerationRequest, + response_model=MinimaxVideoGenerationResponse, + ), + request=MinimaxVideoGenerationRequest( + model=Model(model), + prompt=prompt_text, + callback_url=None, + first_frame_image=image_url, + subject_reference=subject_reference, + prompt_optimizer=None, + ), + auth_token=auth_token, + ) + response = video_generate_operation.execute() + + task_id = response.task_id + if not task_id: + raise Exception(f"Minimax generation failed: {response.base_resp}") + + video_generate_operation = PollingOperation( + poll_endpoint=ApiEndpoint( + path="/proxy/minimax/query/video_generation", + method=HttpMethod.GET, + request_model=EmptyRequest, + response_model=MinimaxTaskResultResponse, + query_params={"task_id": task_id}, + ), + completed_statuses=["Success"], + failed_statuses=["Fail"], + status_extractor=lambda x: x.status.value, + auth_token=auth_token, + ) + task_result = video_generate_operation.execute() + + file_id = task_result.file_id + if file_id is None: + raise Exception("Request was not successful. Missing file ID.") + file_retrieve_operation = SynchronousOperation( + endpoint=ApiEndpoint( + path="/proxy/minimax/files/retrieve", + method=HttpMethod.GET, + request_model=EmptyRequest, + response_model=MinimaxFileRetrieveResponse, + query_params={"file_id": int(file_id)}, + ), + request=EmptyRequest(), + auth_token=auth_token, + ) + file_result = file_retrieve_operation.execute() + + file_url = file_result.file.download_url + if file_url is None: + raise Exception( + f"No video was found in the response. Full response: {file_result.model_dump()}" + ) + logging.info(f"Generated video URL: {file_url}") + + video_io = download_url_to_bytesio(file_url) + if video_io is None: + error_msg = f"Failed to download video from {file_url}" + logging.error(error_msg) + raise Exception(error_msg) + return (VideoFromFile(video_io),) \ No newline at end of file diff --git a/ja/built-in-nodes/partner-node/video/pika/pika-image-to-video.mdx b/ja/built-in-nodes/partner-node/video/pika/pika-image-to-video.mdx new file mode 100644 index 000000000..e2235b24e --- /dev/null +++ b/ja/built-in-nodes/partner-node/video/pika/pika-image-to-video.mdx @@ -0,0 +1,106 @@ +--- +title: "Pika 2.2 画像から動画へ - ComfyUI ネイティブノードドキュメント" +description: "Pika AI を使用して静止画を動画に変換するノード" +sidebarTitle: "Pika 2.2 画像から動画へ" +icon: "circle" +translationSourceHash: 9c4d8c57 +translationFrom: built-in-nodes/partner-node/video/pika/pika-image-to-video.mdx, zh-CN/built-in-nodes/partner-node/video/pika/pika-image-to-video.mdx +translationMismatches: + - "description" +--- + +![ComfyUI ネイティブ Pika 2.2 画像から動画へノード](/images/built-in-nodes/api_nodes/pika/pika-2-2-image-to-video.jpg) + +Pika 2.2 画像から動画へノードは、Pika の最新バージョン 2.2 API に接続し、静止画を動画に変換します。このノードは元の画像の視覚的特徴を保持しつつ、テキストプロンプトに基づいた自然な動きを追加します。 + +## パラメーター + +### 必須パラメーター + +| パラメーター | 型 | デフォルト値 | 説明 | +| ----------------- | ------- | ------------ | ---------------------------------------- | +| image | 画像 | - | 動画に変換する入力画像 | +| prompt_text | 文字列 | "" | 動画の動きおよびコンテンツを記述するテキストプロンプト | +| negative_prompt | 文字列 | "" | 動画に含めたくない要素 | +| seed | 整数 | 0 | 生成時の乱数シード | +| resolution | 選択肢 | "1080p" | 出力動画の解像度 | +| duration | 選択肢 | "5s" | 生成される動画の長さ | + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ------------ | +| VIDEO | 動画 | 生成された動画 | + +## 動作原理 + +このノードは、入力画像およびパラメーター(プロンプト、解像度、再生時間など)をマルチパートフォームデータとして Pika の API サーバーに送信します。API が処理を行い、生成された動画を返します。ユーザーはプロンプト、ネガティブプロンプト、乱数シードなどのパラメーターを調整することで、出力結果を制御できます。 + +## ソースコード + +[ノードソースコード(2025-05-05 更新)] + +```python + +class PikaImageToVideoV2_2(PikaNodeBase): + """Pika 2.2 画像から動画へノード。""" + + @classmethod + def INPUT_TYPES(cls): + return { + "required": { + "image": ( + IO.IMAGE, + {"tooltip": "動画に変換する画像"}, + ), + **cls.get_base_inputs_types(PikaBodyGenerate22I2vGenerate22I2vPost), + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + DESCRIPTION = "Pika API v2.2 に画像とプロンプトを送信し、動画を生成します。" + RETURN_TYPES = ("VIDEO",) + + def api_call( + self, + image: torch.Tensor, + prompt_text: str, + negative_prompt: str, + seed: int, + resolution: str, + duration: int, + auth_token: Optional[str] = None, + ) -> tuple[VideoFromFile]: + """Pika 2.2 画像から動画へ向けた API 呼び出し。""" + # 画像を BytesIO に変換 + image_bytes_io = tensor_to_bytesio(image) + image_bytes_io.seek(0) # ストリーム位置を先頭に戻す + + # マルチパートアップロード用のファイルデータを準備 + pika_files = {"image": ("image.png", image_bytes_io, "image/png")} + + # Pydantic モデルを使用してファイル以外のデータを準備 + pika_request_data = PikaBodyGenerate22I2vGenerate22I2vPost( + promptText=prompt_text, + negativePrompt=negative_prompt, + seed=seed, + resolution=resolution, + duration=duration, + ) + + initial_operation = SynchronousOperation( + endpoint=ApiEndpoint( + path=PATH_IMAGE_TO_VIDEO, + method=HttpMethod.POST, + request_model=PikaBodyGenerate22I2vGenerate22I2vPost, + response_model=PikaGenerateResponse, + ), + request=pika_request_data, + files=pika_files, + content_type="multipart/form-data", + auth_token=auth_token, + ) + + return self.execute_task(initial_operation, auth_token) diff --git a/ja/built-in-nodes/partner-node/video/pika/pika-scenes.mdx b/ja/built-in-nodes/partner-node/video/pika/pika-scenes.mdx new file mode 100644 index 000000000..c5a902e93 --- /dev/null +++ b/ja/built-in-nodes/partner-node/video/pika/pika-scenes.mdx @@ -0,0 +1,163 @@ +--- +title: "Pika 2.2 Scenes - ComfyUI 組み込みノードドキュメンテーション" +description: "Pika AI を使用して複数の画像から連続性のあるシーン動画を生成するノード" +sidebarTitle: "Pika 2.2 Scenes" +icon: "circle" +translationSourceHash: ee58f062 +translationFrom: built-in-nodes/partner-node/video/pika/pika-scenes.mdx, zh-CN/built-in-nodes/partner-node/video/pika/pika-scenes.mdx +translationMismatches: + - "description" +--- + +![ComfyUI 組み込み Pika 2.2 Scenes ノード](/images/built-in-nodes/api_nodes/pika/pika-2-2-scenes.jpg) + +Pika 2.2 Scenes ノードは、複数の画像をアップロードし、それらの要素を統合した高品質な動画を生成できます。このノードは Pika の 2.2 API を利用して、入力画像間の滑らかなシーン遷移を実現します。 + +## パラメーター + +### 必須パラメーター + +| パラメーター | 型 | デフォルト値 | 説明 | +| ------------------ | ------- | ----------------------------- | ---------------------------------------- | +| prompt_text | 文字列 | "" | 動画の内容およびシーンを説明するテキストプロンプト | +| negative_prompt | 文字列 | "" | 動画に含めたくない要素 | +| seed | 整数 | 0 | 生成時の乱数シード | +| ingredients_mode | 選択肢 | "creative" | 画像の組み合わせモード | +| resolution | 選択肢 | API のデフォルト値 | 出力動画の解像度 | +| duration | 選択肢 | API のデフォルト値 | 出力動画の長さ | +| aspect_ratio | 浮動小数点数 | 1.7777777777777777 (16:9) | 動画のアスペクト比(範囲:0.4~2.5) | + +### オプションパラメーター + +| パラメーター | 型 | 説明 | +| ---------------------- | ----- | -------------------- | +| image_ingredient_1 | 画像 | 最初のシーン画像 | +| image_ingredient_2 | 画像 | 2番目のシーン画像 | +| image_ingredient_3 | 画像 | 3番目のシーン画像 | +| image_ingredient_4 | 画像 | 4番目のシーン画像 | +| image_ingredient_5 | 画像 | 5番目のシーン画像 | + +### 出力 + +| 出力 | 型 | 説明 | +| ------ | ----- | ------------ | +| VIDEO | 動画 | 生成された動画 | + +## 動作原理 + +Pika 2.2 Scenes ノードは、すべての入力画像を解析し、それらの画像要素を含む動画を生成します。このノードは、画像とパラメーターを Pika の API サーバーに送信し、サーバー側で処理された後に生成された動画を返却します。 + +ユーザーはプロンプトを用いて動画のスタイルや内容を制御でき、ネガティブプロンプトを用いて不要な要素を除外できます。このノードは最大5枚の入力画像を「素材(ingredients)」として受け付け、指定された組み合わせモード、解像度、再生時間、アスペクト比に基づいて最終的な動画を生成します。 + +## ソースコード + +```python + +class PikaScenesV2_2(PikaNodeBase): + """Pika 2.2 Scenes Node.""" + + @classmethod + def INPUT_TYPES(cls): + image_ingredient_input = ( + IO.IMAGE, + {"tooltip": "Image that will be used as ingredient to create a video."}, + ) + return { + "required": { + **cls.get_base_inputs_types( + PikaBodyGenerate22C2vGenerate22PikascenesPost, + ), + "ingredients_mode": model_field_to_node_input( + IO.COMBO, + PikaBodyGenerate22C2vGenerate22PikascenesPost, + "ingredientsMode", + enum_type=IngredientsMode, + default="creative", + ), + "aspect_ratio": model_field_to_node_input( + IO.FLOAT, + PikaBodyGenerate22C2vGenerate22PikascenesPost, + "aspectRatio", + step=0.001, + min=0.4, + max=2.5, + default=1.7777777777777777, + ), + }, + "optional": { + "image_ingredient_1": image_ingredient_input, + "image_ingredient_2": image_ingredient_input, + "image_ingredient_3": image_ingredient_input, + "image_ingredient_4": image_ingredient_input, + "image_ingredient_5": image_ingredient_input, + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + DESCRIPTION = "Combine your images to create a video with the objects in them. Upload multiple images as ingredients and generate a high-quality video that incorporates all of them." + RETURN_TYPES = ("VIDEO",) + + def api_call( + self, + prompt_text: str, + negative_prompt: str, + seed: int, + resolution: str, + duration: int, + ingredients_mode: str, + aspect_ratio: float, + image_ingredient_1: Optional[torch.Tensor] = None, + image_ingredient_2: Optional[torch.Tensor] = None, + image_ingredient_3: Optional[torch.Tensor] = None, + image_ingredient_4: Optional[torch.Tensor] = None, + image_ingredient_5: Optional[torch.Tensor] = None, + auth_token: Optional[str] = None, + ) -> tuple[VideoFromFile]: + """API call for Pika Scenes 2.2.""" + all_image_bytes_io = [] + for image in [ + image_ingredient_1, + image_ingredient_2, + image_ingredient_3, + image_ingredient_4, + image_ingredient_5, + ]: + if image is not None: + image_bytes_io = tensor_to_bytesio(image) + image_bytes_io.seek(0) + all_image_bytes_io.append(image_bytes_io) + + # Prepare files data for multipart upload + pika_files = [ + ("images", (f"image_{i}.png", image_bytes_io, "image/png")) + for i, image_bytes_io in enumerate(all_image_bytes_io) + ] + + # Prepare non-file data using the Pydantic model + pika_request_data = PikaBodyGenerate22C2vGenerate22PikascenesPost( + ingredientsMode=ingredients_mode, + promptText=prompt_text, + negativePrompt=negative_prompt, + seed=seed, + resolution=resolution, + duration=duration, + aspectRatio=aspect_ratio, + ) + + initial_operation = SynchronousOperation( + endpoint=ApiEndpoint( + path=PATH_PIKASCENES, + method=HttpMethod.POST, + request_model=PikaBodyGenerate22C2vGenerate22PikascenesPost, + response_model=PikaGenerateResponse, + ), + request=pika_request_data, + files=pika_files, + content_type="multipart/form-data", + auth_token=auth_token, + ) + + return self.execute_task(initial_operation, auth_token) + diff --git a/ja/built-in-nodes/partner-node/video/pika/pika-text-to-video.mdx b/ja/built-in-nodes/partner-node/video/pika/pika-text-to-video.mdx new file mode 100644 index 000000000..454eac42f --- /dev/null +++ b/ja/built-in-nodes/partner-node/video/pika/pika-text-to-video.mdx @@ -0,0 +1,97 @@ +--- +title: "Pika 2.2 Text to Video - ComfyUI ネイティブノードドキュメント" +description: "Pika AI を使用してテキスト記述から動画を生成するノード" +sidebarTitle: "Pika 2.2 Text to Video" +icon: "circle" +translationSourceHash: 978e0979 +translationFrom: built-in-nodes/partner-node/video/pika/pika-text-to-video.mdx, zh-CN/built-in-nodes/partner-node/video/pika/pika-text-to-video.mdx +translationMismatches: + - "description" +--- + +![ComfyUI ネイティブ Pika 2.2 Text to Video ノード](/images/built-in-nodes/api_nodes/pika/pika-2-2-text-to-video.jpg) + +Pika 2.2 Text to Video ノードは、Pika の 2.2 API を用いてテキスト記述から動画を生成します。このノードは Pika のテキストから動画を生成する API に接続し、さまざまな制御パラメーターを伴ったテキストプロンプトを用いて動画を生成できます。 + +## パラメーター + +### 必須パラメーター +| パラメーター | 型 | デフォルト値 | 説明 | +| ---------------- | -------- | ------------------------ | ------------------------------------------ | +| prompt_text | 文字列 | "" | 動画の内容を記述するテキストプロンプト | +| negative_prompt | 文字列 | "" | 動画に含めたくない要素 | +| seed | 整数 | 0 | 生成時の乱数シード | +| resolution | 選択項目 | "1080p" | 出力動画の解像度 | +| duration | 選択項目 | "5s" | 生成される動画の長さ | +| aspect_ratio | 浮動小数点数 | 1.7777777777777777 | 動画のアスペクト比(範囲:0.4~2.5、ステップ:0.001) | + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ------------ | +| VIDEO | 動画 | 生成された動画 | + + +## ソースコード + +[ノードソースコード(2025-05-05 更新)] +```python + +class PikaTextToVideoNodeV2_2(PikaNodeBase): + """Pika 2.2 Text to Video Node.""" + + @classmethod + def INPUT_TYPES(cls): + return { + "required": { + **cls.get_base_inputs_types(PikaBodyGenerate22T2vGenerate22T2vPost), + "aspect_ratio": model_field_to_node_input( + IO.FLOAT, + PikaBodyGenerate22T2vGenerate22T2vPost, + "aspectRatio", + step=0.001, + min=0.4, + max=2.5, + default=1.7777777777777777, + ), + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + RETURN_TYPES = ("VIDEO",) + DESCRIPTION = "Sends a text prompt to the Pika API v2.2 to generate a video." + + def api_call( + self, + prompt_text: str, + negative_prompt: str, + seed: int, + resolution: str, + duration: int, + aspect_ratio: float, + auth_token: Optional[str] = None, + ) -> tuple[VideoFromFile]: + """API call for Pika 2.2 Text to Video.""" + initial_operation = SynchronousOperation( + endpoint=ApiEndpoint( + path=PATH_TEXT_TO_VIDEO, + method=HttpMethod.POST, + request_model=PikaBodyGenerate22T2vGenerate22T2vPost, + response_model=PikaGenerateResponse, + ), + request=PikaBodyGenerate22T2vGenerate22T2vPost( + promptText=prompt_text, + negativePrompt=negative_prompt, + seed=seed, + resolution=resolution, + duration=duration, + aspectRatio=aspect_ratio, + ), + auth_token=auth_token, + content_type="application/x-www-form-urlencoded", + ) + + return self.execute_task(initial_operation, auth_token) + diff --git a/ja/built-in-nodes/partner-node/video/pixverse/pixverse-image-to-video.mdx b/ja/built-in-nodes/partner-node/video/pixverse/pixverse-image-to-video.mdx new file mode 100644 index 000000000..576d04fcd --- /dev/null +++ b/ja/built-in-nodes/partner-node/video/pixverse/pixverse-image-to-video.mdx @@ -0,0 +1,79 @@ +--- +title: "PixVerse 画像から動画へ - ComfyUI ネイティブノードドキュメント" +description: "PixVerse の AI を使用して静止画を動画に変換するノード" +sidebarTitle: "PixVerse 画像から動画へ" +icon: "circle" +translationSourceHash: 546cd49c +translationFrom: built-in-nodes/partner-node/video/pixverse/pixverse-image-to-video.mdx, zh-CN/built-in-nodes/partner-node/video/pixverse/pixverse-image-to-video.mdx +--- + +![ComfyUI ネイティブ PixVerse 画像から動画へノード](/images/built-in-nodes/api_nodes/pixverse/pixverse-image-to-video.jpg) + +PixVerse 画像から動画へノードは、PixVerse の API を活用して静止画を動的な動画に変換します。元の画像の視覚的特徴を保持しつつ、テキストプロンプトに基づいた自然な動きを付与します。 + +## パラメータ + +### 必須パラメータ + +| パラメータ | 型 | デフォルト値 | 説明 | +| ----------------- | -------- | ------------ | -------------------------------------- | +| image | 画像 | - | 動画に変換する入力画像 | +| prompt | 文字列 | "" | 動画の動きやコンテンツを記述するテキストプロンプト | +| negative_prompt | 文字列 | "" | 動画に含めたくない要素 | +| seed | 整数 | -1 | 乱数シード(-1 の場合、ランダム) | +| quality | 選択項目 | "high" | 出力動画の品質レベル | +| aspect_ratio | 選択項目 | "r16_9" | 出力動画のアスペクト比 | +| duration | 選択項目 | "seconds_4" | 生成される動画の長さ | +| motion_mode | 選択項目 | "standard" | 動画の動きスタイル | + +### オプションパラメータ + +| パラメータ | 型 | デフォルト値 | 説明 | +| ------------------- | ----------------- | ------------ | ------------------------ | +| pixverse_template | PIXVERSE_TEMPLATE | None | オプションの PixVerse テンプレート | + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | ------------ | +| VIDEO | 動画 | 生成された動画 | + +## ソースコード + +[ノードソースコード(2025-05-05 更新)] + +```python +class PixverseImageToVideoNode(ComfyNodeABC): + """ + Pixverse Image to Video + + Generates videos from an image and prompts. + """ + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "image": ("IMAGE",), + "prompt": ("STRING", {"multiline": True, "default": ""}), + "negative_prompt": ("STRING", {"multiline": True, "default": ""}), + "seed": ("INT", {"default": -1, "min": -1, "max": 0xffffffffffffffff}), + "quality": (list(PixverseQuality.__members__.keys()), {"default": "high"}), + "aspect_ratio": (list(PixverseAspectRatio.__members__.keys()), {"default": "r16_9"}), + "duration": (list(PixverseDuration.__members__.keys()), {"default": "seconds_4"}), + "motion_mode": (list(PixverseMotionMode.__members__.keys()), {"default": "standard"}), + }, + "optional": { + "pixverse_template": ("PIXVERSE_TEMPLATE",), + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + RETURN_TYPES = ("VIDEO",) + DESCRIPTION = "Generates videos from an image and prompts using Pixverse's API" + FUNCTION = "generate_video" + CATEGORY = "api node/video/Pixverse" + API_NODE = True + OUTPUT_NODE = True \ No newline at end of file diff --git a/ja/built-in-nodes/partner-node/video/pixverse/pixverse-template.mdx b/ja/built-in-nodes/partner-node/video/pixverse/pixverse-template.mdx new file mode 100644 index 000000000..64dac33bb --- /dev/null +++ b/ja/built-in-nodes/partner-node/video/pixverse/pixverse-template.mdx @@ -0,0 +1,58 @@ +--- +title: "PixVerse Template - ComfyUI ネイティブノードドキュメント" +description: "PixVerse 動画生成向けに事前設定されたテンプレートを提供する補助ノード" +sidebarTitle: "PixVerse Template" +icon: "circle" +translationSourceHash: 0478d427 +translationFrom: built-in-nodes/partner-node/video/pixverse/pixverse-template.mdx, zh-CN/built-in-nodes/partner-node/video/pixverse/pixverse-template.mdx +--- + +![ComfyUI ネイティブ PixVerse Template ノード](/images/built-in-nodes/api_nodes/pixverse/pixverse-template.jpg) + +PixVerse Template ノードは、あらかじめ定義された動画生成テンプレートから選択することで、PixVerse 動画生成ノードの出力スタイルおよびエフェクトを制御できます。 +この補助ノードは PixVerse の動画生成ノードと接続可能であり、ユーザーが複雑なパラメーターの組み合わせを手動で調整することなく、素早く事前設定済みの動画スタイルを適用できるようになります。 + +## パラメーター + +### 必須パラメーター + +| パラメーター | 型 | 説明 | +| ----------- | ------ | ---------------------------------------- | +| template | 選択 | 利用可能な予め設定された動画テンプレート一覧からテンプレートを選択 | + +### 出力 + +| 出力 | 型 | 説明 | +| ----------------- | --------------------- | ----------------------------------------- | +| pixverse_template | PixverseIO.TEMPLATE | 選択されたテンプレートの ID を含む設定オブジェクト | + +## ソースコード + +[ノードソースコード(2025-05-05 更新)] + +```python + +class PixverseTemplateNode: + """ + Select template for Pixverse Video generation. + """ + + RETURN_TYPES = (PixverseIO.TEMPLATE,) + RETURN_NAMES = ("pixverse_template",) + FUNCTION = "create_template" + CATEGORY = "api node/video/Pixverse" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "template": (list(pixverse_templates.keys()), ), + } + } + + def create_template(self, template: str): + template_id = pixverse_templates.get(template, None) + if template_id is None: + raise Exception(f"Template '{template}' is not recognized.") + # just return the integer + return (template_id,) diff --git a/ja/built-in-nodes/partner-node/video/pixverse/pixverse-text-to-video.mdx b/ja/built-in-nodes/partner-node/video/pixverse/pixverse-text-to-video.mdx new file mode 100644 index 000000000..42719588b --- /dev/null +++ b/ja/built-in-nodes/partner-node/video/pixverse/pixverse-text-to-video.mdx @@ -0,0 +1,180 @@ +--- +title: "PixVerse テキストから動画へ - ComfyUI 組み込みノードのドキュメント" +description: "PixVerse の AI 技術を用いて、テキストによる説明を動画に変換するノード" +sidebarTitle: "PixVerse テキストから動画へ" +icon: "circle" +translationSourceHash: 9b4e1ca7 +translationFrom: built-in-nodes/partner-node/video/pixverse/pixverse-text-to-video.mdx, zh-CN/built-in-nodes/partner-node/video/pixverse/pixverse-text-to-video.mdx +translationMismatches: + - "description" +--- + +![ComfyUI 組み込み PixVerse テキストから動画へノード](/images/built-in-nodes/api_nodes/pixverse/pixverse-text-to-video.jpg) + +PixVerse テキストから動画へノードは、PixVerse のテキストから動画への API に接続し、ユーザーがテキストによる説明から高品質な動画を生成できるようにします。ユーザーは、動画の品質、再生時間、モーションモードなどの各種パラメーターを調整することで、創作ニーズに応じたカスタマイズが可能です。 + +## パラメーター + +### 必須パラメーター + +| パラメーター | 型 | デフォルト値 | 説明 | +| ----------------- | ------- | ------------------------ | -------------------------------------- | +| prompt | 文字列 | "" | 動画の内容を記述するテキストプロンプト | +| aspect_ratio | 選択肢 | - | 出力動画のアスペクト比 | +| quality | 選択肢 | PixverseQuality.res_540p | 動画の品質レベル | +| duration_seconds | 選択肢 | - | 動画の再生時間 | +| motion_mode | 選択肢 | - | 動画のモーションモード | +| seed | 整数 | 0 | 生成結果の一貫性を保つための乱数シード | + +### オプションパラメーター + +| パラメーター | 型 | デフォルト値 | 説明 | +| ------------------- | ------------------- | ---------- | ------------------------------------- | +| negative_prompt | 文字列 | "" | 動画に含めたくない要素を指定するテキスト | +| pixverse_template | PIXVERSE_TEMPLATE | None | スタイル設定に使用するオプションのテンプレート(PixVerse テンプレートノードで作成) | + +### 制限事項 + +- 1080p 品質では、**normal** モーションモードと **5秒** の再生時間のみがサポートされます。 +- 5秒以外の再生時間では、**normal** モーションモードのみがサポートされます。 + +### 出力 + +| 出力 | 型 | 説明 | +| ------ | ----- | ---------------- | +| VIDEO | 動画 | 生成された動画 | + + +## ソースコード + +[ノードのソースコード(2025年5月5日更新)] + +```python + +class PixverseTextToVideoNode(ComfyNodeABC): + """ + Generates videos synchronously based on prompt and output_size. + """ + + RETURN_TYPES = (IO.VIDEO,) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "api_call" + API_NODE = True + CATEGORY = "api node/video/Pixverse" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "Prompt for the video generation", + }, + ), + "aspect_ratio": ( + [ratio.value for ratio in PixverseAspectRatio], + ), + "quality": ( + [resolution.value for resolution in PixverseQuality], + { + "default": PixverseQuality.res_540p, + }, + ), + "duration_seconds": ([dur.value for dur in PixverseDuration],), + "motion_mode": ([mode.value for mode in PixverseMotionMode],), + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 2147483647, + "control_after_generate": True, + "tooltip": "Seed for video generation.", + }, + ), + }, + "optional": { + "negative_prompt": ( + IO.STRING, + { + "default": "", + "forceInput": True, + "tooltip": "An optional text description of undesired elements on an image.", + }, + ), + "pixverse_template": ( + PixverseIO.TEMPLATE, + { + "tooltip": "An optional template to influence style of generation, created by the Pixverse Template node." + } + ) + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + def api_call( + self, + prompt: str, + aspect_ratio: str, + quality: str, + duration_seconds: int, + motion_mode: str, + seed, + negative_prompt: str=None, + pixverse_template: int=None, + auth_token=None, + **kwargs, + ): + # 1080p is limited to 5 seconds duration + # only normal motion_mode supported for 1080p or for non-5 second duration + if quality == PixverseQuality.res_1080p: + motion_mode = PixverseMotionMode.normal + duration_seconds = PixverseDuration.dur_5 + elif duration_seconds != PixverseDuration.dur_5: + motion_mode = PixverseMotionMode.normal + + operation = SynchronousOperation( + endpoint=ApiEndpoint( + path="/proxy/pixverse/video/text/generate", + method=HttpMethod.POST, + request_model=PixverseTextVideoRequest, + response_model=PixverseVideoResponse, + ), + request=PixverseTextVideoRequest( + prompt=prompt, + aspect_ratio=aspect_ratio, + quality=quality, + duration=duration_seconds, + motion_mode=motion_mode, + negative_prompt=negative_prompt if negative_prompt else None, + template_id=pixverse_template, + seed=seed, + ), + auth_token=auth_token, + ) + response_api = operation.execute() + + if response_api.Resp is None: + raise Exception(f"Pixverse request failed: '{response_api.ErrMsg}'") + + operation = PollingOperation( + poll_endpoint=ApiEndpoint( + path=f"/proxy/pixverse/video/result/{response_api.Resp.video_id}", + method=HttpMethod.GET, + request_model=EmptyRequest, + response_model=PixverseGenerationStatusResponse, + ), + completed_statuses=[PixverseStatus.successful], + failed_statuses=[PixverseStatus.contents_moderation, PixverseStatus.failed, PixverseStatus.deleted], + status_extractor=lambda x: x.Resp.status, + auth_token=auth_token, + ) + response_poll = operation.execute() + + vid_response = requests.get(response_poll.Resp.url) + return (VideoFromFile(BytesIO(vid_response.content)),) diff --git a/ja/built-in-nodes/partner-node/video/pixverse/pixverse-transition-video.mdx b/ja/built-in-nodes/partner-node/video/pixverse/pixverse-transition-video.mdx new file mode 100644 index 000000000..e1ef0df27 --- /dev/null +++ b/ja/built-in-nodes/partner-node/video/pixverse/pixverse-transition-video.mdx @@ -0,0 +1,186 @@ +--- +title: "PixVerse Transition Video - ComfyUI ネイティブノードドキュメント" +description: "PixVerse の AI を使用して、開始フレームと終了フレーム間のスムーズなトランジション動画を作成します" +sidebarTitle: "PixVerse Transition Video" +icon: "circle" +translationSourceHash: a8e37af4 +translationFrom: built-in-nodes/partner-node/video/pixverse/pixverse-transition-video.mdx, zh-CN/built-in-nodes/partner-node/video/pixverse/pixverse-transition-video.mdx +translationMismatches: + - "description" +--- + +![ComfyUI ネイティブ PixVerse Transition Video ノード](/images/built-in-nodes/api_nodes/pixverse/pixverse-transition-video.jpg) + +PixVerse Transition Video ノードは、PixVerse のトランジション動画生成 API に接続し、指定した開始画像と終了画像の間に滑らかな動画トランジションを生成します。このノードはすべての中間フレームを自動的に生成し、モーフィング効果、シーン切り替え、オブジェクトの変化などに最適な流暢な変形を実現します。 + +## パラメーター + +### 必須パラメーター + +| パラメーター | 型 | デフォルト | 説明 | +| ------------------ | ------ | ----------------------------- | ------------------------------------ | +| first_frame | 画像 | - | 動画の開始フレーム画像 | +| last_frame | 画像 | - | 動画の終了フレーム画像 | +| prompt | 文字列 | "" | 動画およびトランジションの内容を記述するテキストプロンプト | +| quality | 選択肢 | "PixverseQuality.res_540p" | 出力動画の品質 | +| duration_seconds | 選択肢 | - | 生成される動画の再生時間(秒) | +| motion_mode | 選択肢 | - | 動画のモーションスタイル | +| seed | 整数 | 0 | 乱数シード(範囲:0–2147483647) | + +### オプションパラメーター + +| パラメーター | 型 | デフォルト | 説明 | +| ------------------- | ----------------- | ---------- | ------------------------------------ | +| negative_prompt | 文字列 | "" | 動画に含めたくない要素を指定 | +| pixverse_template | PIXVERSE_TEMPLATE | None | 生成スタイルに影響を与えるオプションのテンプレート | + +### パラメーター制約 + +- `quality` を `1080p` に設定した場合、`motion_mode` は強制的に `normal` に、`duration_seconds` は強制的に `5` 秒に設定されます。 +- `duration_seconds` が `5` 秒でない場合、`motion_mode` は強制的に `normal` に設定されます。 + +### 出力 + +| 出力 | 型 | 説明 | +| ----- | ---- | -------------- | +| VIDEO | 動画 | 生成された動画 | + +## ソースコード + +```python + +class PixverseTransitionVideoNode(ComfyNodeABC): + """ + Generates videos synchronously based on prompt and output_size. + """ + + RETURN_TYPES = (IO.VIDEO,) + DESCRIPTION = cleandoc(__doc__ or "") # Handle potential None value + FUNCTION = "api_call" + API_NODE = True + CATEGORY = "api node/video/Pixverse" + + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "first_frame": ( + IO.IMAGE, + ), + "last_frame": ( + IO.IMAGE, + ), + "prompt": ( + IO.STRING, + { + "multiline": True, + "default": "", + "tooltip": "Prompt for the video generation", + }, + ), + "quality": ( + [resolution.value for resolution in PixverseQuality], + { + "default": PixverseQuality.res_540p, + }, + ), + "duration_seconds": ([dur.value for dur in PixverseDuration],), + "motion_mode": ([mode.value for mode in PixverseMotionMode],), + "seed": ( + IO.INT, + { + "default": 0, + "min": 0, + "max": 2147483647, + "control_after_generate": True, + "tooltip": "Seed for video generation.", + }, + ), + }, + "optional": { + "negative_prompt": ( + IO.STRING, + { + "default": "", + "forceInput": True, + "tooltip": "An optional text description of undesired elements on an image.", + }, + ), + "pixverse_template": ( + PixverseIO.TEMPLATE, + { + "tooltip": "An optional template to influence style of generation, created by the Pixverse Template node." + } + ) + }, + "hidden": { + "auth_token": "AUTH_TOKEN_COMFY_ORG", + }, + } + + def api_call( + self, + first_frame: torch.Tensor, + last_frame: torch.Tensor, + prompt: str, + quality: str, + duration_seconds: int, + motion_mode: str, + seed, + negative_prompt: str=None, + pixverse_template: int=None, + auth_token=None, + **kwargs, + ): + first_frame_id = upload_image_to_pixverse(first_frame, auth_token=auth_token) + last_frame_id = upload_image_to_pixverse(last_frame, auth_token=auth_token) + + # 1080p is limited to 5 seconds duration + # only normal motion_mode supported for 1080p or for non-5 second duration + if quality == PixverseQuality.res_1080p: + motion_mode = PixverseMotionMode.normal + duration_seconds = PixverseDuration.dur_5 + elif duration_seconds != PixverseDuration.dur_5: + motion_mode = PixverseMotionMode.normal + + operation = SynchronousOperation( + endpoint=ApiEndpoint( + path="/proxy/pixverse/video/transition/generate", + method=HttpMethod.POST, + request_model=PixverseTransitionVideoRequest, + response_model=PixverseVideoResponse, + ), + request=PixverseTransitionVideoRequest( + first_frame_img=first_frame_id, + last_frame_img=last_frame_id, + prompt=prompt, + quality=quality, + duration=duration_seconds, + motion_mode=motion_mode, + negative_prompt=negative_prompt if negative_prompt else None, + template_id=pixverse_template, + seed=seed, + ), + auth_token=auth_token, + ) + response_api = operation.execute() + + if response_api.Resp is None: + raise Exception(f"Pixverse request failed: '{response_api.ErrMsg}'") + + operation = PollingOperation( + poll_endpoint=ApiEndpoint( + path=f"/proxy/pixverse/video/result/{response_api.Resp.video_id}", + method=HttpMethod.GET, + request_model=EmptyRequest, + response_model=PixverseGenerationStatusResponse, + ), + completed_statuses=[PixverseStatus.successful], + failed_statuses=[PixverseStatus.contents_moderation, PixverseStatus.failed, PixverseStatus.deleted], + status_extractor=lambda x: x.Resp.status, + auth_token=auth_token, + ) + response_poll = operation.execute() + + vid_response = requests.get(response_poll.Resp.url) + return (VideoFromFile(BytesIO(vid_response.content)),) \ No newline at end of file diff --git a/ja/built-in-nodes/sampling/ksampler.mdx b/ja/built-in-nodes/sampling/ksampler.mdx new file mode 100644 index 000000000..d16b5a8ac --- /dev/null +++ b/ja/built-in-nodes/sampling/ksampler.mdx @@ -0,0 +1,102 @@ +--- +title: "Ksampler - ComfyUI 組み込みノードのドキュメント" +description: "Ksampler ノードは、ComfyUI でよく使われるサンプリングノードです。" +sidebarTitle: "Ksampler" +icon: "circle" +translationSourceHash: 60a1c6f5 +translationFrom: built-in-nodes/sampling/ksampler.mdx, zh-CN/built-in-nodes/sampling/ksampler.mdx +translationMismatches: + - "description" +--- + +![Ksampler](/images/built-in-nodes/sampling/ksampler.jpg) + +KSampler ノードは、潜在画像(latent image)に対して複数ステップのデノイズサンプリングを実行します。このノードは、正の条件(プロンプト)と負の条件(プロンプト)を組み合わせ、指定されたサンプリングアルゴリズムおよびスケジューラを用いて高品質な潜在画像を生成します。テキストから画像を生成する(text-to-image)ワークフローや、画像から画像を生成する(image-to-image)ワークフローなど、AI による画像生成の各種処理で広く利用されています。 + +## パラメータの説明 + +### 入力パラメータ +| パラメータ | 型 | 必須 | デフォルト値 | 説明 | +| ------------ | ------------ | ------ | ------------ | ----------------------------------------------------------------------------------------------------------- | +| model | MODEL | はい | なし | デノイズに使用するモデル(例:Stable Diffusion モデル) | +| seed | INT | はい | 0 | 再現可能な結果を保証するための乱数シード | +| steps | INT | はい | 20 | デノイズステップ数 — ステップ数が多いほど細部が精巧になりますが、生成速度は遅くなります | +| cfg | FLOAT | はい | 8.0 | Classifier-Free Guidance(CFG)スケール — 数値が高いほどプロンプトへの適合度が向上しますが、高すぎると画質に悪影響が出ます | +| sampler_name | 列挙型(Enum) | はい | なし | サンプリングアルゴリズムの名前。生成速度、スタイル、画質に影響を与えます | +| scheduler | 列挙型(Enum) | はい | なし | ノイズ除去プロセスを制御するスケジューラ | +| positive | CONDITIONING | はい | なし | 生成画像に含めたい内容を記述する正の条件(プロンプト) | +| negative | CONDITIONING | はい | なし | 生成画像から除外したい内容を記述する負の条件(プロンプト) | +| latent_image | LATENT | はい | なし | デノイズ対象の潜在画像。通常はノイズまたは前段の処理出力です | +| denoise | FLOAT | はい | 1.0 | デノイズ強度 — 1.0 では完全なデノイズが行われ、値を下げると元の構造が保持され、画像から画像への変換(image-to-image)に適しています | + +### 出力パラメータ +| 出力名 | 型 | 説明 | +| -------- | ------ | ------------------------------------------------- | +| samples | LATENT | デノイズ済みの潜在画像。最終的な画像へデコードできます。 | + +## 使用例 + + +Stable diffusion 1.5 のテキストから画像を生成するワークフローの例 + + +Stable diffusion 1.5 の画像から画像を生成するワークフローの例 + + +## ソースコード + +[2025年5月15日更新] + +```Python + +def common_ksampler(model, seed, steps, cfg, sampler_name, scheduler, positive, negative, latent, denoise=1.0, disable_noise=False, start_step=None, last_step=None, force_full_denoise=False): + latent_image = latent["samples"] + latent_image = comfy.sample.fix_empty_latent_channels(model, latent_image) + + if disable_noise: + noise = torch.zeros(latent_image.size(), dtype=latent_image.dtype, layout=latent_image.layout, device="cpu") + else: + batch_inds = latent["batch_index"] if "batch_index" in latent else None + noise = comfy.sample.prepare_noise(latent_image, seed, batch_inds) + + noise_mask = None + if "noise_mask" in latent: + noise_mask = latent["noise_mask"] + + callback = latent_preview.prepare_callback(model, steps) + disable_pbar = not comfy.utils.PROGRESS_BAR_ENABLED + samples = comfy.sample.sample(model, noise, steps, cfg, sampler_name, scheduler, positive, negative, latent_image, + denoise=denoise, disable_noise=disable_noise, start_step=start_step, last_step=last_step, + force_full_denoise=force_full_denoise, noise_mask=noise_mask, callback=callback, disable_pbar=disable_pbar, seed=seed) + out = latent.copy() + out["samples"] = samples + return (out, ) + + +class KSampler: + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "model": ("MODEL", {"tooltip": "The model used for denoising the input latent."}), + "seed": ("INT", {"default": 0, "min": 0, "max": 0xffffffffffffffff, "control_after_generate": True, "tooltip": "The random seed used for creating the noise."}), + "steps": ("INT", {"default": 20, "min": 1, "max": 10000, "tooltip": "The number of steps used in the denoising process."}), + "cfg": ("FLOAT", {"default": 8.0, "min": 0.0, "max": 100.0, "step":0.1, "round": 0.01, "tooltip": "The Classifier-Free Guidance scale balances creativity and adherence to the prompt. Higher values result in images more closely matching the prompt however too high values will negatively impact quality."}), + "sampler_name": (comfy.samplers.KSampler.SAMPLERS, {"tooltip": "The algorithm used when sampling, this can affect the quality, speed, and style of the generated output."}), + "scheduler": (comfy.samplers.KSampler.SCHEDULERS, {"tooltip": "The scheduler controls how noise is gradually removed to form the image."}), + "positive": ("CONDITIONING", {"tooltip": "The conditioning describing the attributes you want to include in the image."}), + "negative": ("CONDITIONING", {"tooltip": "The conditioning describing the attributes you want to exclude from the image."}), + "latent_image": ("LATENT", {"tooltip": "The latent image to denoise."}), + "denoise": ("FLOAT", {"default": 1.0, "min": 0.0, "max": 1.0, "step": 0.01, "tooltip": "The amount of denoising applied, lower values will maintain the structure of the initial image allowing for image to image sampling."}), + } + } + + RETURN_TYPES = ("LATENT",) + OUTPUT_TOOLTIPS = ("The denoised latent.",) + FUNCTION = "sample" + + CATEGORY = "sampling" + DESCRIPTION = "Uses the provided model, positive and negative conditioning to denoise the latent image." + + def sample(self, model, seed, steps, cfg, sampler_name, scheduler, positive, negative, latent_image, denoise=1.0): + return common_ksampler(model, seed, steps, cfg, sampler_name, scheduler, positive, negative, latent_image, denoise=denoise) diff --git a/ja/built-in-nodes/unCLIPCheckpointLoader.mdx b/ja/built-in-nodes/unCLIPCheckpointLoader.mdx new file mode 100644 index 000000000..b223ebaf0 --- /dev/null +++ b/ja/built-in-nodes/unCLIPCheckpointLoader.mdx @@ -0,0 +1,27 @@ +--- +title: "unCLIPCheckpointLoader - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における unCLIPCheckpointLoader ノードの完全なドキュメントです。入力、出力、パラメータおよび使用方法について学びましょう。" +sidebarTitle: "unCLIPCheckpointLoader" +icon: "circle" +mode: wide +translationSourceHash: e716313c +translationFrom: built-in-nodes/unCLIPCheckpointLoader.mdx, zh-CN/built-in-nodes/unCLIPCheckpointLoader.mdx +--- +このノードは、`ComfyUI/models/checkpoints` フォルダ内に配置されたモデルを検出し、さらに `extra_model_paths.yaml` ファイルで設定された追加パス上のモデルも読み込みます。場合によっては、対応するフォルダ内のモデルファイルを正しく読み込むために、**ComfyUI インターフェースを更新する**必要があります。 + +`unCLIPCheckpointLoader` ノードは、unCLIP モデル専用に設計されたチェックポイントを読み込むことを目的としています。指定されたチェックポイントから、モデル本体、CLIP 視覚モジュール(CLIP vision module)、および変分自己符号化器(VAE)を取得・初期化する機能を提供し、その後の処理や解析に向けたセットアップ手順を簡素化します。 + +## 入力 + +| フィールド | Comfy dtype | 説明 | +|----------------|-------------------|------------------------------------------------------------------------------------------| +| `ckpt_name` | `COMBO[STRING]` | 読み込むチェックポイントの名前を指定します。事前に定義されたディレクトリから適切なチェックポイントファイルを特定・取得し、モデルおよび設定の初期化を決定します。 | + +## 出力 + +| フィールド | Comfy dtype | 説明 | Python dtype | +|------------------|---------------|----------------------------------------------------------------------|---------------------| +| `model` | `MODEL` | チェックポイントから読み込まれた主モデルを表します。 | `torch.nn.Module` | +| `clip` | `CLIP` | 利用可能な場合、チェックポイントから読み込まれた CLIP モジュールを表します。 | `torch.nn.Module` | +| `vae` | `VAE` | 利用可能な場合、チェックポイントから読み込まれた VAE モジュールを表します。 | `torch.nn.Module` | +| `clip_vision` | `CLIP_VISION` | 利用可能な場合、チェックポイントから読み込まれた CLIP 視覚モジュールを表します。 | `torch.nn.Module` | \ No newline at end of file diff --git a/ja/built-in-nodes/unCLIPConditioning.mdx b/ja/built-in-nodes/unCLIPConditioning.mdx new file mode 100644 index 000000000..e720b7282 --- /dev/null +++ b/ja/built-in-nodes/unCLIPConditioning.mdx @@ -0,0 +1,26 @@ +--- +title: "unCLIPConditioning - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における unCLIPConditioning ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "unCLIPConditioning" +icon: "circle" +mode: wide +translationSourceHash: 77405e61 +translationFrom: built-in-nodes/unCLIPConditioning.mdx, zh-CN/built-in-nodes/unCLIPConditioning.mdx +--- + +このノードは、CLIP ビジョン出力を条件付けプロセスに統合するように設計されており、指定された強度(strength)およびノイズ増幅(noise augmentation)パラメーターに基づいて、これらの出力の影響を調整します。これにより、視覚的な文脈が条件付けに追加され、画像生成プロセスが向上します。 + +## 入力 + +| パラメーター | Comfy データ型 | 説明 | +|--------------|----------------|------| +| `conditioning` | `CONDITIONING` | CLIP ビジョン出力を追加するための基本的な条件付けデータで、その後の変更の基盤となります。 | +| `clip_vision_output` | `CLIP_VISION_OUTPUT` | CLIP ビジョンモデルからの出力で、条件付けに統合される視覚的な文脈を提供します。 | +| `strength` | `FLOAT` | CLIP ビジョン出力が条件付けに与える影響の強さを決定します。 | +| `noise_augmentation` | `FLOAT` | CLIP ビジョン出力を条件付けに統合する前に適用するノイズ増幅のレベルを指定します。 | + +## 出力 + +| パラメーター | Comfy データ型 | 説明 | +|--------------|----------------|------| +| `conditioning` | `CONDITIONING` | 強化された条件付けデータで、強度およびノイズ増幅が適用された統合済みの CLIP ビジョン出力を含みます。 | \ No newline at end of file diff --git a/ja/built-in-nodes/wanBlockSwap.mdx b/ja/built-in-nodes/wanBlockSwap.mdx new file mode 100644 index 000000000..839dd585e --- /dev/null +++ b/ja/built-in-nodes/wanBlockSwap.mdx @@ -0,0 +1,26 @@ +--- +title: "wanBlockSwap - ComfyUI 組み込みノードのドキュメント" +description: "ComfyUI における wanBlockSwap ノードの完全なドキュメントです。入力、出力、パラメーターおよび使用方法について学びましょう。" +sidebarTitle: "wanBlockSwap" +icon: "circle" +mode: wide +translationSourceHash: ec37d36e +translationFrom: built-in-nodes/wanBlockSwap.mdx, zh-CN/built-in-nodes/wanBlockSwap.mdx +translationMismatches: + - "description" +--- +> このドキュメントは AI によって生成されました。誤りを発見した場合、または改善に関するご提案がある場合は、ぜひご貢献ください! [GitHub で編集](https://github.com/Comfy-Org/embedded-docs/blob/main/comfyui_embedded_docs/docs/wanBlockSwap/en.md) + +このノードは非推奨となっており、機能しません。モデルを入力として受け取り、変更を加えずにそのまま同じモデルを出力します。「NOP(No Operation)」という記述は、このノードが一切の処理を行わないことを意味します。 + +## 入力 + +| パラメーター | データ型 | 必須 | 範囲 | 説明 | +|-----------|-----------|----------|-------|-------------| +| `model` | MODEL | はい | | このノードを通過させるモデル。 | + +## 出力 + +| 出力名 | データ型 | 説明 | +|-------------|-----------|-------------| +| `model` | MODEL | 入力として与えられたモデルと同一のものであり、一切変更されていません。 | \ No newline at end of file diff --git a/ja/changelog/index.mdx b/ja/changelog/index.mdx new file mode 100644 index 000000000..7bd308334 --- /dev/null +++ b/ja/changelog/index.mdx @@ -0,0 +1,542 @@ +--- +title: "変更履歴" +description: "ComfyUI の最新機能、改善点、およびバグ修正を追跡します。詳細なリリースノートについては、[GitHub リリースページ](https://github.com/comfyanonymous/ComfyUI/releases) をご覧ください。" +icon: "clock-rotate-left" +translationSourceHash: c4a3b192 +translationFrom: changelog/index.mdx, zh-CN/changelog/index.mdx +--- + + + +**パートナー・ノード (API)** +- Grok 参考生動画 +- Grok 動画拡張 +- [関連ブログ](https://blog.comfy.org/p/grok-imagine-model-feature-updates) + + + + +**FP16 サポートの修正** +- FP16 精度との Canny ノード互換性を修正し、16ビット浮動小数点演算を使用した際のワークフロー問題を解決 +- FP16 中間値による不均一な生成結果を引き起こすサンプリング問題を解決 +- FP16 中間値が予期しない結果を生成する問題を修正し、実行間で一貫した出力を保証 + +**VAE の改善** +- WAN VAE 処理における明るさおよび色再現の問題を修正し、出力品質と色精度を向上 + + + + + +**メモリおよびパフォーマンス最適化** +- 演算間の中間値に FP16 を使用して VRAM 使用量を削減する `--fp16-intermediates` フラグを追加 +- LTX および WAN VAE モデル向けに、インプレース出力処理およびチャンク化エンコーダ実装により大幅な VRAM 削減を実現 +- タイル化デコード時のピークメモリ使用量を改善し、動画 VAE タイラーのフォールバックにおける VRAM リークを修正 +- comfy-aimdo の更新 (0.2.11–0.2.12) により、Windows 向けの RAM 圧力緩和戦略を強化 +- 動的 VRAM 管理を強制的に有効化する `--enable-dynamic-vram` オプションを追加 + +**モデルおよびハードウェア対応** +- mxfp8 精度フォーマットへの対応を追加し、モデル互換性を向上 +- AMD gfx1150 (Strix Point) GPU 向けに PyTorch Attention を有効化 +- FP4、FP8、FP16 のネイティブ dtype 対応および量子化線形自動微分関数により、学習機能を強化 +- テキストエンコーダの互換性問題を修正し、Hunyuan3D v2.1 DiT モデル向け SageAttention を無効化 + +**ノードおよび API の強化** +- Tencent TextToModel および ImageToModel API ノードを修正 +- Nano Banana 2 の `"thought_image"` 対応および Quiver SVG ノードを追加 +- `seedream-3-0-t2i` および `seedance-1-0-lite` モデルを非推奨としてマーク +- `slice_cond` およびモデルごとのコンテキストウィンドウ条件付けサイズ調整機能を追加 +- `EmptyLatentImage` および `EmptyImage` ノードを強化し、中間 dtype 設定に従うように変更 + +**フロントエンドおよび基盤構造** +- フロントエンドパッケージをバージョン 1.41.21 へ更新し、古くなったチャンクを防止するためのキャッシュヘッダーを改善 +- 外部分散キャッシュをサポートする `CacheProvider` API を追加 +- クラッシュ時のデータ損失を防ぐため、ユーザーデータへの原子的書き込みを実装 +- ノードおよびブループリント向けの「essential(基本)」カテゴリ対応を強化 +- ワークフローテンプレートをバージョン 0.9.26 へ更新 + +**バグ修正および安定性向上** +- ピクセル空間 VAE の互換性問題および終了時のモデルファイナライザ実行を修正 +- `Load Diffusion Model` ノードにおける重み dtype 処理を改善(高度入力としてマーク) +- サブクラス化されたモデル向けの遅延重み初期化を強化 +- 稀なエッジケースにおけるさまざまなメモリリークおよび破損問題を修正 + + + + + +本リリースは安定性およびバグ修正に焦点を当てています。完全な技術的詳細については、GitHub 上の[完全な変更履歴](https://github.com/Comfy-Org/ComfyUI/compare/v0.17.1...v0.17.2)をご覧ください。 + + + + +これは、さまざまなバグ修正および安定性向上を含むパッチリリースです。本リリースに含まれる変更の完全な詳細については、v0.17.0 と v0.17.1 の間の完全な変更履歴比較をご覧ください。 + + + + +**アーキテクチャおよびパフォーマンス改善** +- 非同期二段階スキャナーおよびバックグラウンドシーダーを備えたモジュール型アセットアーキテクチャを実装し、読み込みパフォーマンスを向上 +- デバッグおよび安定性向上のための Python フォールトハンドラを追加 +- KV キャッシュモデル向けのメモリ使用量最適化を強化 +- AcceleratorError 互換性のためのエラー管理を改善した動的 VRAM 処理を強化 + +**モデル対応および強化** +- `FluxKVCache` ノード経由で Flux 2 Klein KV キャッシュモデルをサポート +- Flux モデル向けにクリーンアップ関数および事前アテンションパッチを備えたモデルパッチングシステムを強化 +- Qwen 画像モデル向けに事前アテンションおよび後入力パッチを追加 +- ラップされたモデルにおけるテキストエンコーダ LoRA の読み込みを修正 +- さまざまなモデルにおいて `batch_size > 1` のバッチ処理を修正し、改善 + +**新規ノードおよび機能** +- 強化された画像編集機能を提供する `Painter` ノードを追加 +- 機能拡張のための `Reve Image` API ノードを導入 +- ワークフローテンプレートをバージョン 0.9.21 へ更新 +- フロントエンド互換性向上のためのグラデーションストップの書式設定を強化 + +**バグ修正および安定性向上** +- 音声抽出および切り捨ての問題を修正 +- 深刻なクローンによる事前編集済み重みでのモデル検出問題を解決 +- ComfyUI Manager のインストールガイドを改善し、バージョン 4.1b2 へ更新 +- 問題診断のためのパッケージバージョン報告機能を強化 + +**フロントエンド更新** +- フロントエンドパッケージをバージョン 1.41.18 へ更新(各種改善およびバグ修正を含む) +- `comfy-kitchen` をバージョン 0.2.8 へ、`comfy-aimdo` をバージョン 0.2.10 へ更新 + + + + +**新規ノードおよび機能** +- ワークフロー内での数学演算を可能にする `Math Expression` ノードを追加(simpleeval を用いた評価対応) +- 拡張されたトポロジー処理機能を提供する `TencentSmartTopology` API ノードを導入 +- LLM ノードに Gemini 3.1 Flash-Lite モデルを追加し、AI 言語モデルの選択肢を拡大 + +**バグ修正およびパフォーマンス向上** +- fp16 音声エンコーダモデルの互換性問題を修正 +- 動的 VRAM が有効な場合のテキストエンコーダの CPU 実行を解決 +- 要件バージョンの競合を修正 +- バッファー解放前の計算ストリーム同期により、メモリ管理を強化 + +**ワークフローテンプレート** +- 最新の改善を含むワークフローテンプレートをバージョン 0.9.11 へ更新 + + + + + +**LTX 音声モデルの改善** +- LTX2 vocoder `conv_transpose1d` の手動キャストを修正し、音声処理の安定性を向上 +- LTX 音声 VAE の `novram` 互換性問題を解決し、音声生成中のメモリ管理を改善 +- 動画ワークフローにおけるキーフレーム処理の精度を高めるため、`add_keyframe_index` および `append_keyframe` 関数に `causal_fix` パラメーターを追加 + + + + +**コア更新** +- AI モデル操作の向上のため、`comfy-aimdo` をバージョン 0.2.7 へ更新 +- 異なるハードウェア構成でより良いパフォーマンスを実現するため、VBAR caster 内の CPU 重み処理を強化 + +**ワークフローテンプレート** +- 最新の改善および最適化を含むワークフローテンプレートをバージョン 0.9.10 へ更新 +- 安定性向上のためのコードリファクタリング改善 + + + + + +**API ノードの更新** +- コスト管理およびモデル選択の向上のため、xAI モデルおよび料金体系を更新 +- 動画生成能力を強化する Kling 3.0 Motion Control を有効化 + +**ワークフローテンプレート** +- 最新の改善および最適化を含むワークフローテンプレートをバージョン 0.9.8 へ更新 + + + + + +**新規ノードおよび機能** +- 画像サイズ設定を容易にする `ResolutionSelector` ノードを追加(アスペクト比プリセット対応) +- 高度なパラメーター制御のための `CURVE` 型サポートを導入 +- ワークフローモニタリングを改善するため、ジョブ API にテキストプレビューを追加 +- 強化された画像処理機能を提供する LongCat-Image のネイティブ実装 + +**モデルおよびフォーマット対応** +- LoKR 互換性のため、ACE-Step 1.5 lycoris キー別名マッピングを追加 +- SDPose-OOD モデルをサポート +- SCAIL WanVideo モデルをサポート +- zeta chroma 重みの読み込みをサポート +- LTXAV 2.3 モデルをサポート +- Z-image ピクセル空間対応を実装 + +**メモリおよびパフォーマンス** +- メモリ効率を向上させるため、動的 VRAM モードをデフォルトに変更 +- 非 QuantizedTensor fp8 向けの LoRA 再量子化を実装 +- パフォーマンス向上のため、動的オフロードヒューリスティクスを強化 +- アロケーター処理の改善のため、`comfy-aimdo` をバージョン 0.2.6 へ更新 +- 重みフックおよび WSL 互換性との動的 VRAM 衝突を修正 + +**API および UI の改善** +- NanoBanana2 API ノードに `"IMAGE+TEXT"` サポートを追加 +- 明確さ向上のため、Mahiro CFG を `Similarity-Adaptive Guidance` へ名称変更 +- GLSL ノードの入力次元要件を修正 +- `VAEDecodeAudioTiled` を強化し、`tile_size` 入力を正しく使用 + +**バグ修正** +- `feat_map` 処理における WanVAE エンコーダ/デコーダの混同を修正 +- `lm_metadata` 欠落時の ACE-1.5 メモリ推定問題を解決 +- サブステップシグマ向けのコンテキストウィンドウステップ処理を修正 +- `VideoFromComponents` が `BytesIO` へ書き込む際のクラッシュを防止 +- 画像タイルの重複を制限し、処理問題を防止 + +**ワークフローテンプレート** +- ワークフローテンプレートをバージョン 0.9.7 へ更新 + + + + + +**バグ修正および安定性向上** +- `prompt` エントリに `class_type` キーが欠落している場合に発生する `KeyError` を修正し、ワークフローのクラッシュを防止 +- pyopengl accelerate numpy テクスチャとの GLSL ノード互換性問題を解決 +- LTXAV テキストエンコーダの最小長およびメモリ推定問題を修正 +- torch コンパイラー使用時に動的 VRAM を無効化し、衝突を防止 + +**モデルおよび API 更新** +- 後方互換性処理の向上のため、`comfy aimdo` をバージョン 0.2.2 へ更新 +- 高度な動画処理のため、WanVideo ベースのセグメンテーションモデル FlowRVS を追加 +- 機能拡張のため、NanoBanana2 API ノードを追加 +- ゼロコピー sft 問題を防止するための Aimdo 後方互換性処理を修正 + +**UI およびフロントエンド** +- API ノードにおける進行状況テキストのシリアル化を修正するため、フロントエンドをバージョン 1.39.19 へパッチ適用 +- よりよい整理のため、`essentials_category` を正しい置換ノードへ移動 + +**新規機能** +- 自己注意機構における各ガイドの注意強度制御を追加し、細かいワークフロー制御を実現 +- ワークフローテンプレートをバージョン 0.9.4 へ更新 + + + + +**新規ノードおよび機能** +- 画像ワークフローにおける正確な境界ボックス選択のための `BBox` ウィジェットを追加 +- 音声処理ワークフロー向けの 3 バンドイコライザー・ノードを導入 +- Gemma3 および Qwen 3 を初期対応モデルとして、ネイティブモデルによる基本的なテキスト生成をサポート +- 高度な視覚効果のための PyOpenGL を用いた GLSL シェーダーノードを新規追加 +- テキスト・ツー・スピーチ機能のための ElevenLabs API ノードを追加 +- 改善された UI を実現するため、FLOAT 入力向けの新しいグラデーションスライダーディスプレイモードを追加 +- タイル処理ワークフロー向けの `SplitImageToTileList` および `ImageMergeTileList` ノードを追加 + +**API ノード** +- Rodin Gen-2 ノードに価格表示を追加 +- アバター生成のための `KlingAvatar` ノードを追加 +- ByteDance Seedream-5 モデルをサポート +- Gemini 画像 MIME タイプ処理をワイルドカードマッチングで修正 +- 高品質化のため、Gemini が圧縮されていない画像を返すよう強制 + +**パフォーマンスおよびバグ修正** +- 再量子化の返却を制限することで、FP8 動的 VRAM ワークフローパフォーマンス問題を修正 +- 動画保存操作における非連続音声波形のクラッシュを解決 +- fp8 チェックポイント対応および埋め込みコネクタ dtype 問題を含む LTXAV モデル読み込み問題を修正 +- PyOpenGL バージョン < 3.1.4 への互換性を向上 + +**UI 改善** +- 折りたたみ可能な UI を実現するため、429 個のウィジェットを高度設定としてマーク +- ノードの整理を容易にするため、`essentials_category` を追加 +- 分類を改善した基本サブグラフ・ブループリントを強化 +- フロントエンドをバージョン 1.39.16 へ更新 + +**モデル対応** +- トークン化の改善および最小長の強制により、テキスト生成を強化 +- LTXAV av 埋め込みコネクタ統合を更新 +- 移行期間中の LTX 2.0 ワークフロー向けに一時的な互換性修正を提供 + + + + + +**バグ修正** +- Gemini/Nano banana API ノードが時折空白画像を返す問題を修正し、AI 主導の画像生成ワークフローの信頼性を向上。 + + + + +**バグ修正** +- 手動キャスト時の anima LLM アダプターの順方向伝搬を修正 + +**新規モデル対応** +- API ノードに `"viduq3-turbo"` モデルを追加 +- 創造的なワークフローを強化する Recraft V4 ノードを追加 + +**更新** +- ワークフローテンプレートを v0.8.43 へ更新 + + + + + +**モデル対応** +- 量子化重みを含む Gemma 12B をサポート +- デバイス選択対応および VRAM 使用量削減を実現した LTXAV テキストエンコーダを強化 +- LTXAV テキストエンコーダのメモリ推定を改善 + +**パフォーマンス向上** +- FP8MM オフロードのパフォーマンス問題を修正 +- パフォーマンス向上のため、cu130 へのアップグレードを推奨する過時 PyTorch バージョンに対する警告を追加 +- `comfy kitchen` のバージョン要件を更新 + +**バグ修正** +- 安定版ワークフローが最新の `comfy kitchen` 更新を正しく取得するよう修正 +- モデルパッチャーから混乱を招くロード統計を削除 +- ワークフローテンプレートを v0.7.69 へ更新 + + + + +**新規モデル対応** +- LTXV 2 モデルをサポート +- NVFP4 チェックポイント対応(fp4 行列乗算) +- CLI 引数経由で Sage Attention 3 をサポート + +**API 改善** +- V3 API:DynamicCombo および Autogrow 機能を公開 +- API ノード:Kling Omni 720p 解像度対応、WAN2.6 ReferenceToVideo +- Tripo3D:`face_limit` パラメーター処理を最適化 +- Vidu API 署名付き URL の URL エンコーディング保持を修正 + +**修正** +- アップスケールモデルの CPU オフロードを修正 +- LTXV2 テキストエンコーダの lowvram 対応を修正 +- fp8 処理の問題を修正 +- MPO 形式画像を最初のフレームのみ使用するよう修正 +- PyTorch バージョンに基づく `comfy-kitchen` CUDA 対応の条件付き有効化 + +**その他** +- デバッグ用に OOM メモリ概要を追加 +- Mahiro CFG の表示名を更新 +- ワークフローテンプレートを v0.7.67 へ更新 +- コードのリファクタリングおよびクリーンアップ(CLIP 前処理、`comfy-kitchen` 統合) + + + +**システム要件** +- PyTorch 2.4+ を最低バージョン要件とする + +**修正および改善** +- AMD GPU 向けに非同期メモリオフロードをデフォルトで有効化 +- CPU 推論時の祖先サンプラーのノイズを修正 +- メモリ管理エラー処理(pin/unpin 操作)を改善 +- コンテキストウィンドウ内での VACE コンテキスト処理を追加 + +**更新** +- ComfyUI フロントエンドを v1.35.9 へ更新 +- ComfyUI Manager を v4.0.4 へ更新 +- ワークフローテンプレートを v0.7.64 へ更新 + +**新規ノード** +- サンプリング制御のための `ManualSigmas` ノードを追加 +- Kling Motion Control ノードを追加 +- `ResizeByLongerSide` を動画処理に対応 + +**API ノード** +- Gemini API:プロンプト強化を強制有効化 +- 料金体系をドルからクレジットへ変更 +- `"seededit"` を非推奨化し、Seedream ノードの表示名を更新 + +**技術** +- 画像処理ノードを V3 スキーマへ変換 +- Lumina/Z 画像モデルを最適化(未使用コンポーネントを削除) + + + + +**新規モデル対応** +- Qwen Image Layered +- NewBie Image Exp0.1 + +**新規機能** +- ワークフロー監視のための `/api/jobs` エンドポイントを備えた統一ジョブ API を導入 + +**改善** +- API ノードにおける透かし生成をデフォルトで無効化 +- 解像度バケット化を備えたトレーナーをリファクタリングし、トレーニング効率を向上 +- AMD GPU 対応を強化 +- Kling O1 StartEndFrame ノードの持続時間範囲を拡張 +- Topaz 4k 動画アップスケーリング機能を更新 + +**バグ修正** +- `--gpu-only` モードにおける ZImageFunControlNet のマスク結合問題を修正 + + + + +- GPT-Image-1.5 API ノードを追加 +- V3 ノード処理のリグレッションを修正 +- SA-Solver の精度を向上 + + + + + +**新規モデルおよび機能** +- 高度なモーション処理のための WanMove モデル +- 自動検出対応の Qwen Edit 2511 +- ペイントインを含む Z-Image Fun Control Union 2.0 + +**API ノード** +- Kling Omni Image、TextToVideoWithAudio、ImageToVideoWithAudio +- Wan2.6 モデル統合 +- 3D モデル生成のための Tripo3.0 + +**パフォーマンス** +- Z-Image および SD3 モデルのメモリ推定を改善 +- Qwen-Image VAE 向けの GPU メモリ管理を向上 +- フロントエンドを v1.34.9 へ更新 + + + + +**モデル対応** +- Ovis Image +- Kandinsky 5.0(T2V/I2V/T2I 変種) +- Z-Image Alibaba PAI-Fun ControlNet 対応 +- Z-Image FP16 対応の改善 +- CORS ヘッダーへの PATCH メソッド追加および chroma-radiance-x0 モード + +**ワークフローおよび強化** +- コンテキストウィンドウの修正および時系列処理の強化 +- Kling API `@image` 参照形式 +- ComfyUI-Manager の pip インストール対応 + +**フロントエンド改善** +- フロントエンドのロード/起動時間を大幅に改善 +- サイドバーの設定ボタンを復元 +- GPU 加速のマスクエディタレンダリング +- アセットカードおよびキュー進行パネルのデザインを改善 +- キュー ボタンおよびパンくずリストに不足ノード警告 UI を追加 +- モバイル対応の修正および各種バグ修正 + +**主要な VRAM 最適化** +- 時系列ローリング VAE:動画モデル(Hunyuan/Kandinsky)向けに大幅な VRAM 削減を実現 +- LoRA メモリ確保量の削減:特に Flux2 ワークフローに有益 +- Flux2 OOM エラーを修正:デクォンタイゼーションオフロード会計の改善 +- FP16 処理による LoRA 計算速度の向上 +- 不必要な CPU フォールバックを防ぐためのテキストエンコーダ GPU 使用の最適化 + +**V3 スキーマ移行** +- 3D、音声、freelunch、マスクノードを V3 スキーマへ変換 +- ワークフローの柔軟性向上のため、`MatchType`、`DynamicCombo`、`Autogrow` を追加 + +**バグ修正および互換性** +- GPU 直接読み込み時のテキストエンコーダリグレッションを修正 +- Lumina モデルにおける `transformer_options` クリアリング問題を解決 +- Qwen Image LoRA トレーニング、HunyuanVideo 1.5 meanflow distil 問題を修正 +- 音声ワークフロー統合のための `EmptyAudio` ノード入力タイプを修正 +- 不要な完全オフロードを防ぐための VRAM 計算精度の向上 +- Z-Image ワークフローにおける `"transformer."` LoRA プレフィックス対応 +- 混合量子化操作における scaled FP8 形式の互換性向上 + +**デスクトップユーザー向け注記** +- 自動更新を無効にしていない場合、最新のデスクトップリリースを待ってください。自動更新により最新バージョンへアップグレードされます。 +- デスクトップ版を使用中で**かつ自動更新を無効にしている場合**、今回のデスクトップ版では最新バージョンへの自動更新ができない可能性があります。 +- 最新機能を入手するには、[こちら](https://www.comfy.org/download)から最新のデスクトップ版をダウンロードしてください。 + + + + +**フロントエンド UI/UX** +- 新しい UI:**ノード 2.0** のパブリックベータ版 +- 線形モードのベータ版(キーバインド設定でホットキーを設定可能) +- サブグラフの改善およびバグ修正 +- 不足ノードの UX を改善 +- 新しいワークフロー進行パネル +- 新しいアセットサイドバー + +**3D 機能** +- 3D ノードにおけるパノラマ画像対応 +- 3D アニメーションノードを 3D ノードへ統合 + +**LoRA トレーナー** +- ComfyUI ネイティブ LoRA トレーナー向けのマルチ解像度対応 +- Z-Image LoRA トレーニング対応 + +**パフォーマンスおよびモデル対応** +- 動画用マイクロ VAE 対応 +- z-image LoRA 形式対応 +- NVIDIA 向けに非同期オフロードをデフォルトで有効化 + +**パートナー・ノード** +- Veo3 First-Last-Frame ノード +- Kling FirstLastFrame ノードに Kling v2.5 turbo を追加 +- Kling O1 モデル対応 + + + + + +**新規モデル対応** +- 画像処理ワークフロー向けに最適化された Z Image モデルを追加 + +**バグ修正** +- 混合 FP8 精度モデルにおける LoRA 機能の修正 +- Flux2 参照画像のメモリ推定を強化し、VRAM エラーを削減 + + + + + +**バグ修正** +- ワークフロー実行を中断する重大なシステムクラッシュを修正 +- Flux 2 テキストエンコーダの VRAM 使用量を最適化し、パフォーマンスを向上 + + + + +**新規モデル対応** +- Flux 2 モデルの包括的対応(Flux 2 Pro API ノードを含む) +- 新しいバリエーションおよび表示名の改善を伴う HunyuanVideo ワークフローの強化 + +**API およびセキュリティ改善** +- コンテンツセキュリティポリシー(CSP)ヘッダーによる API セキュリティの向上 +- 公開 API アクセス問題および Gemini モデル対応の修正 + +**動画処理** +- より良い動画ワークフロー制御のため、`get_frame_count` および `get_frame_rate` メソッドを追加 + +**パフォーマンス最適化** +- ハードウェア認識検出を備えたテキストエンコーダ量子化の最適化 +- より良いメモリ管理を実現する量子化サポートの強化 + +**開発者ツール** +- Chroma、Qwen-Image、HunyuanVideo モデル向けの `BlockInfo` サポートを追加 + +**フロントエンドおよび依存関係** +- フロントエンドを v1.30.6 へ更新 +- Transformers バージョンを更新 + + + + +**モデル互換性および強化** +- **HunyuanVideo 1.5 対応**:最新版 HunyuanVideo モデルの互換性を追加し、動画生成機能を拡張 +- **LLAMA テキストエンコーダの改善**:LLAMA ベースのテキストエンコーダモデルにおける最終正規化の無効化を可能にし、ワークフローのカスタマイズ性を向上 +- **HunyuanV3D スキーマ移行**:パフォーマンスおよび互換性向上のため、Hunyuan3D ノードを V3 スキーマへ更新 + +**API ノードの拡張** +- **新規 Topaz API ノード**:ComfyUI 内で直接 Topaz 動画強化ワークフローを実行可能に +- **Nano Banana Pro 統合**:処理能力を拡張するための Nano Banana Pro API ノード群を追加 +- **Kling リップシンクの改善**:`KlingLipSyncAudioToVideoNode` の音声フォーマット変換の問題を修正し、適切な MP3 フォーマット処理を確保 + +**画像処理およびワークフローの改善** +- **画像バッチ処理の強化**:異なるチャンネル数の画像を処理し、必要に応じてアルファチャンネルを自動追加するよう ImageBatch ノードを修正 +- **プレビューノードの改善**:ワークフローの整理を明確にするため、PreviewAny ノードを「Preview as Text」に名称変更 +- **ワークフローテンプレートの更新**:マルチパッケージ配布に対応するため、サーバーテンプレートハンドラーを強化 + +**パフォーマンスおよびシステムの最適化** +- **CUDA 最適化**:GPU パフォーマンス向上のため、新しい CUDNN バージョンでの不要な回避策を無効化 +- ワークフローの命名に関する問題を修正し、複雑な処理パイプラインの全体的な安定性を向上 + + +- **Kling リップシンクの改善**:`KlingLipSyncAudioToVideoNode` の音声フォーマット変 \ No newline at end of file diff --git a/ja/cloud/import-models.mdx b/ja/cloud/import-models.mdx new file mode 100644 index 000000000..95612dc1a --- /dev/null +++ b/ja/cloud/import-models.mdx @@ -0,0 +1,150 @@ +--- +title: "モデルのインポート" +description: "Civitai と Hugging Face から Comfy Cloud へモデルをインポートする方法について学びます" +translationSourceHash: eeacf825 +translationFrom: cloud/import-models.mdx, zh-CN/cloud/import-models.mdx +--- + +import CloudFeature from '/snippets/cloud-feature.mdx' + + + +## 概要 + +Comfy Cloud では、Civitai と Hugging Face から直接モデルをインポートできます。この機能は、**Creator** サブスクリプション以上のユーザーが利用できます。 + +## 要件 + +- **サブスクリプション**: Creator tier 以上 +- **対応ソース**: Civitai および Hugging Face + +## モデルのインポート方法 + +### 1. インポート機能へのアクセス +![Import](/images/cloud/import_model/import_model.png) +1. 左サイドバーの **Models** ボタンをクリックして、モデルライブラリを開きます。 +2. モデルライブラリのモーダルで、**Import** ボタンをクリックします。 + +### 2. リンクの貼り付け +1. Hugging Face または Civitai から取得したモデルリンクを貼り付けます。 +![Import Modal](/images/cloud/import_model/import_model_modal-1.png) + +2. リンクが有効な場合、確認インジケーターが表示され、`Continue` ボタンをクリックして続行できます。 +![Import Modal](/images/cloud/import_model/import_model_modal-2.png) + +3. モデルタイプと対象フォルダーを選択します。 +![Import Modal](/images/cloud/import_model/import_model_modal-3.png) + +4. モデルのダウンロードが完了するまで待ちます。 +![Import Modal](/images/cloud/import_model/import_model_modal-4.png) + +5. ダウンロードが完了すると、モデルライブラリでモデルを見つけることができます。 + +## インポート済みモデルの表示方法 + +モデルライブラリで、ドロップダウンフィルターから「My Models」を選択し、インポートしたモデルをフィルター表示します。 + +![Imported Models](/images/cloud/import_model/imported_model.png) + +## モデルインポートリンクの取得方法 + +### 1. Civitai からリンクを取得 + +1. [Civitai](https://civitai.com/) にアクセスし、インポートしたいモデルを見つけます。 +2. ダウンロードボタンを右クリックし、「リンクアドレスをコピー」を選択して、モデルのダウンロードリンクを取得します。 + +![Copy Civitai Link](/images/cloud/import_model/copy_civitai_link.png) + +### 2. Hugging Face からリンクを取得 + +1. [Hugging Face](https://huggingface.co/) にアクセスし、インポートしたいモデルリポジトリを見つけます。 +2. モデルファイルページへ移動します。サポートされている形式は通常「.safetensor」または「.sft」ファイルです。特定のモデル名をクリックして詳細ページに入ります。 + +![Copy Huggingface model link](/images/cloud/import_model/copy_huggingface_link-1.png) + +3. 詳細ページで、`Copy Download Link` ボタンをクリックしてモデルのダウンロードリンクを取得します。 + +![Copy Huggingface model link](/images/cloud/import_model/copy_huggingface_link-2.png) + +## 非公開モデルのインポート + +Hugging Face または Civitai から非公開モデルをインポートする場合は、まず API キーを設定する必要があります。 + +### 1. API キーの生成 + +まず、それぞれのプラットフォームから API キーを生成する必要があります。 + + + + 1. Civitai にログインし、[https://civitai.com/user/account](https://civitai.com/user/account) にアクセスします。 + 2. アカウント設定で API キーを生成します。 + + ![Civitai API Key](/images/cloud/import_model/civitai_key-1.png) + + + 1. [https://huggingface.co/settings/tokens](https://huggingface.co/settings/tokens) にアクセスします。 + 2. API トークンを生成します。 + + ![Hugging Face API Key](/images/cloud/import_model/huggingface_key-1.png) + + 3. トークンに、インポートしたい非公開モデルを含むリポジトリへの読み取りアクセス権があることを確認します。 + + ![Hugging Face Token Permissions](/images/cloud/import_model/huggingface_key-2.png) + + + +### 2. API キーの保存 + +1. [Comfy Cloud Settings](https://cloud.comfy.org) にアクセスし、**Secrets** セクションへ移動します。 + +![Settings Secrets](/images/cloud/import_model/setting_secerts-1.png) + +2. クリックして API キーを追加します(キーの名前は任意で設定できます)。 + +![Add Secret Key](/images/cloud/import_model/setting_secerts-2.png) + +3. API キーに、インポートしたい非公開モデルへのアクセス権限があることを確認します。 + +### 3. 非公開モデルのインポート + +API キーを設定すると、公開モデルと同じ手順で非公開モデルをインポートできます。 + +1. Hugging Face または Civitai からモデルリンクを取得します。 +2. インポートモーダルにリンクを貼り付けます。 +3. システムは保存された API キーを自動的に使用して非公開モデルにアクセスします。 + + +インポートしたい特定の非公開モデルにアクセスするために必要な権限を API キーが持っていることを確認してください。 + + +## よくある質問 + + + + はい。**safetensor** ファイル形式のみサポートされています。事実上ファイルサイズ制限はありません(最大 100GB)。 + + + + インポートしたモデルは**あなただけ非公開**です。モデルライブラリでモデルを見ることができるのはあなただけです。 + + + + 現時点では、まずモデルを**公開された Hugging Face または Civitai リポジトリ**にアップロードし、その後これらのプラットフォームからインポートする必要があります。 + + + + いいえ。インポートする前に、分割されたモデルファイルを 1 つのファイルに結合する必要があります。 + + + + この機能は **Creator** および **Pro** プランでのみ利用可能です。 + + + + いいえ。これは**クラウド専用**の機能です。 + + + + はい。インポートしたモデルは削除できます。なお、Comfy 内部チームによってアップロードされたモデルは削除できません。 + + \ No newline at end of file diff --git a/ja/cloud/share-workflow.mdx b/ja/cloud/share-workflow.mdx new file mode 100644 index 000000000..ac9713bce --- /dev/null +++ b/ja/cloud/share-workflow.mdx @@ -0,0 +1,58 @@ +--- +title: "ワークフローの共有" +description: "共有可能なリンクを介して Comfy Cloud ワークフローを他のユーザーと共有する方法について学びます" +translationSourceHash: fcb68abc +translationFrom: cloud/share-workflow.mdx, zh-CN/cloud/share-workflow.mdx +--- + +import CloudFeature from '/snippets/cloud-feature.mdx' + + + +## 概要 + +Comfy Cloud では、共有可能なリンクを生成することで、ワークフローを他のユーザーと共有できます。受信者は、ワークフローとそのすべての入力、出力、およびワークフローで参照されるすべての素材を閲覧できます。 + + + **共有リンクにはワークフローの素材が含まれます。** リンクを知っている人は、ワークフローのレイアウトだけでなく、アップロードされた画像、マスク、ノードに紐付けられたその他のファイルなど、そこで使用されているメディアも閲覧できます。プライベートまたは機密性の高い内容を含むワークフローのリンクは共有しないでください。 + + +## ワークフローの共有方法 + + + + Comfy Cloud で共有したいワークフローを作成し、完成させます。 + + + ワークフローページの右上隅にある **Share** ボタンをクリックします。 + + ![ワークフローツールバーの共有ボタン](/images/cloud/sahre_workflow/share_workflow_01.png) + + + ワークフローがまだ保存されていない場合、共有前にファイル名を入力して保存するよう促されます。 + + ![共有前にワークフローを保存](/images/cloud/sahre_workflow/share_workflow_02_save_workflow.png) + + + 保存後、**Create a link** をクリックして共有リンクを生成します。このリンクには、ワークフロー、その入力と出力、およびグラフで使用される素材が含まれます。 + + ![共有リンクを作成](/images/cloud/sahre_workflow/share_workflow_03_create_link.png) + + + リンクが生成されたら、それをコピーして、ワークフローを共有したい相手に送信します。 + + ![共有リンクをコピー](/images/cloud/sahre_workflow/share_workflow_04_copy_link.png) + + + +## 共有されたワークフローの更新 + +すでに共有されているワークフローに変更を加えた場合: + +1. 更新されたワークフローを保存します。 +2. **Share** ボタンを再度クリックします。 +3. **Update** を選択して、既存の共有リンクを最新の変更内容で更新します。 + +![既存の共有リンクを更新](/images/cloud/sahre_workflow/share_workflow_05_update_link.png) + +元のリンクは自動的に更新されたワークフローの内容を反映します。同じリンクを使用する受信者は、最新バージョンを閲覧できます。 \ No newline at end of file diff --git a/ja/comfy-cli/getting-started.mdx b/ja/comfy-cli/getting-started.mdx new file mode 100644 index 000000000..77173cff6 --- /dev/null +++ b/ja/comfy-cli/getting-started.mdx @@ -0,0 +1,61 @@ +--- +title: "クイックスタート" +translationSourceHash: eb77900a +translationFrom: comfy-cli/getting-started.mdx, zh-CN/comfy-cli/getting-started.mdx +--- + +import InstallComfyFromCli from "/snippets/ja/install-comfy-from-cli.mdx"; +import InstallCli from "/snippets/ja/install-comfycli.mdx"; + +### 概要 + +`comfy-cli` は、Comfy のインストールと管理を容易にする [コマンドラインツール](https://github.com/Comfy-Org/comfy-cli) です。 + +### CLI のインストール + + + +### ComfyUI のインストール + + + +### ComfyUI の実行 + +```bash +comfy launch +``` + +### カスタムノードの管理 + +```bash +comfy node install +``` + +カスタムノードのインストールには `cm-cli` を使用します。詳細については [ドキュメント](https://github.com/ltdrdata/ComfyUI-Manager/blob/main/docs/en/cm-cli.md) を参照してください。 + +### モデルの管理 + +`comfy-cli` を使用したモデルのダウンロードは簡単です。以下を実行するだけです: + +```bash +comfy model download models/checkpoints +``` + +### コントリビューション + +comfy-cli へのコントリビューションを歓迎します!提案、アイデア、バグ報告がある場合は、[GitHub リポジトリ](https://github.com/Comfy-Org/comfy-cli/issues) で Issue を作成してください。コードに貢献したい場合は、リポジトリをフォークしてプルリクエストを送信してください。 + +詳細については [開発ガイド](https://github.com/Comfy-Org/comfy-cli/blob/main/DEV_README.md) を参照してください。 + +### アナリティクス + +ユーザーエクスペリエンスを向上させるために、CLI の使用状況を追跡しています。以下を実行することで、これを無効にできます: + +```bash +comfy tracking disable +``` + +トラッキングを再度有効にするには、以下を実行してください: + +```bash +comfy tracking enable \ No newline at end of file diff --git a/ja/comfy-cli/reference.mdx b/ja/comfy-cli/reference.mdx new file mode 100644 index 000000000..4b515f975 --- /dev/null +++ b/ja/comfy-cli/reference.mdx @@ -0,0 +1,17 @@ +--- +title: "リファレンス" +translationSourceHash: 94905339 +translationFrom: comfy-cli/reference.mdx, zh-CN/comfy-cli/reference.mdx +--- +import NodesCliReference from '/snippets/cli-reference/nodes.mdx' +import ModelsReference from '/snippets/cli-reference/models.mdx' + +# CLI + +## ノード + + + +## モデル + + \ No newline at end of file diff --git a/ja/comfy-cli/troubleshooting.mdx b/ja/comfy-cli/troubleshooting.mdx new file mode 100644 index 000000000..9f67ffae5 --- /dev/null +++ b/ja/comfy-cli/troubleshooting.mdx @@ -0,0 +1,9 @@ +--- +title: "はじめに" +translationSourceHash: 88c4db04 +translationFrom: comfy-cli/troubleshooting.mdx, zh-CN/comfy-cli/troubleshooting.mdx +--- + +### 前提条件 + +システムに Git がインストールされている必要があります。[こちら](https://git-scm.com/downloads) からインストールしてください。 \ No newline at end of file diff --git a/ja/community/contributing.mdx b/ja/community/contributing.mdx new file mode 100644 index 000000000..6fe48b32d --- /dev/null +++ b/ja/community/contributing.mdx @@ -0,0 +1,11 @@ +--- +title: "コントリビューション" +translationSourceHash: 83af47d2 +translationFrom: community/contributing.mdx +--- + +### コントリビューションの方法 + +あらゆる種類のコントリビューションを歓迎しています。当社の [GitHub 組織](https://github.com/Comfy-Org) でサポートしているさまざまなリポジトリをご確認ください。 + +また、ワークフローの共有や、[カスタムノード](/custom-nodes/overview) の開発を通じてコントリビューションすることもできます。 \ No newline at end of file diff --git a/ja/community/links.mdx b/ja/community/links.mdx new file mode 100644 index 000000000..32f63c8d4 --- /dev/null +++ b/ja/community/links.mdx @@ -0,0 +1,46 @@ +--- +title: "コミュニティリンク" +description: "さまざまなプラットフォームを通じて ComfyUI コミュニティとつながりましょう" +translationSourceHash: f0f3fd9c +translationFrom: community/links.mdx, zh-CN/community/links.mdx +--- + +ComfyUI コミュニティに参加して、サポートを受ける、自分の作品を共有する、最新の開発情報を得ましょう。 + + + + 当社の Discord コミュニティに参加 + + + + サポートとヘルプを受ける + + + + コミュニティによるディスカッションに参加 + + + + Matrix でチャット + + + + ソースコードを閲覧 + + + + チュートリアル動画を視聴 + + + + X で当社をフォロー + + + + LinkedIn でつながる + + + + 当社のサブレディットに参加 + + \ No newline at end of file diff --git a/ja/custom-nodes/backend/datatypes.mdx b/ja/custom-nodes/backend/datatypes.mdx new file mode 100644 index 000000000..6b0554a83 --- /dev/null +++ b/ja/custom-nodes/backend/datatypes.mdx @@ -0,0 +1,186 @@ +--- +title: "データ型" +translationSourceHash: a03293dc +translationFrom: custom-nodes/backend/datatypes.mdx, zh-CN/custom-nodes/backend/datatypes.mdx +--- + +これらは最も重要な組み込みデータ型です。[独自のデータ型を定義する](./more_on_inputs#custom-datatypes) こともできます。 + +データ型はクライアント側で使用され、ワークフローが誤った形式のデータをノードに渡すのを防ぎます - 強い型付けのようなものです。 +JavaScript クライアント側のコードは通常、ノード出力を異なるデータ型の入力に接続することを許可しませんが、 +以下にいくつかの例外が記載されています。 + +## Comfy データ型 + +### COMBO + +* `INPUT_TYPES` に追加パラメータはありません + +* Python データ型:`list[str]` として定義され、出力値は `str` です + +ドロップダウンメニューウィジェットを表します。 +他のデータ型とは異なり、`COMBO` は `INPUT_TYPES` 内で `str` ではなく、ドロップダウンリストのオプションに対応する `list[str]` によって指定され、最初のオプションがデフォルトで選択されます。 + +`COMBO` 入力はしばしば実行時に動的に生成されます。例えば、組み込みの `CheckpointLoaderSimple` ノードでは、以下のように見つかります + +``` +"ckpt_name": (folder_paths.get_filename_list("checkpoints"), ) +``` + +または、単に固定されたオプションのリストである場合もあります。 + +``` +"play_sound": (["no","yes"], {}), +``` + +### プリミティブとリルート + +プリミティブノードとリルートノードはクライアント側にのみ存在します。固有のデータ型を持ちませんが、接続されると接続された入力または出力のデータ型を引き継ぎます(そのため、`*` 入力には接続できないのです...) + +## Python データ型 + +### INT + +* `INPUT_TYPES` 内の追加パラメータ: + + * `default` は必須です + + * `min` と `max` はオプションです + +* Python データ型 `int` + +### FLOAT + +* `INPUT_TYPES` 内の追加パラメータ: + + * `default` は必須です + + * `min`、`max`、`step` はオプションです + +* Python データ型 `float` + +### STRING + +* `INPUT_TYPES` 内の追加パラメータ: + + * `default` は必須です + +* Python データ型 `str` + +### BOOLEAN + +* `INPUT_TYPES` 内の追加パラメータ: + + * `default` は必須です + +* Python データ型 `bool` + +## テンソルデータ型 + +### IMAGE + +* `INPUT_TYPES` に追加パラメータはありません + +* Python データ型 `torch.Tensor`、*形状* は \[B,H,W,C] + +`B` 枚の画像のバッチで、高さ `H`、幅 `W`、`C` チャンネル(通常 `RGB` の場合は `C=3`)を持ちます。 + +### LATENT + +* `INPUT_TYPES` に追加パラメータはありません + +* Python データ型 `dict`、*形状* \[B,C,H,W] の `torch.Tensor` を含みます + +渡される `dict` にはキー `samples` が含まれており、これは *形状* \[B,C,H,W] の `torch.Tensor` で、`B` 個の潜在空間データのバッチを表します。`C` チャンネル(既存の stable diffusion モデルでは通常 `C=4`)、高さ `H`、幅 `W` を持ちます。 + +高さと幅は対応する画像サイズの 1/8 です(これは Empty Latent Image ノードで設定する値です)。 + +辞書の他のエントリには、潜在マスクなどが含まれます。 + +{/* TODO これについて詳しく調べる必要がある */} + +{/* TODO 新しい SD モデルでは異なる C 値を持つ可能性がある? */} + +### MASK + +* `INPUT_TYPES` に追加パラメータはありません + +* Python データ型 `torch.Tensor`、*形状* は \[H,W] または \[B,C,H,W] + +### AUDIO + +* `INPUT_TYPES` に追加パラメータはありません + +* Python データ型 `dict`、*形状* \[B, C, T] の `torch.Tensor` とサンプルレートを含みます。 + +渡される `dict` にはキー `waveform` が含まれており、これは *形状* \[B, C, T] の `torch.Tensor` で、`B` 個のオーディオサンプルのバッチを表します。`C` チャンネル(ステレオの場合は `C=2`、モノラルの場合は `C=1`)、および `T` 時間ステップ(つまり、オーディオサンプルの数)を持ちます。 + +`dict` にはもう 1 つのキー `sample_rate` も含まれており、これはオーディオのサンプリングレートを示します。 + +## カスタムサンプリングデータ型 + +### Noise + +`NOISE` データ型はノイズの*ソース*(ノイズそのものではない)を表します。ノイズを生成するメソッドを提供する任意の Python オブジェクトで表現でき、シグネチャは `generate_noise(self, input_latent:Tensor) -> Tensor`、およびプロパティ `seed:Optional[int]` を持ちます。 + +`seed` は `SamplerCustomAdvanced` の `sample` guider に渡されますが、標準の guider のいずれでも使用されていないようです。オプションなので、通常は None に設定できます。 + +ノイズを追加する場合、潜在空間データがこのメソッドに渡され、ノイズを含む同じ形状の `Tensor` を返す必要があります。 + +[ノイズ混合の例](./snippets#creating-noise-variations) を参照 + +### Sampler + +`SAMPLER` データ型はサンプラーを表し、`sample` メソッドを提供する Python オブジェクトとして表現されます。 +Stable diffusion サンプリングはこのガイドの範囲を超えています;コードのこの部分を詳しく調べたい場合は `comfy/samplers.py` を参照してください。 + +### Sigmas + +`SIGMAS` データ型は、スケジューラによって生成されるサンプリングプロセスの各ステップ前後の sigma 値を表します。 +これは長さ `steps+1` の 1 次元テンソルとして表現され、各要素は対応するステップ前に存在すると予想されるノイズを表し、最後の値は最終ステップ後に存在するノイズを表します。 + +SDXL モデルの場合、20 ステップで denoise が 1 の `normal` スケジューラは以下を生成します: + +``` +tensor([14.6146, 10.7468, 8.0815, 6.2049, 4.8557, + 3.8654, 3.1238, 2.5572, 2.1157, 1.7648, + 1.4806, 1.2458, 1.0481, 0.8784, 0.7297, + 0.5964, 0.4736, 0.3555, 0.2322, 0.0292, 0.0000]) +``` + +sigma の開始値はモデルに依存するため、スケジューラノードが SIGMAS 出力を生成するには `MODEL` 入力が必要です + +### Guider + +`GUIDER` は、プロンプトや他の形式の条件付けによって「導かれる」去噪プロセスの一般化です。Comfy では、guider は `sample` によって呼び出される `__call__(*args, **kwargs)` メソッドを提供する呼び出し可能な Python オブジェクトによって表現されます。 + +`__call__` メソッドは(`args[0]` 内で)ノイズのある潜在空間データのバッチ(テンソル `[B,C,H,W]`)を受け取り、ノイズの予測(同じ形状のテンソル)を返します。 + +## モデルデータ型 + +stable diffusion モデルには、より技術的なデータ型がいくつかあります。最も重要なものは `MODEL`、`CLIP`、`VAE`、`CONDITIONING` です。 +これらの操作は(現時点では)このガイドの範囲を超えています!{/* TODO しかし、永遠にそうとは限りません */} + +## 追加パラメータ + +以下は、入力定義の「追加オプション」部分で使用できる公式にサポートされているキーのリストです。 + +カスタムウィジェット用に追加のキーを使用することはできますが、以下のキーを他の目的で再利用しては*いけません*。 + +{/* TODO -- 本当にすべて網羅できているか? */} + +| キー | 説明 | +| ------------------ | --------------------------------------------------------------------------------------------------------------------------- | +| `default` | ウィジェットのデフォルト値 | +| `min` | 数値(`FLOAT` または `INT`)の最小値 | +| `max` | 数値(`FLOAT` または `INT`)の最大値 | +| `step` | ウィジェットを増減させる量 | +| `label_on` | 真偽値が `True` の場合に UI で使用するラベル (`BOOL`) | +| `label_off` | 真偽値が `False` の場合に UI で使用するラベル (`BOOL`) | +| `defaultInput` | サポートされているウィジェットではなく、入力ソケットをデフォルトにします | +| `forceInput` | `defaultInput` と同様ですが、ウィジェットへの変換も許可しません | +| `multiline` | 多行テキストボックスを使用します (`STRING`) | +| `placeholder` | 空の場合に UI に表示するプレースホルダーテキスト (`STRING`) | +| `dynamicPrompts` | フロントエンドに動的プロンプトを評価させます | +| `lazy` | この入力が[遅延評価](./lazy_evaluation) を使用することを宣言します | +| `rawLink` | リンクが存在する場合、評価された値を受け取る代わりに、リンク(つまり `["nodeId", ]`)を受け取ります。主にノードが [ノード拡張](./expansion) を使用する場合に便利です。 | \ No newline at end of file diff --git a/ja/custom-nodes/backend/expansion.mdx b/ja/custom-nodes/backend/expansion.mdx new file mode 100644 index 000000000..4cb134ef8 --- /dev/null +++ b/ja/custom-nodes/backend/expansion.mdx @@ -0,0 +1,54 @@ +--- +title: "ノード拡張" +translationSourceHash: a24451b6 +translationFrom: custom-nodes/backend/expansion.mdx, zh-CN/custom-nodes/backend/expansion.mdx +--- + +## ノード拡張 + +通常、ノードが実行されると、その実行関数はすぐにそのノードの出力結果を返します。「ノード拡張」は、ノードがグラフ内で自身の代わりに配置されるべき新しいノードのサブグラフを返すことを可能にする、比較的高度な技術です。この技術により、カスタムノードがループを実装できるようになります。 + +### 簡単な例 + +まず、ノード拡張がどのように見えるかの簡単な例を以下に示します: + +サブグラフを作成する際には、`GraphBuilder` クラスの使用を強く推奨します。必須ではありませんが、多くの簡単なミスを防ぐことができます。 +```python +def load_and_merge_checkpoints(self, checkpoint_path1, checkpoint_path2, ratio): + from comfy_execution.graph_utils import GraphBuilder # 通常はファイルの先頭に + graph = GraphBuilder() + checkpoint_node1 = graph.node("CheckpointLoaderSimple", checkpoint_path=checkpoint_path1) + checkpoint_node2 = graph.node("CheckpointLoaderSimple", checkpoint_path=checkpoint_path2) + merge_model_node = graph.node("ModelMergeSimple", model1=checkpoint_node1.out(0), model2=checkpoint_node2.out(0), ratio=ratio) + merge_clip_node = graph.node("ClipMergeSimple", clip1=checkpoint_node1.out(1), clip2=checkpoint_node2.out(1), ratio=ratio) + return { + # (MODEL, CLIP, VAE) 出力を返す + "result": (merge_model_node.out(0), merge_clip_node.out(0), checkpoint_node1.out(2)), + "expand": graph.finalize(), + } +``` + +この同じノードは以前、ComfyUI 内部を手動で呼び出すことで実装できましたが、拡張を使用することで、各サブノードが個別にキャッシュされるようになります(そのため、`model2` を変更しても `model1` を再ロードする必要はありません)。 + +### 要件 + +ノード拡張を実行するには、ノードは以下のキーを含む辞書を返す必要があります: +1. `result`: ノードの出力を含むタプル。これは、通常のノードから返すような確定された値とノード出力の混合である可能性があります。 +2. `expand`: 拡張を実行するための確定されたグラフ。`GraphBuilder` を使用しない場合は、以下を参照してください。 + +#### GraphBuilder を使用しない場合の追加要件 + +`expand` キーから期待される形式は、ComfyUI API 形式と同じです。以下の要件は `GraphBuilder` によって処理されますが、これを使用しないことを選択した場合は、手動で処理する必要があります: + +1. ノード ID はグラフ全体で一意である必要があります。(これには、リストの使用により同一ノードが複数回実行される場合における、各実行間での一意性も含まれます。) +2. ノード ID は、グラフの複数回実行間で決定的かつ一貫している必要があります(キャッシュによる部分的な実行を含む)。 + +たとえグラフを実際に構築するために `GraphBuilder` を使用したくない場合でも(例えば、ファイルからグラフの生 JSON をロードしているためなど)、`GraphBuilder.alloc_prefix()` 関数を使用してプレフィックスを生成し、`comfy.graph_utils.add_graph_prefix` を使用して既存のグラフを修正し、これらの要件を満たすようにすることができます。 + +### 効率的なサブグラフキャッシュ + +サブグラフ内のノードにリテラルではない入力(torch テンソルなど)を渡すことはできますが、これはサブグラフ*内部*のキャッシュを抑制する可能性があります。可能な場合は、ノード自体ではなくサブグラフオブジェクトへのリンクを渡すべきです。(これを容易に行うために、入力の[追加パラメータ](./datatypes#additional-parameters)内で入力を `rawLink` として宣言できます。) + +## 関連資料 + +- [サブグラフ(開発者ガイド)](/custom-nodes/js/subgraphs) — 拡張機能開発者向けのフロントエンドガイド \ No newline at end of file diff --git a/ja/custom-nodes/backend/images_and_masks.mdx b/ja/custom-nodes/backend/images_and_masks.mdx new file mode 100644 index 000000000..135201925 --- /dev/null +++ b/ja/custom-nodes/backend/images_and_masks.mdx @@ -0,0 +1,52 @@ +--- +title: "画像、潜在変数、およびマスク" +translationSourceHash: df3a7d24 +translationFrom: custom-nodes/backend/images_and_masks.mdx, zh-CN/custom-nodes/backend/images_and_masks.mdx +--- + +これらのデータ型を扱う際には、`torch.Tensor` クラスについて知る必要があります。 +完全なドキュメントは [こちら](https://pytorch.org/docs/stable/tensors.html) にあり、または Comfy に必要な主要概念の紹介は [こちら](./tensors) を参照してください。 + +ノードの出力がテンソル単体の場合、`(image)` ではなく `(image,)` を返すようにしてください + +以下の概念のほとんどは、[示例コードスニペット](./snippets) で説明されています。 + +## 画像(Images) + +IMAGE は形状 `[B,H,W,C]` の `torch.Tensor` であり、`C=3` です。画像を保存または読み込む場合は、`PIL.Image` 形式との変換が必要です。以下のコードスニペットを参照してください!なお、計算効率の理由から、一部の `pytorch` 操作は `[B,C,H,W]`(「チャンネル優先」と呼ばれる)を提供(または期待)します。取り扱いには注意してください。 + +### PIL.Image の使用 + +画像の読み込みと保存を行いたい場合は、PIL を使用します。 +```python +from PIL import Image, ImageOps +``` + +## マスク(Masks) + +MASK は形状 `[B,H,W]` の `torch.Tensor` です。 +多くの文脈において、マスクは二値(0 または 1)を持ち、どのピクセルに特定の操作を適用すべきかを示すために使用されます。 +場合によっては、0 から 1 の間の値を使用してマスクの程度を示すこともあります(例えば、透明度の調整、フィルターの調整、またはレイヤーの合成など)。 + +### Load Image ノードからのマスク + +`LoadImage` ノードは、画像のアルファチャンネル(「RGBA」の「A」)を使用して MASK を作成します。 +アルファチャンネルの値は範囲 [0,1](torch.float32)に正規化され、その後反転されます。 +`LoadImage` ノードは、画像を読み込む際に常に MASK 出力を生成します。多くの画像(JPEG など)にはアルファチャンネルがありません。 +この場合、`LoadImage` は形状 `[1, 64, 64]` のデフォルトマスクを作成します。 + +### マスクの形状の理解 + +`numpy`、`PIL`、およびその他の多くのライブラリでは、単チャンネル画像(マスクなど)は通常、形状 `[H,W]` の 2 次元配列として表現されます。 +これは `C`(チャンネル)次元が暗黙的であることを意味し、したがって IMAGE 型とは異なり、MASK のバッチは 3 次元のみを持ちます:`[B, H, W]`。 +`B` 次元が暗黙的に squeeze され、テンソル `[H,W]` になっているマスク encountered することも珍しくありません。 + +MASK を使用するには、多くの場合、`C=1` の形状 `[B,H,W,C]` を生成するために unsqueeze して形状を一致させる必要があります。 +`C` 次元を unsqueeze するには `unsqueeze(-1)` を使用し、`B` 次元を unsqueeze するには `unsqueeze(0)` を使用します。 +ノードが MASK を入力として受け取る場合、常に `len(mask.shape)` をチェックすることをお勧めします。 + +## 潜在変数(Latents) + +LATENT は `dict` です。潜在変数サンプルはキー `samples` で参照され、形状 `[B,C,H,W]` を持ち、`C=4` です。 + +LATENT はチャンネル優先、IMAGE はチャンネル最後 \ No newline at end of file diff --git a/ja/custom-nodes/backend/interface.mdx b/ja/custom-nodes/backend/interface.mdx new file mode 100644 index 000000000..f545ae9d5 --- /dev/null +++ b/ja/custom-nodes/backend/interface.mdx @@ -0,0 +1,134 @@ +--- +title: "コードインターフェース" +description: "カスタムノードとは何か、そしてどのように使用するか?" +translationSourceHash: 12c22bcf +translationFrom: custom-nodes/backend/interface.mdx, zh-CN/custom-nodes/backend/interface.mdx +translationMismatches: + - "The Chinese reference uses a localized URL path (/zh-CN/custom-nodes/help_page) while the English source uses the root path (/custom-nodes/help_page)." +--- + +## 概要 + +カスタムノードは、Python コードと、場合によってはモデルの重みの組み合わせです。カスタムノードは非常に強力であり、Comfy コミュニティが ComfyUI に独自の機能を構築することを可能にします。 + +コードを読むことを好む場合は、リポジトリ内の [示例](https://github.com/comfyanonymous/ComfyUI/blob/master/custom_nodes/example_node.py.example) を確認してください。そうでない場合は、以下で Comfy の組み込みノードの 1 つを探求します。 + +## インターフェース + +ComfyUI の組み込み [Load Checkpoint](https://github.com/comfyanonymous/ComfyUI/blob/master/nodes.py#L529C7-L529C29) ノードを見ることで、カスタムノードのインターフェースを調べましょう。これはチェックポイントファイルを読み込みます。 + +### 関数 + +すべてのカスタムノードは、以下のメソッドを実装できます。 + +#### INPUT_TYPES + +これは、カスタムノードが入力として受け取ることができるパラメータを定義します。 + +```python + @classmethod + def INPUT_TYPES(s): + return { + "required": { + "ckpt_name": (folder_paths. + get_filename_list("checkpoints"),), + }} +``` + +ここでは、入力タイプが Python の辞書として定義されていることがわかります。入力を `required`、`hidden`、または `optional` として定義できます。 + +各入力にはタイプ(例:VAE)が必要です。特殊な組み込みタイプ(`INT`、`STRING`、`FLOAT`)のいずれかを使用する場合、それらはリストにすることができます。 + + + +`default`: デフォルト値を定義できます。 + +`min`: 最小値を定義できます。 + +`max`: 最大値を定義できます。 + +`step`: スライダーを使用できます。 + + + +#### IS_CHANGED + +オプション。ノードがいつ再実行されるかを制御できます。ComfyUI は、効率化のために変更されたノードのみを実行しようとします。 + +### 属性 + +#### RETURN_TYPES + +タプル。出力タプル内の各要素のタイプ。 + +```python +RETURN_TYPES = ("MODEL", "CLIP", "VAE") +``` + +#### RETURN_NAMES + +オプション:出力タプル内の各出力の名前。 + +```python +CATEGORY = "loaders" +``` + +#### FUNCTION + +呼び出すカスタムノードクラス内の Python 関数の名前。 + +LoadCheckpointSimple の場合、関数は次のように定義されます。 + +```python +FUNCTION = "load_checkpoint" +``` + +#### エントリーポイント関数 + +この Python 関数は、ノードが呼び出されたときに実行されます。FUNCTION 下の文字列と一致する必要があります。 + +```python +def load_checkpoint(self, ckpt_name, output_vae=True, output_clip=True): + ckpt_path = folder_paths.get_full_path("checkpoints", ckpt_name) + out = comfy.sd.load_checkpoint_guess_config(ckpt_path, output_vae=True, output_clip=True, embedding_directory=folder_paths.get_folder_paths("embeddings")) + return out[:3] +``` + +#### OUTPUT_NODE + +Bool。デフォルトは False。ノードがグラフから結果/画像を出力する場合に true に設定します。 + +#### CATEGORY + +String。UI 上でノードを表示させたいカテゴリ。 + +```python +CATEGORY = "loaders" +``` + +#### WEB_DIRECTORY + +カスタムノードはカスタム UI を持つことができます。 + +この属性は Web ディレクトリを設定します。そのディレクトリ内の任意の `.js` ファイルは、フロントエンド拡張機能としてロードされます。 + +カスタムノードには、`WEB_DIRECTORY/docs` フォルダに Markdown ドキュメントを含めることもできます。ノードに豊富なドキュメントを追加する方法の詳細については、[ヘルプページ](/custom-nodes/help_page) セクションを参照してください。 + +#### NODE_CLASS_MAPPINGS + +エクスポートしたいすべてのノードとそのクラス名を含む辞書。クラス名は一意である必要があります。これは、1 つの「カスタムノード」内で複数のノードを定義し、それらをすべて一緒にエクスポートできることも意味します。 + +```python +NODE_CLASS_MAPPINGS = { + "CheckpointLoaderSimple": CheckpointLoaderSimple, +} +``` + +#### NODE_DISPLAY_NAME_MAPPINGS + +各ノードにより人間が読みやすい名前を定義したい場合。 + +```python +NODE_DISPLAY_NAME_MAPPINGS = { + "CheckpointLoaderSimple": "Load Checkpoint", +} \ No newline at end of file diff --git a/ja/custom-nodes/backend/lazy_evaluation.mdx b/ja/custom-nodes/backend/lazy_evaluation.mdx new file mode 100644 index 000000000..571ea3574 --- /dev/null +++ b/ja/custom-nodes/backend/lazy_evaluation.mdx @@ -0,0 +1,141 @@ +--- +title: "遅延評価" +translationSourceHash: 6a77cb83 +translationFrom: custom-nodes/backend/lazy_evaluation.mdx, zh-CN/custom-nodes/backend/lazy_evaluation.mdx +--- + +## 遅延評価 + +デフォルトでは、ノードを実行する前に、すべての `required` および `optional` 入力が評価されます。しかし、場合によっては入力を使用しないこともあり、それを評価すると不要な処理が発生します。遅延評価が有益となるノードの例をいくつか挙げます: +1. 比率が `0.0`(この場合、最初のモデルをロードする必要はありません)または `1.0`(この場合、2 番目のモデルをロードする必要はありません)である `ModelMergeSimple` ノード。 +2. 2 つの画像間の補間において、比率(またはマスク)が完全に `0.0` または完全に `1.0` である場合。 +3. どの入力を通過させるかを決定する入力を持つ Switch ノード。 + +入力を遅延評価にするコストは非常に低いです。可能であれば、通常はそうすべきです。 + +### 遅延入力の作成 + +入力を入力を「遅延」入力にするには、2 つのステップがあります。それは以下の通りです: + +1. `INPUT_TYPES` が返す辞書で入力を遅延としてマークする +2. 評価前に呼び出され、さらに入力が必要かどうかを判定する `check_lazy_status` という名前のメソッドを定義する(注:クラスメソッド*ではありません*)。 + +これらを説明するために、マスクに従って 2 つの画像間を補間する「MixImages」ノードを作成します。マスク全体が `0.0` の場合、2 番目の画像に至るツリーのどの部分も評価する必要はありません。マスク全体が `1.0` の場合、最初の画像の評価をスキップできます。 + +#### `INPUT_TYPES` の定義 + +入力が遅延であることを宣言するには、入力のオプション辞書に `lazy: True` キー値ペアを追加するだけです。 + +```python +@classmethod +def INPUT_TYPES(cls): + return { + "required": { + "image1": ("IMAGE",{"lazy": True}), + "image2": ("IMAGE",{"lazy": True}), + "mask": ("MASK",), + }, + } +``` + +この例では、`image1` と `image2` の両方が遅延入力としてマークされていますが、`mask` は常に評価されます。 + +#### `check_lazy_status` の定義 + +利用可能*でない*遅延入力が 1 つ以上ある場合、`check_lazy_status` メソッドが呼び出されます。このメソッドは、標準の実行関数と同じ引数を受け取ります。すべての利用可能な入力は最終値で渡され、利用できない遅延入力は `None` 値になります。 + +`check_lazy_status` 関数の責任は、続行するために必要な遅延入力の名前のリストを返すことです。すべての遅延入力が利用可能な場合、関数は空のリストを返すべきです。 + +`check_lazy_status` は複数回呼び出される可能性があることに注意してください。(例えば、ある遅延入力を評価した後に、別の入力を評価する必要があることがわかる場合があります。) + +この関数は実際の入力値を使用するため、クラスメソッド*ではない*ことに注意してください。 +```python +def check_lazy_status(self, mask, image1, image2): + mask_min = mask.min() + mask_max = mask.max() + needed = [] + if image1 is None and (mask_min != 1.0 or mask_max != 1.0): + needed.append("image1") + if image2 is None and (mask_min != 0.0 or mask_max != 0.0): + needed.append("image2") + return needed +``` + +### 完全な例 + + +```python +class LazyMixImages: + @classmethod + def INPUT_TYPES(cls): + return { + "required": { + "image1": ("IMAGE",{"lazy": True}), + "image2": ("IMAGE",{"lazy": True}), + "mask": ("MASK",), + }, + } + + RETURN_TYPES = ("IMAGE",) + FUNCTION = "mix" + + CATEGORY = "Examples" + + def check_lazy_status(self, mask, image1, image2): + mask_min = mask.min() + mask_max = mask.max() + needed = [] + if image1 is None and (mask_min != 1.0 or mask_max != 1.0): + needed.append("image1") + if image2 is None and (mask_min != 0.0 or mask_max != 0.0): + needed.append("image2") + return needed + + # デモをシンプルに保つため、ここでは異なるバッチサイズの処理は試みていません + def mix(self, mask, image1, image2): + mask_min = mask.min() + mask_max = mask.max() + if mask_min == 0.0 and mask_max == 0.0: + return (image1,) + elif mask_min == 1.0 and mask_max == 1.0: + return (image2,) + + result = image1 * (1. - mask) + image2 * mask, + return (result[0],) +``` + +## 実行ブロッキング + +遅延評価はグラフの一部を「無効」にする推奨方法ですが、遅延評価自体を実装していない `OUTPUT` ノードを無効にしたい場合もあります。それが自分で開発した出力ノードである場合、以下のように遅延評価を追加すべきです: + +1. `enabled` 用の必須(新しいノードの場合)または任意(後方互換性を気にする場合)入力を追加し、デフォルトを `True` にする +2. 他のすべての入力を `lazy` 入力にする +3. `enabled` が `True` の場合のみ、他の入力を評価する + +制御できないノードである場合、`comfy_execution.graph.ExecutionBlocker` を利用できます。この特殊なオブジェクトは、任意のソケットからの出力として返すことができます。入力として `ExecutionBlocker` を受け取るノードは実行をスキップし、その `ExecutionBlocker` をすべての出力として返します。 + +**ExecutionBlocker が前方に伝播するのを防ぐ方法は意図的に存在しません。** これが必要だと思う場合は、実際に遅延評価を使用すべきです。 + +### 使用方法 + +`ExecutionBlocker` を構築して使用する方法は 2 つあります。 + +1. コンストラクタに `None` を渡して、サイレントに実行をブロックします。これは、実行のブロックが成功した実行の一部である場合(出力を無効にするなど)に役立ちます。 +```python +def silent_passthrough(self, passthrough, blocked): + if blocked: + return (ExecutionBlocker(None),) + else: + return (passthrough,) +``` + +2. コンストラクタに文字列を渡して、オブジェクトを受け取ったためにノードがブロックされたときにエラーメッセージを表示します。これは、誰かが意味のない出力を使用した場合に意味のあるエラーメッセージを表示したい場合に役立ちます。例えば、VAE を含まないモデルをロードしたときの `VAE` 出力などです。 + +```python +def load_checkpoint(self, ckpt_name): + ckpt_path = folder_paths.get_full_path("checkpoints", ckpt_name) + model, clip, vae = load_checkpoint(ckpt_path) + if vae is None: + # このエラーは、後続のノードで発生する "'NoneType' has no attribute" エラーよりも有用です + vae = ExecutionBlocker(f"No VAE contained in the loaded model {ckpt_name}") + return (model, clip, vae) \ No newline at end of file diff --git a/ja/custom-nodes/backend/lifecycle.mdx b/ja/custom-nodes/backend/lifecycle.mdx new file mode 100644 index 000000000..d08c4887a --- /dev/null +++ b/ja/custom-nodes/backend/lifecycle.mdx @@ -0,0 +1,40 @@ +--- +title: "ライフサイクル" +translationSourceHash: 4de5fc69 +translationFrom: custom-nodes/backend/lifecycle.mdx, zh-CN/custom-nodes/backend/lifecycle.mdx +--- + +## Comfy によるカスタムノードの読み込み方法 + +Comfy 起動時、`custom_nodes` ディレクトリ内の Python モジュールをスキャンし、読み込みを試みます。 +モジュールが `NODE_CLASS_MAPPINGS` をエクスポートしている場合、カスタムノードとして扱われます。 +Python モジュールとは、`__init__.py` ファイルを含むディレクトリのことです。 +モジュールは、`__init__.py` で定義された `__all__` 属性にリストされた内容をエクスポートします。 + +### __init__.py + +`__init__.py` は、Comfy がモジュールのインポートを試みるときに実行されます。カスタムノード定義を含むモジュールとして認識されるためには、`NODE_CLASS_MAPPINGS` をエクスポートする必要があります。エクスポートされており(かつインポート中にエラーが発生しなければ)、モジュール内で定義されたノードが Comfy で利用可能になります。コードにエラーがある場合、Comfy は続行しますが、そのモジュールの読み込み失敗を報告します。そのため、Python コンソールを確認してください! + +非常にシンプルな `__init__.py` ファイルは以下のようになります: +```python +from .python_file import MyCustomNode +NODE_CLASS_MAPPINGS = { "My Custom Node" : MyCustomNode } +__all__ = ["NODE_CLASS_MAPPINGS"] +``` + +#### NODE_CLASS_MAPPINGS + +`NODE_CLASS_MAPPINGS` は、カスタムノード名(Comfy インストール全体で一意である必要があります)を対応するノードクラスにマップする `dict` でなければなりません。 + +#### NODE_DISPLAY_NAME_MAPPINGS + +`__init__.py` は `NODE_DISPLAY_NAME_MAPPINGS` をエクスポートすることもできます。これは、同じ一意の名前をノードの表示名にマップします。 +`NODE_DISPLAY_NAME_MAPPINGS` が提供されていない場合、Comfy は一意の名前を表示名として使用します。 + +#### WEB_DIRECTORY + +クライアント側コードをデプロイする場合は、JavaScript ファイルが見つかるパス(モジュールからの相対パス)もエクスポートする必要があります。これらをカスタムノード内の `js` という名前のサブディレクトリに配置するのが一般的です。 +*`.js` ファイルのみ* が提供されます;`.css` や他のタイプをこの方法でデプロイすることはできません + +Comfy の以前のバージョンでは、`__init__.py` が JavaScript ファイルを Comfy メインの web +サブディレクトリにコピーする必要がありました。これを行うコード仍未見かけることがあります。行わないでください。 \ No newline at end of file diff --git a/ja/custom-nodes/backend/lists.mdx b/ja/custom-nodes/backend/lists.mdx new file mode 100644 index 000000000..6a1fd9a01 --- /dev/null +++ b/ja/custom-nodes/backend/lists.mdx @@ -0,0 +1,71 @@ +--- +title: "データリスト" +translationSourceHash: 8b83584c +translationFrom: custom-nodes/backend/lists.mdx, zh-CN/custom-nodes/backend/lists.mdx +--- + +## 長さ 1 の処理 + +内部的には、Comfy サーバーはノード間を流れるデータを、関連するデータ型の Python `list`(通常は長さ 1)として表現します。 +通常の動作では、ノードが出力を返す際、出力 `tuple` 内の各要素は個別にリスト(長さ 1)にラップされます。その後、次のノードが呼び出される際、データはアンラップされてメイン関数に渡されます。 + +Comfy がラップとアンラップを自動で行うため、通常これを気にする必要はありません。 + +これはバッチ処理に関するものではありません。バッチ(例えば、潜変量や画像など)はリスト内の*単一のエントリー*です([テンソルデータタイプ](./images_and_masks) を参照)。 + +## リスト処理 + +場合によっては、単一のワークフロー内で複数のデータインスタンスが処理されることがあり、その場合、内部データはデータインスタンスを含むリストになります。 +例えば、VRAM 不足を防ぐために一連の画像を 1 つずつ処理したり、異なるサイズの画像を扱ったりする場合がこれに該当します。 + +デフォルトでは、Comfy はリスト内の値を順次処理します。 +- 入力が異なる長さの `list` である場合、短い方は最後の値を繰り返してパディングされます +- メインメソッドは、入力リスト内の各値に対して 1 回ずつ呼び出されます +- 出力は `list` であり、それぞれの長さは最も長い入力と同じになります + +関連するコードは、`execution.py` 内の `map_node_over_list` メソッドで見つけることができます。 + +しかし、Comfy はノードの出力を長さ 1 の `list` にラップするため、カスタムノードが返す `tuple` に `list` が含まれている場合、その `list` はラップされ、単一のデータとして扱われます。 +返されるリストをラップせず、順次処理用のデータシリーズとして扱うことを Comfy に指示するには、ノードはクラス属性 `OUTPUT_IS_LIST` を提供する必要があります。これは `RETURN_TYPES` と同じ長さの `tuple[bool]` であり、どの出力をそのように扱うべきかを指定します。 + +ノードはデフォルトの入力動作を上書きし、単一の呼び出しでリスト全体を受け取ることもできます。これは、クラス属性 `INPUT_IS_LIST` を `True` に設定することで実現します。 + +以下は組み込みノードからの(軽く注釈付きの)例です。`ImageRebatch` は 1 つ以上の画像バッチを受け取り(`INPUT_IS_LIST` が `True` であるためリストとして受け取ります)、それを要求されたサイズのバッチに再バッチ処理します。 + +`INPUT_IS_LIST` はノードレベルです。すべての入力が同じ扱いを受けます。そのため、`batch_size` ウィジェットの値は `batch_size[0]` によって得られます。 + +```Python + +class ImageRebatch: + @classmethod + def INPUT_TYPES(s): + return {"required": { "images": ("IMAGE",), + "batch_size": ("INT", {"default": 1, "min": 1, "max": 4096}) }} + RETURN_TYPES = ("IMAGE",) + INPUT_IS_LIST = True + OUTPUT_IS_LIST = (True, ) + FUNCTION = "rebatch" + CATEGORY = "image/batch" + + def rebatch(self, images, batch_size): + batch_size = batch_size[0] # すべてリストとして渡されるため、batch_size は list[int] です + + output_list = [] + all_images = [] + for img in images: # 各 img は画像のバッチです + for i in range(img.shape[0]): # 各 i は単一の画像です + all_images.append(img[i:i+1]) + + for i in range(0, len(all_images), batch_size): # batch_size ごとにチャンクを取り、それぞれを新しいバッチにします + output_list.append(torch.cat(all_images[i:i+batch_size], dim=0)) # 画像バッチの幅または高さが異なる場合、エラーになります! + + return (output_list,) +``` + + + + + + + +#### INPUT_IS_LIST \ No newline at end of file diff --git a/ja/custom-nodes/backend/manager.mdx b/ja/custom-nodes/backend/manager.mdx new file mode 100644 index 000000000..0e94ae237 --- /dev/null +++ b/ja/custom-nodes/backend/manager.mdx @@ -0,0 +1,73 @@ +--- +title: "Manager への公開" +translationSourceHash: 98e7337c +translationFrom: custom-nodes/backend/manager.mdx, zh-CN/custom-nodes/backend/manager.mdx +--- + +{/* +description: "カスタムノードを ComfyUI Manager データベースに公開する方法を理解します。" +*/} + + +{/* +## カスタムノードとは? + +Comfy の素晴らしい点の一つは、ノードベースのアプローチにより、提供されているノードを異なる方法で組み合わせることで、新しいワークフローを開発できることです。組み込みノードは幅広い機能を提供しますが、コアノードでは提供されていない機能が必要だと気づくかもしれません。 + +カスタムノードはコミュニティによって開発されたノードです。これにより、新機能を実装し、より広いコミュニティと共有することができます。カスタムノードの開発に興味がある場合は、[こちら](/custom-nodes/overview) で詳しく読むことができます。 + +## ComfyUI Manager + +カスタムノードは手動でインストールすることもできますが、ほとんどの人は +[ComfyUI Manager](https://github.com/ltdrdata/ComfyUI-Manager) を使用してインストールします。**ComfyUI Manager** は、カスタムノードとその依存関係のインストール、更新、および削除を担当します。しかし、これは Comfy コアの一部ではないため、手動でインストールする必要があります。 + +### ComfyUI Manager のインストール + +```bash +cd ComfyUI/custom_nodes +git clone https://github.com/ltdrdata/ComfyUI-Manager.git +``` + +その後、Comfy を再起動してください。 +詳細や特別なケースについては、[ComfyUI Manager インストール](https://github.com/ltdrdata/ComfyUI-Manager?tab=readme-ov-file#installation) を参照してください。 + +*/} + +### ComfyUI Manager の使用 + +カスタムノードを **ComfyUI Manager** 経由で利用可能にするには、それを git リポジトリ(通常は `github.com`)として保存し、 +その後、**ComfyUI Manager** の git でプルリクエストを提出する必要があります。その中で、ノードを追加するために `custom-node-list.json` を編集します。 +[詳細](https://github.com/ltdrdata/ComfyUI-Manager?tab=readme-ov-file#how-to-register-your-custom-node-into-comfyui-manager)。 + +ユーザーがノードをインストールすると、**ComfyUI Manager** は以下のことを行います: + + + +リポジトリを `git clone` し、 + + +カスタムノードリポジトリ内の `requirements.txt` にリストされている pip 依存関係をインストールします(存在する場合)、 +``` +pip install -r requirements.txt +``` +`pip` を使用する際常にそうであるように、あなたのノードの要件が他のカスタムノードと競合する可能性があります。`requirements.txt` を必要以上に厳しく制限しないでください。 + + +カスタムノードリポジトリに `install.py` が存在する場合、それを実行します。 +`install.py` はカスタムノードのルートパスから実行されます + + + +### ComfyUI Manager ファイル + +上記のように、**ComfyUI Manager** はカスタムノードのライフサイクルを管理するために使用するいくつかのファイルとスクリプトがあります。これらはすべてオプションです。 + +- `requirements.txt` - 上記の Python 依存関係 +- `install.py`, `uninstall.py` - カスタムノードのインストールまたはアンインストール時に実行されます +ユーザーはディレクトリを削除するだけなので、`uninstall.py` が実行されることを依存することはできません +- `disable.py`, `enable.py` - カスタムノードが無効または再有効化されたときに実行されます +`enable.py` は無効なノードが再有効化されたときにのみ実行されます - `disable.py` で行われたことを元に戻すだけです +無効なカスタムノードのサブディレクトリには名前に `.disabled` が追加され、Comfy はこれらのモジュールを無視します +- `node_list.json` - カスタムノードの NODE_CLASS_MAPPINGS のパターンが標準的でない場合にのみ必要です。 + +公式の詳細については、[ComfyUI Manager ガイド](https://github.com/ltdrdata/ComfyUI-Manager?tab=readme-ov-file#custom-node-support-guide) を参照してください。 \ No newline at end of file diff --git a/ja/custom-nodes/backend/more_on_inputs.mdx b/ja/custom-nodes/backend/more_on_inputs.mdx new file mode 100644 index 000000000..80e981511 --- /dev/null +++ b/ja/custom-nodes/backend/more_on_inputs.mdx @@ -0,0 +1,99 @@ +--- +title: "隠蔽入力と柔軟な入力" +translationSourceHash: f65c4438 +translationFrom: custom-nodes/backend/more_on_inputs.mdx, zh-CN/custom-nodes/backend/more_on_inputs.mdx +--- + +## 隠蔽入力 + +クライアント側で対応する入力またはウィジェットを作成する `required` 入力および `optional` 入力に加えて、カスタムノードがサーバーから特定の情報を要求することを可能にする 3 つの `hidden` 入力オプションがあります。 + +これらは、`INPUT_TYPES` の `dict` 内で `hidden` の値を返すことでアクセスされ、署名は `dict[str,str]` であり、`PROMPT`、`EXTRA_PNGINFO`、または `UNIQUE_ID` の 1 つ以上を含みます。 + +```python +@classmethod +def INPUT_TYPES(s): + return { + "required": {...}, + "optional": {...}, + "hidden": { + "unique_id": "UNIQUE_ID", + "prompt": "PROMPT", + "extra_pnginfo": "EXTRA_PNGINFO", + } + } +``` + +### UNIQUE_ID +`UNIQUE_ID` はノードの一意の識別子であり、クライアント側のノードの `id` プロパティと一致します。これは通常、クライアント - サーバー間の通信で使用されます([メッセージ](/development/comfyui-server/comms_messages#getting-node-id) を参照)。 + +### PROMPT +`PROMPT` はクライアントからサーバーに送信された完全なプロンプトです。詳細な説明については [プロンプトオブジェクト](/custom-nodes/js/javascript_objects_and_hijacking#prompt) を参照してください。 + +### EXTRA_PNGINFO +`EXTRA_PNGINFO` は、保存されるすべての `.png` ファイルのメタデータにコピーされる辞書です。カスタムノードは、保存用の追加情報をこの辞書に格納できます(または下流のノードとの通信手段として)。 + +Comfy が `disable_metadata` オプション付きで起動された場合、このデータは保存されないことに注意してください。 + +### DYNPROMPT +`DYNPROMPT` は `comfy_execution.graph.DynamicPrompt` のインスタンスです。これは `PROMPT` と異なり、[ノード拡張](/custom-nodes/backend/expansion) に応じて実行中に変更される可能性があります。 +`DYNPROMPT` は高度なケース(カスタムノード内にループを実装するなど)でのみ使用すべきです。 + +## 柔軟な入力 + +### カスタムデータ型 + +カスタムノード間でデータを渡したい場合、カスタムデータ型を定義すると役立ちます。これは、`CHEESE` のような大文字の一意の文字列をデータ型の名前として選択するだけで(ほぼ)完了します。 + +次に、ノードの `INPUT_TYPES` と `RETURN_TYPES` で `CHEESE` を使用できます。Comfy クライアントは `CHEESE` 出力が `CHEESE` 入力に接続されることのみを許可します。`CHEESE` は任意の Python オブジェクトにできます。 + +注意すべき点は、Comfy クライアントは `CHEESE` について知らないため(`CHEESE` 用のカスタムウィジェットを定義しない限り、これは別の話題です)、それをウィジェットではなく入力として強制する必要があることです。これは、入力オプション辞書内の `forceInput` オプションで行えます: + +```python +@classmethod +def INPUT_TYPES(s): + return { + "required": { "my_cheese": ("CHEESE", {"forceInput":True}) } + } +``` + +### ワイルドカード入力 + +```python +@classmethod +def INPUT_TYPES(s): + return { + "required": { "anything": ("*",{})}, + } + +@classmethod +def VALIDATE_INPUTS(s, input_types): + return True +``` + +フロントエンドでは、入力を任意のソースに接続できることを示すために `*` を使用できます。これはバックエンドで正式にサポートされていないため、`VALIDATE_INPUTS` 関数で `input_types` という名前のパラメータを受け入れることで、型のバックエンド検証をスキップできます。(詳細については [VALIDATE_INPUTS](./server_overview#validate-inputs) を参照。) +渡されたデータを解釈するのはノードの役割です。 + +### 動的に作成された入力 + +入力がクライアント側で動的に作成される場合、それらを Python ソースコードで定義することはできません。このデータにアクセスするには、Comfy が任意の名前でデータを渡せるようにする `optional` 辞書が必要です。Comfy サーバーは + +```python +class ContainsAnyDict(dict): + def __contains__(self, key): + return True +... + +@classmethod +def INPUT_TYPES(s): + return { + "required": {}, + "optional": ContainsAnyDict() + } +... + +def main_method(self, **kwargs): + # 動的に作成された入力データは辞書 kwargs 内になります + +``` +この Python の小技巧について、rgthree さんに感謝します! \ No newline at end of file diff --git a/ja/custom-nodes/backend/node-replacement.mdx b/ja/custom-nodes/backend/node-replacement.mdx new file mode 100644 index 000000000..84bb090e6 --- /dev/null +++ b/ja/custom-nodes/backend/node-replacement.mdx @@ -0,0 +1,227 @@ +--- +title: "ノード置換" +description: "廃止されたノードからの移行をユーザー支援するためにノード置換を登録します" +translationSourceHash: 1d172fb1 +translationFrom: custom-nodes/backend/node-replacement.mdx, zh-CN/custom-nodes/backend/node-replacement.mdx +--- + +ノード置換 API を使用すると、カスタムノード開発者は廃止されたノードから新しい同等のノードへの移行パスを定義できます。ノードを更新または改名すると、ユーザーはワークフローを自動的にアップグレードできます。 + +## 利用シーン + +- **ノードクラス名の変更**: ノードのクラス名を変更した場合(表示名の変更には代わりに `DISPLAY_NAME` を使用してください) +- **ノードの統合**: 複数のノードが 1 つに統合された場合(例:`Load3DAnimation` が `Load3D` に統合) +- **入力のリファクタリング**: バージョン間で入力名またはタイプが変更された場合 +- **タイプミスの修正**: 既存のワークフローを壊さずにノード名を修正する場合 + +## 置換の登録場所 + +拡張機能の `on_load` ライフサイクルフック中に置換を登録します。カスタムノードパッケージ内に専用ファイル(例:`node_replacements.py`)を作成します: + +``` +my_custom_nodes/ +├── __init__.py +├── nodes.py +└── node_replacements.py # ここで置換を登録 +``` + +## 完全な例 + +カスタムノードパッケージ内でノード置換を構造化する方法を示す完全な例は以下の通りです: + +```python +# node_replacements.py +from comfy_api.latest import ComfyExtension, io, ComfyAPI + +api = ComfyAPI() + + +async def register_my_replacements(): + """このパッケージのすべてのノード置換を登録します。""" + + # 単純な改名 - 入力の変更は不要 + await api.node_replacement.register(io.NodeReplace( + new_node_id="MyNewNode", + old_node_id="MyOldNode", + )) + + # 入力マッピング付きの複雑な置換 + await api.node_replacement.register(io.NodeReplace( + new_node_id="MyImprovedSampler", + old_node_id="MyOldSampler", + old_widget_ids=["steps", "cfg"], + input_mapping=[ + {"new_id": "model", "old_id": "model"}, + {"new_id": "num_steps", "old_id": "steps"}, + {"new_id": "guidance", "old_id": "cfg"}, + {"new_id": "scheduler", "set_value": "normal"}, # デフォルト値付きの新入力 + ], + output_mapping=[ + {"new_idx": 0, "old_idx": 0}, + ], + )) + + +class MyExtension(ComfyExtension): + async def on_load(self) -> None: + await register_my_replacements() + + async def get_node_list(self) -> list[type[io.ComfyNode]]: + return [] # ここにはノードは定義されておらず、置換のみ + + +async def comfy_entrypoint() -> MyExtension: + return MyExtension() +``` + +## コアの例 + +ComfyUI コアは組み込みノードの移行にノード置換を使用します。以下は [`comfy_extras/nodes_replacements.py`](https://github.com/Comfy-Org/ComfyUI/blob/master/comfy_extras/nodes_replacements.py) の実際の例です: + +### 単純なノード統合 + +`Load3DAnimation` が `Load3D` に統合された場合: + +```python +await api.node_replacement.register(io.NodeReplace( + new_node_id="Load3D", + old_node_id="Load3DAnimation", +)) +``` + +### タイプミスの修正 + +`SDV_img2vid_Conditioning` → `SVD_img2vid_Conditioning` のタイプミスを修正する場合: + +```python +await api.node_replacement.register(io.NodeReplace( + new_node_id="SVD_img2vid_Conditioning", + old_node_id="SDV_img2vid_Conditioning", +)) +``` + +### デフォルト値付きの入力改名 + +`ImageScaleBy` を `ResizeImageMaskNode` に置換する場合: + +```python +await api.node_replacement.register(io.NodeReplace( + new_node_id="ResizeImageMaskNode", + old_node_id="ImageScaleBy", + old_widget_ids=["upscale_method", "scale_by"], + input_mapping=[ + {"new_id": "input", "old_id": "image"}, + {"new_id": "resize_type", "set_value": "scale by multiplier"}, + {"new_id": "resize_type.multiplier", "old_id": "scale_by"}, + {"new_id": "scale_method", "old_id": "upscale_method"}, + ], +)) +``` + +### Autogrow 入力マッピング + +Autogrow(動的入力)を使用するノードの場合、ドット記法を使用します: + +```python +await api.node_replacement.register(io.NodeReplace( + new_node_id="BatchImagesNode", + old_node_id="ImageBatch", + input_mapping=[ + {"new_id": "images.image0", "old_id": "image1"}, + {"new_id": "images.image1", "old_id": "image2"}, + ], +)) +``` + +## NodeReplace パラメータ + +| パラメータ | タイプ | 説明 | +|-----------|------|-------------| +| `new_node_id` | str | 置換ノードのクラス名 | +| `old_node_id` | str | 廃止されたノードのクラス名 | +| `old_widget_ids` | list[str] \| None | ウィジェット ID を相対インデックスにバインドする順序付きリスト | +| `input_mapping` | list \| None | 入力を旧ノードから新ノードにマッピングする方法 | +| `output_mapping` | list \| None | 出力を旧ノードから新ノードにマッピングする方法 | + +## 入力マッピング + +各入力マッピングエントリーは、入力が旧ノードから新ノードにどのように転送されるかを定義します。 + +**旧入力からマッピング:** +```python +{"new_id": "model", "old_id": "model"} +``` + +**固定値を設定:** +```python +{"new_id": "scheduler", "set_value": "normal"} +``` + +**動的/autogrow 入力をマッピング(ドット記法を使用):** +```python +{"new_id": "images.image0", "old_id": "image1"} +``` + +## 出力マッピング + +出力マッピングはインデックスベースの参照を使用します: + +```python +{"new_idx": 0, "old_idx": 0} # 最初の出力をマッピング +{"new_idx": 1, "old_idx": 0} # 旧出力 0 -> 新出力 1 +``` + +## ウィジェット ID バインディング + +`old_widget_ids` フィールドは、ウィジェット ID を位置インデックスにマッピングします。ワークフロー JSON は ID ではなく位置によってウィジェット値を保存するため、これは必須です。 + +```python +old_widget_ids=["steps", "cfg", "sampler"] +# インデックス 0 のウィジェット = "steps" +# インデックス 1 のウィジェット = "cfg" +# インデックス 2 のウィジェット = "sampler" +``` + +## REST API + +登録されたすべての置換を取得: + +``` +GET /api/node_replacements +``` + +**レスポンス:** +```json +{ + "OldSamplerNode": [ + { + "new_node_id": "NewSamplerNode", + "old_node_id": "OldSamplerNode", + "old_widget_ids": ["num_steps", "cfg_scale", "sampler_name"], + "input_mapping": [ + {"new_id": "model", "old_id": "model"}, + {"new_id": "steps", "old_id": "num_steps"}, + {"new_id": "scheduler", "set_value": "normal"} + ], + "output_mapping": [ + {"new_idx": 0, "old_idx": 0} + ] + } + ] +} +``` + +## フロントエンドの動作 + +ワークフローに廃止されたノードが含まれている場合、フロントエンドは以下を行います: + +1. `GET /api/node_replacements` から置換情報を取得 +2. `old_node_id` に一致するノードを検出 +3. ユーザーにアップグレードを促す +4. 入力/出力マッピングを自動的に適用 +5. 接続とウィジェット値を保持 + +フロントエンドの実装を確認: +- [ビジネスロジック PR #8364](https://github.com/Comfy-Org/ComfyUI_frontend/pull/8364) +- [追加ロジック PR #8483](https://github.com/Comfy-Org/ComfyUI_frontend/pull/8483) +- [UI ビュー PR #8604](https://github.com/Comfy-Org/ComfyUI_frontend/pull/8604) \ No newline at end of file diff --git a/ja/custom-nodes/backend/server_overview.mdx b/ja/custom-nodes/backend/server_overview.mdx new file mode 100644 index 000000000..39e7ea0d8 --- /dev/null +++ b/ja/custom-nodes/backend/server_overview.mdx @@ -0,0 +1,172 @@ +--- +title: "プロパティ" +description: "カスタムノードのプロパティ" +translationSourceHash: 646c7406 +translationFrom: custom-nodes/backend/server_overview.mdx, zh-CN/custom-nodes/backend/server_overview.mdx +translationMismatches: + - "The English source code block under \"Validating Types\" is missing a comma after the `input1` definition, whereas the Chinese reference includes it. I have preserved the English source code exactly as per instructions." +--- + +### 简单示例 + +これは「画像反転ノード」のコードで、カスタムノード開発における主要な概念の概要を示しています。 + +```python +class InvertImageNode: + @classmethod + def INPUT_TYPES(cls): + return { + "required": { "image_in" : ("IMAGE", {}) }, + } + + RETURN_TYPES = ("IMAGE",) + RETURN_NAMES = ("image_out",) + CATEGORY = "examples" + FUNCTION = "invert" + + def invert(self, image_in): + image_out = 1 - image_in + return (image_out,) +``` + +### 主要属性 + +すべてのカスタムノードは Python クラスであり、以下の主要なプロパティを持ちます: + +#### INPUT_TYPES + +`INPUT_TYPES` は、その名が示す通り、ノードの入力を定義します。このメソッドは `dict` を返しますが、`required` キーを_含んでいなければならず_、`optional` および/または `hidden` キーを_含んでもよい_ものです。`required` 入力と `optional` 入力の唯一の違いは、`optional` 入力は接続せずに残しておくことができる点です。 +`hidden` 入力についての詳細は、[隠し入力](./more_on_inputs#hidden-inputs) を参照してください。 + +各キーの値は別の `dict` であり、その中のキーと値のペアが入力の名前と型を指定します。型は `tuple` によって定義され、その最初の要素がデータ型を定義し、2 番目の要素が追加パラメータの `dict` となります。 + +ここでは、`image_in` という名前の `IMAGE` 型の必須入力が 1 つあり、追加パラメータはありません。 + +次のいくつかの属性とは異なり、この `INPUT_TYPES` は `@classmethod` であることに注意してください。これは、ドロップダウンウィジェット内のオプション(例えば、読み込む checkpoint の名前など)を、Comfy によって実行時に計算できるようにするためです。これについては後で詳しく説明します。{/* TODO 執筆後にリンクを追加 */} + +#### RETURN_TYPES + +ノードによって返されるデータ型を定義する `str` の `tuple` です。 +ノードに出力がない場合でも、`RETURN_TYPES = ()` として提供しなければなりません。 +出力が 1 つだけの場合は、末尾のコンマを忘れないでください:`RETURN_TYPES = ("IMAGE",)`。これは Python がそれを `tuple` として認識するために必要です。 + +#### RETURN_NAMES + +出力にラベルを付けるために使用される名前です。これはオプションです。省略された場合、名前は単に `RETURN_TYPES` の小文字形式になります。 + +#### CATEGORY + +ノードが ComfyUI の **ノード追加** メニューのどこに表示されるかを指定します。サブメニューはパスとして指定できます。例:`examples/trivial`。 + +#### FUNCTION + +ノードが実行されたときに呼び出されるべき、クラス内の Python 関数の名前です。 + +この関数は名前付き引数で呼び出されます。すべての `required`(および `hidden`)入力が含まれます。`optional` 入力は接続されている場合にのみ含まれるため、関数定義内でそれらのデフォルト値を提供するか(または `**kwargs` でキャプチャする必要があります)。 + +この関数は `RETURN_TYPES` に対応する tuple を返します。何も返さない場合でも tuple を返す必要があります(`return ()`)。繰り返しますが、出力が 1 つだけの場合は、末尾のコンマ `return (image_out,)` を忘れないでください! + +### 実行制御拡張 + +Comfy の素晴らしい機能の 1 つは、出力をキャッシュし、前回の実行とは異なる結果を生む可能性のあるノードのみを実行することです。これにより、多くのワークフローの速度を大幅に向上させることができます。 + +本質的に、これはどのノードが出力を生成するかを識別すること(特に Image Preview や Save Image ノードなどは常に実行されます)によって機能し、その後、前回の実行以降に変更された可能性のあるデータを提供しているノードを特定するために逆方向に作業します。 + +カスタムノードには、このプロセスを支援する 2 つのオプション機能があります。 + +#### OUTPUT_NODE + +デフォルトでは、ノードは出力とは見なされません。`OUTPUT_NODE = True` を設定して、それが出力ノードであることを指定します。 + +#### IS_CHANGED + +デフォルトでは、入力またはウィジェットのいずれかが変更された場合、Comfy はそのノードが変更されたと見なします。これは通常正しいですが、例えばノードが乱数を使用する場合(かつシードを指定していない場合——この場合はユーザーが再現性を制御し、不要な実行を回避できるようにシード入力を用意するのがベストプラクティスです)、外部で変更された可能性のある入力を読み込む場合、または入力によっては無視する場合(そのため、それらの入力が変わっただけでは実行する必要がない)など、この動作を上書きする必要があるかもしれません。 + +名前にもかかわらず、IS_CHANGED は `bool` を返すべきではありません + +`IS_CHANGED` は `FUNCTION` で定義されたメイン関数と同じ引数を受け取り、任意の Python オブジェクトを返すことができます。このオブジェクトは前回の実行で返されたオブジェクト(ある場合)と比較され、`is_changed != is_changed_old` であればノードは変更されたと見なされます(このコードは `execution.py` にあります)。 + +`True == True` であるため、変更されたことを示すために `True` を返すノードは、変更されていないと見なされてしまいます!既存のノードを壊す可能性があるため、Comfy のコードでこれが修正されない限り、この仕様は変わらないでしょう。 + +ノードが常に変更されたと見なされるように指定する場合(Comfy の実行最適化を阻害するため、可能であれば避けるべきです)、`return float("NaN")` としてください。これは `NaN` 値を返します。`NaN` は、別の `NaN` でさえも、どの値とも等しくありません。 + +実際の変更チェックの良い例は、組み込みの LoadImage ノードのコードで、画像を読み込んでハッシュを返します: +```python + @classmethod + def IS_CHANGED(s, image): + image_path = folder_paths.get_annotated_filepath(image) + m = hashlib.sha256() + with open(image_path, 'rb') as f: + m.update(f.read()) + return m.digest().hex() +``` + +#### SEARCH_ALIASES + +オプション。ユーザーがこのノードを検索する際に使用する可能性のある代替名のリスト。 +これは `/object_info` API レスポンスの `search_aliases` として含まれます。 + +```python +SEARCH_ALIASES = ["text concat", "join text", "merge strings"] +``` + +### その他の属性 + +他にも、ノードに対する Comfy のデフォルトの処理を変更するために使用できる属性が 3 つあります。 + +#### INPUT_IS_LIST, OUTPUT_IS_LIST + +これらはデータの順次処理を制御するために使用され、[後述](./lists) します。 + +### VALIDATE_INPUTS + +クラスメソッド `VALIDATE_INPUTS` が定義されている場合、ワークフローの実行開始前に呼び出されます。 +`VALIDATE_INPUTS` は、入力が有効であれば `True` を返すか、エラーを記述したメッセージ(`str`)を返す必要があります(これにより実行が防止されます)。 + +#### 定数の検証 +`VALIDATE_INPUTS` は、ワークフロー内で定数として定義された入力のみを受け取ることに注意してください。他のノードから受け取られる入力は `VALIDATE_INPUTS` では利用*できません*。 + +`VALIDATE_INPUTS` は、そのシグネチャで要求された入力のみを受け取ります(`inspect.getfullargspec(obj_class.VALIDATE_INPUTS).args` によって返されるもの)。このようにして受け取られる入力は、デフォルトの検証ルールを経由*しません*。例えば、以下のスニペットでは、フロントエンドは `foo` 入力に指定された `min` および `max` 値を使用しますが、バックエンドはそれを強制しません。 + +```python +class CustomNode: + @classmethod + def INPUT_TYPES(cls): + return { + "required": { "foo" : ("INT", {"min": 0, "max": 10}) }, + } + + @classmethod + def VALIDATE_INPUTS(cls, foo): + # YOLO、何でもあり! + return True +``` + +さらに、関数が `**kwargs` 入力を受け取る場合、利用可能な*すべての*入力を受け取り、明示的に指定されたかのように、それらすべてが検証をスキップします。 + +#### 型の検証 + +`VALIDATE_INPUTS` メソッドが `input_types` という名前の引数を受け取る場合、他のノードの出力に接続されている各入力の名前をキーとし、その出力の型を値とする辞書が渡されます。 + +この引数が存在する場合、入力型のすべてのデフォルト検証がスキップされます。これは、フロントエンドで複数の型の指定を許可している事実を利用した例です: + +```python +class AddNumbers: + @classmethod + def INPUT_TYPES(cls): + return { + "required": { + "input1" : ("INT,FLOAT", {"min": 0, "max": 1000}) + "input2" : ("INT,FLOAT", {"min": 0, "max": 1000}) + }, + } + + @classmethod + def VALIDATE_INPUTS(cls, input_types): + # input1 および input2 の min と max は依然として検証されます。 + # `input1` または `input2` を引数として受け取っていないためです + if input_types["input1"] not in ("INT", "FLOAT"): + return "input1 は INT または FLOAT 型である必要があります" + if input_types["input2"] not in ("INT", "FLOAT"): + return "input2 は INT または FLOAT 型である必要があります" + return True \ No newline at end of file diff --git a/ja/custom-nodes/backend/snippets.mdx b/ja/custom-nodes/backend/snippets.mdx new file mode 100644 index 000000000..24eb6e95f --- /dev/null +++ b/ja/custom-nodes/backend/snippets.mdx @@ -0,0 +1,89 @@ +--- +title: "注釈付きの例" +translationSourceHash: 5a16b33d +translationFrom: custom-nodes/backend/snippets.mdx, zh-CN/custom-nodes/backend/snippets.mdx +--- + +サンプルコードの断片コレクションが増え続けています…… + +## 画像とマスク + +### 画像の読み込み + +画像をバッチサイズ 1 として読み込みます(`nodes.py` の `LoadImage` ソースコードに基づきます) +```python +i = Image.open(image_path) +i = ImageOps.exif_transpose(i) +if i.mode == 'I': + i = i.point(lambda i: i * (1 / 255)) +image = i.convert("RGB") +image = np.array(image).astype(np.float32) / 255.0 +image = torch.from_numpy(image)[None,] +``` + +### 画像バッチの保存 + +画像のバッチを保存します(`nodes.py` の `SaveImage` ソースコードに基づきます) +```python +for (batch_number, image) in enumerate(images): + i = 255. * image.cpu().numpy() + img = Image.fromarray(np.clip(i, 0, 255).astype(np.uint8)) + filepath = # バッチ番号を考慮したパス + img.save(filepath) +``` + +### マスクの反転 + +マスクの反転は単純なプロセスです。マスクは [0,1] の範囲に正規化されているため: + +```python +mask = 1.0 - mask +``` + +### マスクを画像形状に変換 + +```Python +# [B,H,W,C] が必要です。ここで C = 1 +if len(mask.shape)==2: # [H,W] のため、B と C を次元 1 として挿入 + mask = mask[None,:,:,None] +elif len(mask.shape)==3 and mask.shape[2]==1: # [H,W,C] の場合 + mask = mask[None,:,:,:] +elif len(mask.shape)==3: # [B,H,W] の場合 + mask = mask[:,:,:,None] +``` + +### マスクを透過層として使用 + +インペインティングやセグメンテーションなどのタスクで使用する場合、MASK の値は最終的に最も近い整数に丸められ、二値になります。0 は無視される領域を示し、1 は対象となる領域を示します。ただし、これは MASK がそれらのノードに渡されるまで発生しません。この柔軟性により、デジタル写真のコンテキストにおける透過層として MASK を使用できます: + +```python +# マスクを元の透過層に戻すために反転 +mask = 1.0 - mask + +# `C`(チャンネル)次元を Unsqueeze +mask = mask.unsqueeze(-1) + +# `C` 次元に沿って結合("cat") +rgba_image = torch.cat((rgb_image, mask), dim=-1) +``` + +## ノイズ + +### ノイズバリエーションの作成 + +これは 2 つのソースからのノイズを混合するノイズオブジェクトを作成する例です。`weight2` を変えることで、わずかなノイズのバリエーションを作成するために使用できます。 + +```python +class Noise_MixedNoise: + def __init__(self, nosie1, noise2, weight2): + self.noise1 = noise1 + self.noise2 = noise2 + self.weight2 = weight2 + + @property + def seed(self): return self.noise1.seed + + def generate_noise(self, input_latent:torch.Tensor) -> torch.Tensor: + noise1 = self.noise1.generate_noise(input_latent) + noise2 = self.noise2.generate_noise(input_latent) + return noise1 * (1.0-self.weight2) + noise2 * (self.weight2) \ No newline at end of file diff --git a/ja/custom-nodes/backend/tensors.mdx b/ja/custom-nodes/backend/tensors.mdx new file mode 100644 index 000000000..48bff85ac --- /dev/null +++ b/ja/custom-nodes/backend/tensors.mdx @@ -0,0 +1,89 @@ +--- +title: "torch.Tensor の操作" +translationSourceHash: 2e0d45b1 +translationFrom: custom-nodes/backend/tensors.mdx, zh-CN/custom-nodes/backend/tensors.mdx +--- + +## pytorch、張量、および torch.Tensor + +Comfy におけるすべての核心的な数値計算は [pytorch](https://pytorch.org/) によって行われています。カスタムノードが stable diffusion の内部構造に深く関わる場合、このライブラリに精通する必要がありますが、それはこの導入文の範囲を大きく超えています。 + +しかし、多くのカスタムノードは画像、潜変量、マスクを操作する必要があり、これらは内部で `torch.Tensor` として表現されているため、[torch.Tensor のドキュメント](https://pytorch.org/docs/stable/tensors.html) をブックマークしておくとよいでしょう。 + +### 張量とは? + +`torch.Tensor` は張量を表します。張量は、ベクトルや行列を任意の次元数に一般化した数学的な概念です。張量の _秩_(rank)はそれが持つ次元の数であり(つまりベクトルは _秩_ 1、行列は _秩_ 2)、_形状_(shape)は各次元のサイズを記述します。 + +したがって、RGB 画像(高さ H、幅 W)は、3 つの配列(各色チャンネルごとに 1 つ)であり、それぞれが H x W であるため、_形状_ `[H,W,3]` の張量として表現できると考えられます。Comfy では、画像はほぼ常にバッチとして扱われます(バッチに画像が 1 枚しか含まれていない場合でも)。`torch` は常にバッチ次元を最初に配置するため、Comfy の画像の _形状_ は `[B,H,W,3]` となり、通常は C をチャンネル(Channels)を表すものとして `[B,H,W,C]` と記述されます。 + +### squeeze、unsqueeze、および reshape + +張量の次元のサイズが 1 である場合(縮退次元と呼ばれます)、その次元を削除した張量と同じものとなります(バッチに画像が 1 枚しかない場合は、単なる画像です)。このような縮退次元を削除することを squeezing(スクイーズ)と呼び、挿入することを unsqueezing(アンスクイーズ)と呼びます。 + +一部の torch コードやカスタムノードの作者は、次元が縮退している場合に squeezed された張量を返すことがあります——例えばバッチにメンバーが 1 つしかない場合などです。これはバグの一般的な原因となります! + +同じデータを異なる形状で表現することを reshape(リシェイプ)と呼びます。これには多くの場合、基礎となるデータ構造を知る必要があるため、注意して扱ってください! + +### 重要な記法 + +`torch.Tensor` は、ほとんどの Python のスライス記法、イテレーション、以及其他常见的类列表操作 (その他の一般的なリストのような操作) をサポートしています。張量には `.shape` 属性もあり、サイズを `torch.Size` として返します(これは `tuple` のサブクラスであり、そのように扱えます)。 + +他にも、よく目にする重要な記法がいくつかあります(これらのいくつかは標準的な Python の記法としてはあまり一般的ではありませんが、張量を扱う際には非常に頻繁に見られます) + +- `torch.Tensor` はスライス記法において `None` を使用して、サイズ 1 の次元の挿入を示すことができます。 +- `:` は張量をスライスする際によく使用されます。これは単に「次元全体を保持する」ことを意味します。Python の `a[start:end]` を使用するようなものですが、開始点と終点を省略した形です。 +- `...` は「指定されていない数の次元全体」を表します。したがって、`a[0, ...]` は次元の数に関係なく、バッチから最初のアイテムを抽出します。 +- 形状の受け渡しを必要とするメソッドでは、しばしば次元の `tuple` として渡され、その中で単一の次元にサイズ `-1` を指定できます。これは、この次元のサイズがデータの総サイズに基づいて計算されるべきであることを示します。 + +```python +>>> a = torch.Tensor((1,2)) +>>> a.shape +torch.Size([2]) +>>> a[:,None].shape +torch.Size([2, 1]) +>>> a.reshape((1,-1)).shape +torch.Size([1, 2]) +``` + +### 要素ごとの操作 + +`torch.Tensor` における多くの二項演算('+', '-', '*', '/'、'==' などを含む)は要素ごとに適用されます(各要素に独立して適用されます)。オペランドは、同じ形状の 2 つの張量 _または_ 張量とスカラーの _いずれか_ でなければなりません。したがって: + +```python +>>> import torch +>>> a = torch.Tensor((1,2)) +>>> b = torch.Tensor((3,2)) +>>> a*b +tensor([3., 4.]) +>>> a/b +tensor([0.3333, 1.0000]) +>>> a==b +tensor([False, True]) +>>> a==1 +tensor([ True, False]) +>>> c = torch.Tensor((3,2,1)) +>>> a==c +Traceback (most recent call last): + File "", line 1, in +RuntimeError: The size of tensor a (2) must match the size of tensor b (3) at non-singleton dimension 0 +``` + +### 張量の真偽値 + +張量の「真偽値(truthiness)」は Python リストのそれと同じではありません。 + +Python リストの真偽値については馴染みがあるかもしれません。空でないリストは `True`、`None` または `[]` は `False` となります。対照的に、`torch.Tensor`(要素が 2 つ以上ある場合)には定義された真偽値がありません。代わりに、`.all()` または `.any()` を使用して要素ごとの真偽値を結合する必要があります: + +```python +>>> a = torch.Tensor((1,2)) +>>> print("yes" if a else "no") +Traceback (most recent call last): + File "", line 1, in +RuntimeError: Boolean value of Tensor with more than one value is ambiguous +>>> a.all() +tensor(False) +>>> a.any() +tensor(True) +``` + +これはつまり、張量変数が設定されているかどうかを判定するには、`if a:` ではなく `if a is not None:` を使用する必要があることを意味します。 \ No newline at end of file diff --git a/ja/custom-nodes/help_page.mdx b/ja/custom-nodes/help_page.mdx new file mode 100644 index 000000000..e604d411f --- /dev/null +++ b/ja/custom-nodes/help_page.mdx @@ -0,0 +1,72 @@ +--- +title: "ComfyUI カスタムノード用のノードドキュメントを追加する" +sidebarTitle: "ノードドキュメント" +description: "カスタムノード用の豊富なドキュメントを作成する方法" +translationSourceHash: e95b7155 +translationFrom: custom-nodes/help_page.mdx, zh-CN/custom-nodes/help_page.mdx +translationMismatches: + - "Frontmatter description: English says \"custom nodes\", Chinese says \"内置节点\" (built-in nodes). Translated based on English." +--- + +## Markdown によるノードドキュメント + +カスタムノードには豊富な Markdown ドキュメントを含めることができ、一般的なノード説明の代わりに UI に表示されます。これにより、ユーザーはノードの機能、パラメータ、使用例に関する詳細情報を入手できます。 + +ノード定義ですでに各パラメータのツールチップを追加している場合、この基本情報はノードドキュメントパネルから直接アクセスできます。 +追加のノードドキュメントを追加する必要はなく、[ContextWindowsManualNode](https://github.com/comfyanonymous/ComfyUI/blob/master/comfy_extras/nodes_context_windows.py#L7) の関連実装を参照できます。 + +## 設定 + +カスタムノードのドキュメント或多言語サポートドキュメントを追加するには: + +1. `WEB_DIRECTORY` 内に `docs` フォルダを作成します +2. ノード名にちなんで命名された Markdown ファイルを追加します(ノード名は、ノードを登録するために使用される `NODE_CLASS_MAPPINGS` 辞書の辞書キーです): + - `WEB_DIRECTORY/docs/NodeName.md` - デフォルトドキュメント + - `WEB_DIRECTORY/docs/NodeName/en.md` - 英語ドキュメント + - `WEB_DIRECTORY/docs/NodeName/zh.md` - 中国語ドキュメント + - 必要に応じて他のロケールを追加します(例:`fr.md`、`de.md` など) + +システムはユーザーのロケールに基づいて適切なドキュメントを自動的に読み込み、ローカライズされたバージョンが利用できない場合は `NodeName.md` にフォールバックします。 + +## サポートされている Markdown 機能 + +- 標準 Markdown 構文(見出し、リスト、コードブロックなど) +- Markdown 構文を使用した画像:`![代替テキスト](image.png)` +- 特定の属性を持つ HTML メディア要素: + - `