Traceback (most recent call last): File "/home/ubuntu/miniconda3/envs/llama/bin/llamafactory-cli", line 8, in <module> sys.exit(main()) ^^^^^^ File "/home/ubuntu/LLaMA-Factory/src/llamafactory/cli.py", line 130, in main process = subprocess.run( ^^^^^^^^^^^^^^^ File "/home/ubuntu/miniconda3/envs/llama/lib/python3.11/subprocess.py", line 571, in run raise CalledProcessError(retcode, process.args, subprocess.CalledProcessError: Command '['torchrun', '--nnodes', '1', '--node_rank', '0', '--nproc_per_node', '4', '--master_addr', '127.0.0.1', '--master_port', '51531', '/home/ubuntu/LLaMA-Factory/src/llamafactory/launcher.py', 'examples/train_qlora/qwen_lora_sft_bitsandbytes.yaml']' returned non-zero exit status 1. 解决方法?

时间: 2025-07-20 13:29:26 浏览: 14
<think>我们正在解决使用LLaMA-Factory进行训练时出现的torchrun子进程错误(错误提示:llamafactory-cli torchrun subprocess error exit status 1)。这个错误通常与分布式训练环境配置、资源不足或代码问题有关。以下将分步骤解决: ### 步骤1: 确认环境配置 首先检查CUDA、PyTorch和LLaMA-Factory的版本兼容性: ```bash # 检查CUDA版本 nvcc --version # 检查PyTorch版本 python -c "import torch; print(torch.__version__)" ``` 确保: - PyTorch版本与CUDA版本匹配(例如PyTorch 2.0+需要CUDA 11.8+) - LLaMA-Factory为最新版(可运行`pip install -U llama-factory`升级) ### 步骤2: 检查资源占用 错误可能由GPU内存不足引起。在运行训练前监控资源: ```bash # 查看GPU使用情况 nvidia-smi # 减少batch_size或使用梯度累积 # 在LLaMA-Factory的配置中设置: # per_device_train_batch_size=4 # gradient_accumulation_steps=8 ``` ### 步骤3: 调试分布式启动命令 使用`torchrun`启动分布式训练时,错误可能源于参数配置。尝试简化命令: ```bash # 原始命令示例(可能因配置复杂而出错) torchrun --nproc_per_node=4 --master_port=20001 train_bash.py ... # 改为单卡调试模式(排除分布式问题) CUDA_VISIBLE_DEVICES=0 python train_bash.py \ --stage sft \ --model_name_or_path path/to/llama-7b \ --do_train \ --dataset alpaca_gpt4_en \ --output_dir output \ --overwrite_cache \ --per_device_train_batch_size 4 \ --gradient_accumulation_steps 8 \ --lr_scheduler_type cosine \ --logging_steps 10 \ --save_steps 1000 \ --learning_rate 5e-5 \ --num_train_epochs 3.0 \ --fp16 ``` ### 步骤4: 查看详细错误日志 启用LLaMA-Factory的详细日志输出,定位具体错误位置: ```python # 在train_bash.py中添加 import logging logging.basicConfig(level=logging.DEBUG) ``` 或通过命令行捕获错误: ```bash # 将标准错误输出重定向到文件 torchrun ... 2> error.log ``` ### 步骤5: 常见错误解决方案 根据日志中出现的具体错误类型处理: | 错误类型 | 解决方案 | |---------------------------|--------------------------------------------------------------------------| | CUDA out of memory | 减少`per_device_train_batch_size`,增加`gradient_accumulation_steps` | | NCCL timeout | 添加环境变量`export NCCL_IB_TIMEOUT=1000` | | 端口冲突 | 更换`--master_port`值(如20001→20002) | | 不兼容的tokenizer | 检查`model_name_or_path`是否包含正确的tokenizer配置 | ### 完整调试流程 ```mermaid graph TD A[启动训练] --> B{是否出现错误?} B -->|是| C[查看错误日志] C --> D[识别错误类型] D --> E[应用对应解决方案] E --> A B -->|否| F[正常训练] ``` ### 验证修复 成功运行后,使用最小数据集验证: ```bash torchrun --nproc_per_node=1 train_bash.py \ --stage sft \ --model_name_or_path path/to/llama-7b \ --dataset alpaca_gpt4_en \ --output_dir output \ --per_device_train_batch_size 1 \ --max_samples 10 # 仅用10条数据测试 ``` §§相关问题§§ 1. 如何调整LLaMA-Factory的超参数以提升训练效率? 2. LLaMA-Factory支持哪些分布式训练策略? 3. 训练过程中如何监控GPU显存使用情况?</think>### 解决 LLaMA-Factory 训练中的 torchrun 子进程错误 (exit status 1) 当在 LLaMA-Factory 训练中出现 `llamafactory-cli torchrun subprocess error exit status 1` 错误时,通常由以下原因引起,以下是系统性的解决方案: --- #### 1. **分布式训练配置错误** [^1][^3] 这是最常见的问题,需检查: ```bash # 确认 master 地址和端口可用性 nc -zv localhost 29500 # 测试默认端口 # 正确启动命令示例(单机多卡) torchrun \ --nproc_per_node=2 \ # 每台机器使用的GPU数 --nnodes=1 \ # 总机器数 --master_addr=127.0.0.1 \ # 主节点IP --master_port=29501 \ # 避免冲突的端口 train_bash.py \ --stage sft \ # 训练阶段 --model_name_or_path meta-llama/Llama-2-7b-hf \ --dataset alpaca_en \ --output_dir ./output ``` > **关键参数**: > - `--nproc_per_node` 必须 ≤ 实际GPU数量 > - `--master_port` 需确保未被占用(更换为 29502/29503 等) > - 多机训练时需配置相同的 `--master_addr` --- #### 2. **GPU 资源不足** [^2] 错误可能由显存溢出导致: ```bash # 监控显存使用 nvidia-smi -l 1 # 每秒刷新 # 解决方案: export CUDA_VISIBLE_DEVICES=0,1 # 限制使用特定GPU 降低 batch_size(在 train_bash.py 中添加 --per_device_train_batch_size 8) 启用梯度累积:--gradient_accumulation_steps 4 ``` > **优化建议**: > ```python > # 在 train_bash.py 中添加 > training_args = TrainingArguments( > per_device_train_batch_size=4, # 减小batch > gradient_accumulation_steps=8, # 累积梯度 > fp16=True, # 混合精度训练 > deepspeed="ds_config.json" # 启用DeepSpeed > ) > ``` --- #### 3. **依赖版本冲突** [^1] 检查关键库版本兼容性: ```bash # 验证版本匹配 pip list | grep -E "torch|transformers|accelerate" # 应满足: # torch==2.1.0+cu118 # transformers==4.36.2 # accelerate==0.25.0 ``` **解决方案**: ```bash # 创建纯净环境 conda create -n llama-factory python=3.10 pip install torch==2.1.0+cu118 -f https://download.pytorch.org/whl/torch_stable.html pip install git+https://github.com/hiyouga/LLaMA-Factory.git ``` --- #### 4. **数据集加载错误** [^2] 当 `stage="pt"` 预训练数据加载失败时: ```python # 在 llamafactory/train/pt/workflow.py 中调试 tokenizer = load_tokenizer(model_args) print("Tokenizer loaded successfully") # 添加检查点 dataset = get_dataset(tokenizer, model_args, data_args, training_args, stage="pt") print(f"Dataset loaded: {len(dataset)} samples") # 验证数据 ``` **数据问题修复**: 1. 确保数据集路径正确 2. 检查数据格式是否符合要求 3. 添加 `--dataset_dir ./custom_data` 参数 --- #### 5. **系统级调试** 若仍无法解决,启用详细日志: ```bash # 捕获详细错误信息 NCCL_DEBUG=INFO \ TORCH_DISTRIBUTED_DEBUG=DETAIL \ torchrun ... 2> error.log ``` **错误日志分析重点**: - `CUDA out of memory` → 减小 batch size - `Connection refused` → 检查端口/IP - `NCCL error` → 更新 NCCL 库 --- ### 完整解决流程 ```mermaid graph TD A[出现错误] --> B{检查日志} B -->|资源不足| C[减小batch size/用DeepSpeed] B -->|端口冲突| D[更换master_port] B -->|依赖冲突| E[创建纯净环境] B -->|数据加载失败| F[验证数据集] C --> G[重新训练] D --> G E --> G F --> G G --> H[训练成功] ```
阅读全文

相关推荐

(py27) dwh@PC:~$ pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple Traceback (most recent call last): File "/home/dwh/ProgramFiles/anaconda3/envs/py27/bin/pip", line 6, in <module> from pip._internal.cli.main import main ImportError: No module named pip._internal.cli.main (py27) dwh@PC:~$ pip install opencv-python==4.2.0.32 Traceback (most recent call last): File "/home/dwh/ProgramFiles/anaconda3/envs/py27/bin/pip", line 6, in <module> from pip._internal.cli.main import main ImportError: No module named pip._internal.cli.main (py27) dwh@PC:~$ pip install networkx Traceback (most recent call last): File "/home/dwh/ProgramFiles/anaconda3/envs/py27/bin/pip", line 6, in <module> from pip._internal.cli.main import main ImportError: No module named pip._internal.cli.main (py27) dwh@PC:~$ pip install rospkg Traceback (most recent call last): File "/home/dwh/ProgramFiles/anaconda3/envs/py27/bin/pip", line 6, in <module> from pip._internal.cli.main import main ImportError: No module named pip._internal.cli.main (py27) dwh@PC:~$ pip install rospy Traceback (most recent call last): File "/home/dwh/ProgramFiles/anaconda3/envs/py27/bin/pip", line 6, in <module> from pip._internal.cli.main import main ImportError: No module named pip._internal.cli.main (py27) dwh@PC:~$ pip install simple_pid Traceback (most recent call last): File "/home/dwh/ProgramFiles/anaconda3/envs/py27/bin/pip", line 6, in <module> from pip._internal.cli.main import main ImportError: No module named pip._internal.cli.main (py27) dwh@PC:~$ pip install transforms3d Traceback (most recent call last): File "/home/dwh/ProgramFiles/anaconda3/envs/py27/bin/pip", line 6, in <module> from pip._internal.cli.main import main ImportError: No module named pip._internal.cli.main (py27) dwh@PC:~$ pip install networkx Traceback (most recent call last): File "/home/dwh/ProgramFiles/anaconda3/envs/py27/bin/pip", line 6, in <module> from pip._internal.cli.main import main ImportError: No module named pip._internal.cli.main (py27) dwh@PC:~$ pip install enum Traceback (most recent call last): File "/home/dwh/ProgramFiles/anaconda3/envs/py27/bin/pip", line 6, in <module> from pip._internal.cli.main import main ImportError: No module named pip._internal.cli.main (py27) dwh@PC:~$ pip install pygame Traceback (most recent call last): File "/home/dwh/ProgramFiles/anaconda3/envs/py27/bin/pip", line 6, in <module> from pip._internal.cli.main import main ImportError: No module named pip._internal.cli.main

(gguf-env-video) ubuntu@ubuntu-Lenovo-Product:~$ python 桌面/awa.py /home/ubuntu/miniconda3/envs/gguf-env-video/lib/python3.10/site-packages/awq/__init__.py:21: DeprecationWarning: I have left this message as the final dev message to help you transition. Important Notice: - AutoAWQ is officially deprecated and will no longer be maintained. - The last tested configuration used Torch 2.6.0 and Transformers 4.51.3. - If future versions of Transformers break AutoAWQ compatibility, please report the issue to the Transformers project. Alternative: - AutoAWQ has been adopted by the vLLM Project: https://github.com/vllm-project/llm-compressor For further inquiries, feel free to reach out: - X: https://x.com/casper_hansen_ - LinkedIn: https://www.linkedin.com/in/casper-hansen-804005170/ warnings.warn(_FINAL_DEV_MESSAGE, category=DeprecationWarning, stacklevel=1) Traceback (most recent call last): File "/home/ubuntu/桌面/awa.py", line 1, in <module> from awq import AutoAWQForCausalLM File "/home/ubuntu/miniconda3/envs/gguf-env-video/lib/python3.10/site-packages/awq/__init__.py", line 24, in <module> from awq.models.auto import AutoAWQForCausalLM File "/home/ubuntu/miniconda3/envs/gguf-env-video/lib/python3.10/site-packages/awq/models/__init__.py", line 18, in <module> from .qwen3 import Qwen3AWQForCausalLM File "/home/ubuntu/miniconda3/envs/gguf-env-video/lib/python3.10/site-packages/awq/models/qwen3.py", line 4, in <module> from transformers.models.qwen3.modeling_qwen3 import ( ModuleNotFoundError: No module named 'transformers.models.qwen3'根据上面的步骤运行提示

现在的运行结果(gguf-env-video) ubuntu@ubuntu-Lenovo-Product:~$ python 桌面/awa.py /home/ubuntu/miniconda3/envs/gguf-env-video/lib/python3.10/site-packages/awq/__init__.py:21: DeprecationWarning: I have left this message as the final dev message to help you transition. Important Notice: - AutoAWQ is officially deprecated and will no longer be maintained. - The last tested configuration used Torch 2.6.0 and Transformers 4.51.3. - If future versions of Transformers break AutoAWQ compatibility, please report the issue to the Transformers project. Alternative: - AutoAWQ has been adopted by the vLLM Project: https://github.com/vllm-project/llm-compressor For further inquiries, feel free to reach out: - X: https://x.com/casper_hansen_ - LinkedIn: https://www.linkedin.com/in/casper-hansen-804005170/ warnings.warn(_FINAL_DEV_MESSAGE, category=DeprecationWarning, stacklevel=1) Traceback (most recent call last): File "/home/ubuntu/桌面/awa.py", line 2, in <module> model = AutoAWQForCausalLM.from_quantized("/home/ubuntu/.cache/modelscope/hub/models/iic/QwenLong-L1-32B-AWQ") File "/home/ubuntu/miniconda3/envs/gguf-env-video/lib/python3.10/site-packages/awq/models/auto.py", line 125, in from_quantized return AWQ_CAUSAL_LM_MODEL_MAP[model_type].from_quantized( File "/home/ubuntu/miniconda3/envs/gguf-env-video/lib/python3.10/site-packages/awq/models/base.py", line 504, in from_quantized best_device = get_best_device() File "/home/ubuntu/miniconda3/envs/gguf-env-video/lib/python3.10/site-packages/awq/utils/utils.py", line 100, in get_best_device elif torch.xpu.is_available(): File "/home/ubuntu/miniconda3/envs/gguf-env-video/lib/python3.10/site-packages/torch/__init__.py", line 1938, in __getattr__ raise AttributeError(f"module '{__name__}' has no attribute '{name}'") AttributeError: module 'torch' has no attribute 'xpu'

Traceback (most recent call last): File "/home/adv/anaconda3/envs/llamaFactory/bin/llamafactory-cli", line 8, in <module> sys.exit(main()) File "/home/adv/LLaMA-Factory/src/llamafactory/cli.py", line 112, in main run_exp() File "/home/adv/LLaMA-Factory/src/llamafactory/train/tuner.py", line 93, in run_exp _training_function(config={"args": args, "callbacks": callbacks}) File "/home/adv/LLaMA-Factory/src/llamafactory/train/tuner.py", line 67, in _training_function run_sft(model_args, data_args, training_args, finetuning_args, generating_args, callbacks) File "/home/adv/LLaMA-Factory/src/llamafactory/train/sft/workflow.py", line 52, in run_sft model = load_model(tokenizer, model_args, finetuning_args, training_args.do_train) File "/home/adv/LLaMA-Factory/src/llamafactory/model/loader.py", line 160, in load_model model = load_class.from_pretrained(**init_kwargs) File "/home/adv/anaconda3/envs/llamaFactory/lib/python3.10/site-packages/transformers/models/auto/auto_factory.py", line 558, in from_pretrained return model_class.from_pretrained( File "/home/adv/anaconda3/envs/llamaFactory/lib/python3.10/site-packages/transformers/modeling_utils.py", line 3820, in from_pretrained dispatch_model(model, **device_map_kwargs) File "/home/adv/anaconda3/envs/llamaFactory/lib/python3.10/site-packages/accelerate/big_modeling.py", line 498, in dispatch_model model.to(device) File "/home/adv/anaconda3/envs/llamaFactory/lib/python3.10/site-packages/transformers/modeling_utils.py", line 2702, in to raise ValueError( ValueError: .to is not supported for 4-bit or 8-bit bitsandbytes models. Please use the model as it is, since the model has already been set to the correct devices and casted to the correct dtype.

(gguf-env-video) ubuntu@ubuntu-Lenovo-Product:~$ python 桌面/awa.py No CUDA found, replace GEMM with IPEX version to support non-cuda AWQ model. Traceback (most recent call last): File "/home/ubuntu/桌面/awa.py", line 1, in <module> from awq import AutoAWQForCausalLM File "/home/ubuntu/桌面/awq.py", line 4, in <module> model = AutoModelForCausalLM.from_pretrained( File "/home/ubuntu/miniconda3/envs/gguf-env-video/lib/python3.10/site-packages/transformers/models/auto/auto_factory.py", line 600, in from_pretrained return model_class.from_pretrained( File "/home/ubuntu/miniconda3/envs/gguf-env-video/lib/python3.10/site-packages/transformers/modeling_utils.py", line 311, in _wrapper return func(*args, **kwargs) File "/home/ubuntu/miniconda3/envs/gguf-env-video/lib/python3.10/site-packages/transformers/modeling_utils.py", line 4794, in from_pretrained hf_quantizer.preprocess_model( File "/home/ubuntu/miniconda3/envs/gguf-env-video/lib/python3.10/site-packages/transformers/quantizers/base.py", line 225, in preprocess_model return self._process_model_before_weight_loading(model, **kwargs) File "/home/ubuntu/miniconda3/envs/gguf-env-video/lib/python3.10/site-packages/transformers/quantizers/quantizer_awq.py", line 113, in _process_model_before_weight_loading model, has_been_replaced = replace_with_awq_linear( File "/home/ubuntu/miniconda3/envs/gguf-env-video/lib/python3.10/site-packages/transformers/integrations/awq.py", line 153, in replace_with_awq_linear from awq.modules.linear.gemm_ipex import WQLinear_IPEX ModuleNotFoundError: No module named 'awq.modules'; 'awq' is not a package

llamafactory-cli version /home/we/anaconda3/envs/myenv/lib/python3.10/site-packages/torch/cuda/__init__.py:287: UserWarning: NVIDIA GeForce RTX 5060 Laptop GPU with CUDA capability sm_120 is not compatible with the current PyTorch installation. The current PyTorch install supports CUDA capabilities sm_50 sm_60 sm_70 sm_75 sm_80 sm_86 sm_90. If you want to use the NVIDIA GeForce RTX 5060 Laptop GPU GPU with PyTorch, please check the instructions at https://pytorch.org/get-started/locally/ warnings.warn( Traceback (most recent call last): File "/home/we/anaconda3/envs/myenv/bin/llamafactory-cli", line 8, in <module> sys.exit(main()) File "/home/we/LLaMA-Factory/src/llamafactory/cli.py", line 47, in main from .webui.interface import run_web_demo, run_web_ui File "/home/we/LLaMA-Factory/src/llamafactory/webui/interface.py", line 21, in <module> from .components import ( File "/home/we/LLaMA-Factory/src/llamafactory/webui/components/__init__.py", line 15, in <module> from .chatbot import create_chat_box File "/home/we/LLaMA-Factory/src/llamafactory/webui/components/chatbot.py", line 25, in <module> import gradio as gr File "/home/we/anaconda3/envs/myenv/lib/python3.10/site-packages/gradio/__init__.py", line 3, in <module> import gradio._simple_templates File "/home/we/anaconda3/envs/myenv/lib/python3.10/site-packages/gradio/_simple_templates/__init__.py", line 1, in <module> from .simpledropdown import SimpleDropdown File "/home/we/anaconda3/envs/myenv/lib/python3.10/site-packages/gradio/_simple_templates/simpledropdown.py", line 7, in <module> from gradio.components.base import Component, FormComponent File "/home/we/anaconda3/envs/myenv/lib/python3.10/site-packages/gradio/components/__init__.py", line 1, in <module> from gradio.components.annotated_image import AnnotatedImage File "/home/we/anaconda3/envs/myenv/lib/python3.10/site-packages/gradio/components/annotated_image.py", line 14, in <module> from gr

/home/kitty/miniconda3/envs/rknn/bin/python /home/kitty/software/pycharm-community-2023.1/plugins/python-ce/helpers/pydev/pydevd.py --multiprocess --qt-support=auto --client 127.0.0.1 --port 33875 --file /home/kitty/rknn/zuoye/plate_detection_recongnition_yolov5/1.py Connected to pydev debugger (build 231.8109.197) Traceback (most recent call last): File "/home/kitty/miniconda3/envs/rknn/lib/python3.8/site-packages/pytesseract/pytesseract.py", line 275, in run_tesseract proc = subprocess.Popen(cmd_args, **subprocess_args()) File "/home/kitty/miniconda3/envs/rknn/lib/python3.8/subprocess.py", line 858, in __init__ self._execute_child(args, executable, preexec_fn, close_fds, File "/home/kitty/miniconda3/envs/rknn/lib/python3.8/subprocess.py", line 1720, in _execute_child raise child_exception_type(errno_num, err_msg, err_filename) FileNotFoundError: [Errno 2] 没有那个文件或目录: 'tesseract' During handling of the above exception, another exception occurred: Traceback (most recent call last): File "/home/kitty/miniconda3/envs/rknn/lib/python3.8/contextlib.py", line 131, in __exit__ self.gen.throw(type, value, traceback) File "/home/kitty/miniconda3/envs/rknn/lib/python3.8/site-packages/pytesseract/pytesseract.py", line 217, in save yield f.name, input_file_name File "/home/kitty/miniconda3/envs/rknn/lib/python3.8/site-packages/pytesseract/pytesseract.py", line 352, in run_and_get_output run_tesseract(**kwargs) File "/home/kitty/miniconda3/envs/rknn/lib/python3.8/site-packages/pytesseract/pytesseract.py", line 280, in run_tesseract raise TesseractNotFoundError() pytesseract.pytesseract.TesseractNotFoundError: tesseract is not installed or it's not in your PATH. See README file for more information. Process finished with exit code 1

vision@gpunode5:~$ conda create --name paddle python==3.10 Collecting package metadata (current_repodata.json): failed # >>>>>>>>>>>>>>>>>>>>>> ERROR REPORT <<<<<<<<<<<<<<<<<<<<<< Traceback (most recent call last): File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/core/subdir_data.py", line 719, in fetch_repodata_remote_request resp.raise_for_status() File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/requests/models.py", line 1024, in raise_for_status raise HTTPError(http_error_msg, response=self) requests.exceptions.HTTPError: 404 Client Error: Not Found for url: https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/noarch/current_repodata.json During handling of the above exception, another exception occurred: Traceback (most recent call last): File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/requests/models.py", line 974, in json return complexjson.loads(self.text, **kwargs) File "/home/vision/.local/lib/python3.8/site-packages/simplejson-3.17.5-py3.8-linux-x86_64.egg/simplejson/__init__.py", line 525, in loads return _default_decoder.decode(s) File "/home/vision/.local/lib/python3.8/site-packages/simplejson-3.17.5-py3.8-linux-x86_64.egg/simplejson/decoder.py", line 370, in decode obj, end = self.raw_decode(s) File "/home/vision/.local/lib/python3.8/site-packages/simplejson-3.17.5-py3.8-linux-x86_64.egg/simplejson/decoder.py", line 400, in raw_decode return self.scan_once(s, idx=_w(s, idx).end()) simplejson.errors.JSONDecodeError: Expecting value: line 1 column 1 (char 0) During handling of the above exception, another exception occurred: Traceback (most recent call last): File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/exceptions.py", line 1125, in __call__ return func(*args, **kwargs) File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/cli/main.py", line 86, in main_subshell exit_code = do_call(args, p) File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/cli/conda_argparse.py", line 93, in do_call return getattr(module, func_name)(args, parser) File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/notices/core.py", line 72, in wrapper return_value = func(*args, **kwargs) File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/cli/main_create.py", line 43, in execute install(args, parser, 'create') File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/cli/install.py", line 256, in install unlink_link_transaction = solver.solve_for_transaction( File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/core/solve.py", line 152, in solve_for_transaction unlink_precs, link_precs = self.solve_for_diff(update_modifier, deps_modifier, File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/core/solve.py", line 195, in solve_for_diff final_precs = self.solve_final_state(update_modifier, deps_modifier, prune, ignore_pinned, File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/core/solve.py", line 300, in solve_final_state ssc = self._collect_all_metadata(ssc) File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/common/io.py", line 86, in decorated return f(*args, **kwds) File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/core/solve.py", line 463, in _collect_all_metadata index, r = self._prepare(prepared_specs) File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/core/solve.py", line 1057, in _prepare reduced_index = get_reduced_index(self.prefix, self.channels, File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/core/index.py", line 297, in get_reduced_index new_records = SubdirData.query_all(spec, channels=channels, subdirs=subdirs, File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/core/subdir_data.py", line 152, in query_all result = tuple(concat(executor.map(subdir_query, channel_urls))) File "/home/vision/jnf/anaconda3/lib/python3.8/concurrent/futures/_base.py", line 611, in result_iterator yield fs.pop().result() File "/home/vision/jnf/anaconda3/lib/python3.8/concurrent/futures/_base.py", line 432, in result return self.__get_result() File "/home/vision/jnf/anaconda3/lib/python3.8/concurrent/futures/_base.py", line 388, in __get_result raise self._exception File "/home/vision/jnf/anaconda3/lib/python3.8/concurrent/futures/thread.py", line 57, in run result = self.fn(*self.args, **self.kwargs) File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/core/subdir_data.py", line 144, in <lambda> subdir_query = lambda url: tuple(SubdirData(Channel(url), repodata_fn=repodata_fn).query( File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/core/subdir_data.py", line 157, in query self.load() File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/core/subdir_data.py", line 222, in load _internal_state = self._load() File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/core/subdir_data.py", line 387, in _load raw_repodata_str = fetch_repodata_remote_request( File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/core/subdir_data.py", line 775, in fetch_repodata_remote_request raise UnavailableInvalidChannel( File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/conda/exceptions.py", line 460, in __init__ body = response.json() File "/home/vision/jnf/anaconda3/lib/python3.8/site-packages/requests/models.py", line 978, in json raise RequestsJSONDecodeError(e.msg, e.doc, e.pos) requests.exceptions.JSONDecodeError: Expecting value: line 1 column 1 (char 0) $ /home/vision/jnf/anaconda3/bin/conda create --name paddle python==3.10 environment variables: ACUITY_PATH=/home/shikangli/QG3102/Verisilicon/acuity-toolkit-binary-6.0.14/bin CIO_TEST=<not set> CONDA_EXE=/home/vision/jnf/anaconda3/bin/conda CONDA_PYTHON_EXE=/home/vision/jnf/anaconda3/bin/python CONDA_ROOT=/home/vision/jnf/anaconda3 CONDA_SHLVL=0 CURL_CA_BUNDLE=<not set> LD_LIBRARY_PATH=/home2/chenfang/hikflow_simulator/RAF/lib/netforward/lib:/home2/chenfa ng/hikflow_simulator/RAF/lib/netforward/lib:/usr/local/cuda-10.1/lib64 PATH=/home/vision/jnf/anaconda3/bin:/usr/local/cuda-11.2/bin:/home/vision/j nf/anaconda3/condabin:/home/shikangli/QG3102/Verisilicon/VivanteIDE5.5 .0:/home/shikangli/QG3102/Verisilicon/VivanteIDE5.5.0/ide:/usr/local/c uda-10.1/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/ bin:/usr/games:/usr/local/games:/snap/bin:/home/shikangli/QG3102/Veris ilicon/nbg-tools:/home/shikangli/QG3102/Verisilicon/acuity-toolkit- binary-6.0.14/bin PYTHONPATH=/home2/chenfang/hikflow_simulator/hikflow_simulate/yolopost_py:/home2/ chenfang/hikflow_simulator/hikflow_simulate:/home2/chenfang/hikflow_si mulator/RAF/lib/netforward/python:/home2/chenfang/hikflow_simulator/RA F:/home2/chenfang/hikflow_simulator/hikflow_simulate/yolopost_py:/home 2/chenfang/hikflow_simulator/hikflow_simulate:/home2/chenfang/hikflow_ simulator/RAF/lib/netforward/python:/home2/chenfang/hikflow_simulator/ RAF: REQUESTS_CA_BUNDLE=<not set> SSL_CERT_FILE=<not set> active environment : None shell level : 0 user config file : /home/vision/.condarc populated config files : /home/vision/.condarc conda version : 4.14.0 conda-build version : 3.21.4 python version : 3.8.8.final.0 virtual packages : __cuda=12.1=0 __linux=5.4.0=0 __glibc=2.27=0 __unix=0=0 __archspec=1=x86_64 base environment : /home/vision/jnf/anaconda3 (writable) conda av data dir : /home/vision/jnf/anaconda3/etc/conda conda av metadata url : None channel URLs : https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/linux-64 https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/noarch https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/linux-64 https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/noarch https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r/linux-64 https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r/noarch https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/msys2/linux-64 https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/msys2/noarch package cache : /home/vision/jnf/anaconda3/pkgs /home/vision/.conda/pkgs envs directories : /home/vision/jnf/anaconda3/envs /home/vision/.conda/envs platform : linux-64 user-agent : conda/4.14.0 requests/2.32.3 CPython/3.8.8 Linux/5.4.0-150-generic ubuntu/18.04.6 glibc/2.27 UID:GID : 1001:1001 netrc file : None offline mode : False An unexpected error has occurred. Conda has prepared the above report. If submitted, this report will be used by core maintainers to improve future releases of conda. Would you like conda to send this report to the core maintainers?

[rank1]: Traceback (most recent call last): [rank1]: File "/liindata/LLaMA-Factory/src/llamafactory/launcher.py", line 23, in <module> [rank1]: launch() [rank1]: File "/liindata/LLaMA-Factory/src/llamafactory/launcher.py", line 19, in launch [rank1]: run_exp() [rank1]: File "/liindata/LLaMA-Factory/src/llamafactory/train/tuner.py", line 103, in run_exp [rank1]: _training_function(config={"args": args, "callbacks": callbacks}) [rank1]: File "/liindata/LLaMA-Factory/src/llamafactory/train/tuner.py", line 68, in _training_function [rank1]: run_sft(model_args, data_args, training_args, finetuning_args, generating_args, callbacks) [rank1]: File "/liindata/LLaMA-Factory/src/llamafactory/train/sft/workflow.py", line 102, in run_sft [rank1]: train_result = trainer.train(resume_from_checkpoint=training_args.resume_from_checkpoint) [rank1]: ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ [rank1]: File "/liindata/miniconda3/envs/llama-factory-0.9.2/lib/python3.12/site-packages/transformers/trainer.py", line 2241, in train [rank1]: return inner_training_loop( [rank1]: ^^^^^^^^^^^^^^^^^^^^ [rank1]: File "/liindata/miniconda3/envs/llama-factory-0.9.2/lib/python3.12/site-packages/transformers/trainer.py", line 2318, in _inner_training_loop [rank1]: self.optimizer, self.lr_scheduler = deepspeed_init(self, num_training_steps=max_steps) [rank1]: ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ [rank1]: File "/liindata/miniconda3/envs/llama-factory-0.9.2/lib/python3.12/site-packages/transformers/integrations/deepspeed.py", line 416, in deepspeed_init [rank1]: optimizer, lr_scheduler = deepspeed_optim_sched( [rank1]: ^^^^^^^^^^^^^^^^^^^^^^ [rank1]: File "/liindata/miniconda3/envs/llama-factory-0.9.2/lib/python3.12/site-packages/transformers/integrations/deepspeed.py", line 341, in deepspeed_optim_sched [rank1]

zip
资源下载链接为: https://pan.quark.cn/s/f989b9092fc5 在 Android 应用开发中,开发一款仿 OPPO 手机计算器的应用是极具实践价值的任务,它融合了 UI 设计、事件处理以及数学逻辑等多方面的技术要点。当前的“最新版仿 OPPO 手机计算器--android.rar”压缩包中,提供了该计算器应用的源代码,这为开发者深入学习 Android 编程提供了宝贵的资源。 UI 设计是构建此类计算器应用的基石。OPPO 手机的计算器界面以清晰的布局和良好的用户交互体验著称,其中包括数字键、运算符键以及用于显示结果的区域等关键元素。开发者需借助 Android Studio 中的 XML 布局文件来定义这些界面元素,可选用 LinearLayout、GridLayout 或 ConstraintLayout 等布局管理器,并搭配 Button 控件来实现各个按键功能。同时,还需考虑不同分辨率屏幕和设备尺寸的适配问题,这通常涉及 Density Independent Pixel(dp)单位的应用以及 Android 尺寸资源的合理配置。 事件处理构成了计算器的核心功能。开发者要在每个按钮的点击事件中编写相应的处理代码,通常通过实现 OnClickListener 接口来完成。例如,当用户点击数字键时,相应的值会被添加到显示区域;点击运算符键时,则会保存当前操作数并设定运算类型。而对于等号(=)按钮,需要执行计算操作,这往往需要借助栈数据结构来存储操作数和运算符,并运用算法解析表达式以完成计算。 数学逻辑的实现则是计算器功能的关键体现。在 Android 应用中,开发者可以利用 Java 内置的 Math 类,或者自行设计算法来完成计算任务。基本的加减乘除运算可通过简单的算术操作实现,而像求幂、开方等复杂运算则需调用 Math 类的相关方法。此外

最新推荐

recommend-type

Mac下anaconda中Spyder打开报错Traceback(most recent call last)…问题

在Mac环境下,使用Anaconda遇到一个问题,即尝试打开Spyder集成开发环境时,出现了"Traceback (most recent call last)"的错误。这个问题可能是由于多个因素引起的,包括软件冲突、依赖包缺失或版本不兼容等。以下是...
recommend-type

最新版仿OPPO手机计算器安卓版

资源下载链接为: https://pan.quark.cn/s/f989b9092fc5 在 Android 应用开发中,开发一款仿 OPPO 手机计算器的应用是极具实践价值的任务,它融合了 UI 设计、事件处理以及数学逻辑等多方面的技术要点。当前的“最新版仿 OPPO 手机计算器--android.rar”压缩包中,提供了该计算器应用的源代码,这为开发者深入学习 Android 编程提供了宝贵的资源。 UI 设计是构建此类计算器应用的基石。OPPO 手机的计算器界面以清晰的布局和良好的用户交互体验著称,其中包括数字键、运算符键以及用于显示结果的区域等关键元素。开发者需借助 Android Studio 中的 XML 布局文件来定义这些界面元素,可选用 LinearLayout、GridLayout 或 ConstraintLayout 等布局管理器,并搭配 Button 控件来实现各个按键功能。同时,还需考虑不同分辨率屏幕和设备尺寸的适配问题,这通常涉及 Density Independent Pixel(dp)单位的应用以及 Android 尺寸资源的合理配置。 事件处理构成了计算器的核心功能。开发者要在每个按钮的点击事件中编写相应的处理代码,通常通过实现 OnClickListener 接口来完成。例如,当用户点击数字键时,相应的值会被添加到显示区域;点击运算符键时,则会保存当前操作数并设定运算类型。而对于等号(=)按钮,需要执行计算操作,这往往需要借助栈数据结构来存储操作数和运算符,并运用算法解析表达式以完成计算。 数学逻辑的实现则是计算器功能的关键体现。在 Android 应用中,开发者可以利用 Java 内置的 Math 类,或者自行设计算法来完成计算任务。基本的加减乘除运算可通过简单的算术操作实现,而像求幂、开方等复杂运算则需调用 Math 类的相关方法。此外
recommend-type

JanisZhang_PythonNotes_54428_1754231690770.zip

JanisZhang_PythonNotes_54428_1754231690770.zip
recommend-type

PKID查壳工具最新版发布,轻松识别安卓安装包加壳

根据提供的文件信息,我们可以详细解读以下知识点: ### PKiD(查壳)工具介绍 #### 标题分析 - **PKiD(查壳)**: 这是一个专门用于分析安卓安装包(APK文件)是否被加壳的应用程序。"查壳"是一种用于检测软件是否被保护层(即“壳”)包裹的技术术语。加壳是一种常见的软件保护手段,用于隐藏真实的代码逻辑,防止恶意逆向分析。 - **RAR格式文件**: 文件使用了RAR格式进行压缩,这是WinRAR软件用于文件压缩和解压缩的专有格式。 #### 描述分析 - **ApkScan-PKID查壳工具.zip**: 这指的是一款名为ApkScan的工具,它包含了PKID查壳功能。该工具被打包成ZIP格式,便于用户下载和使用。 - **安卓安装包**: 这是指Android平台的应用程序安装包,通常以APK作为文件扩展名。 - **加壳检测**: PKID查壳工具用于检测APK文件是否被加壳,加壳是一种常见的软件保护技术,用于加密和保护软件免遭逆向工程。 - **脱壳测试**: 如果检测到加壳,脱壳测试将用于尝试去除或绕过保护层,以便进行安全分析、调试或修改程序。 #### 标签分析 - **查壳**: 再次强调了工具的主要功能,即检测APK文件中的加壳情况。 - **最新版**: 表示这个文件是PKID查壳工具的最新版本。 - **PKID**: 这是工具的核心名称,代表着该软件的主要功能和用途。 #### 文件列表分析 - **PKiD(查壳).exe**: 这是一个可执行文件,说明PKID查壳工具是一个独立的应用程序,用户可以通过双击此文件直接运行程序,而无需安装。 ### 技术背景 #### 查壳工具的工作原理 查壳工具通常通过分析APK文件的头部信息、资源文件和代码段来检测加壳。它可能会检查PE文件格式的特定区域(APK基于DEX,但PE检查的概念相似),这些区域在加壳过程中可能会被特定的代码模式、字符串或签名标记。例如,某些壳会在文件头部加入特定的字符串,或者修改方法计数等信息。 #### 加壳技术 加壳技术通常用于防止软件被轻易反编译或逆向工程。它可以阻止潜在的窃取知识产权、绕过付费或防止代码分析等。加壳过程包括加密和压缩原始代码,然后在运行时解压和解密代码以供执行。 #### 脱壳技术 脱壳技术是指绕过或移除软件保护壳的过程。这通常需要对壳的工作原理有深入了解,并且需要一定的逆向工程技能。脱壳过程可能包括识别壳的签名、分析保护机制、修改代码和重定位等步骤。 #### 安全测试与逆向工程 查壳工具对于安全测试和逆向工程人员来说是非常重要的工具。它们可以帮助识别软件是否被加壳,从而决定是否需要进行脱壳操作以便深入分析软件的安全漏洞或版权问题。 #### 使用场景 - **安全测试**: 安全工程师在对移动应用程序进行安全评估时,需要确认是否有必要进行脱壳处理。 - **逆向工程**: 开发人员可能需要逆向工程某个应用,以更好地理解其工作原理或为了兼容性问题进行修改。 - **软件保护**: 对于软件开发者而言,了解常见的加壳和脱壳技术有助于更好地保护自己的应用免遭未授权的篡改和分析。 ### 结论 了解和掌握PKID查壳工具的使用对于任何需要对APK文件进行安全性分析的专业人士来说都是基础且关键的技能。该工具提供了一种快速判断软件是否加壳的方法,而且在发现壳的情况下,还可以推测出壳的来源公司,这对于后续的分析和处理提供了便利。然而,值得注意的是,进行脱壳操作往往需要对原始程序代码进行逆向工程,这在很多情况下可能涉及法律和道德问题,因此在使用此类工具时,必须确保其合法性和符合道德规范。
recommend-type

【心理学火柴人视频制作秘籍】:Coze工作流全攻略,带你从入门到精通

# 1. 心理学火柴人视频制作概述 ## 1.1 创作心理学火柴人视频的动机 心理学火柴人视频作为一种富有创意的视觉传达方式,不仅能够将复杂的心理学理论变得生动和易于理解,而且还能为观众提供轻松愉悦的学习体验。这种视频通常采用简化的角色——火柴人,通过动画的形式演绎心理学相关的内容,使得原本抽象的理论变得具体、形象。 ## 1.2 火柴人视频的普及与应用 随着互联
recommend-type

frame.onload不执行?

<think>在解决`frame.onload`不执行的问题时,我们需要考虑多种可能的原因和解决方案。下面我将详细解释这个问题,并提供相应的代码示例。##可能的原因及解决方案###1.事件绑定时机不正确如果我们在设置`src`属性之后再绑定`onload`事件,可能会错过事件的触发(因为资源可能已经加载完成)。所以,我们应该在设置`src`之前绑定`onload`事件。###2.资源加载失败如果资源加载失败,`onload`事件可能不会触发,而触发`onerror`事件。因此,我们需要同时监听`onerror`事件。###3.iframe内容为空如果我们使用`document.write`来设
recommend-type

一键关闭系统更新的工具介绍

从给定的文件信息中我们可以分析出几个相关的知识点,以下是详细说明: 【标题】“系统禁止更新工具.7z”暗示着这个压缩文件内包含的可能是一款软件工具,其主要功能是阻止或禁止操作系统的更新。这种工具可能针对的是Windows、Linux或者其他操作系统的自动更新功能。一般来说,用户可能出于稳定性考虑,希望控制更新时间,或者是因为特定的软件环境依赖于旧版本的系统兼容性,不希望系统自动更新导致兼容性问题。 【描述】“一健关闭系统更新”说明了该工具的使用方式非常简单直接。用户只需通过简单的操作,比如点击一个按钮或者执行一个命令,就能实现关闭系统自动更新的目的。这种一键式操作符合用户追求的易用性原则,使得不太精通系统操作的用户也能轻松控制更新设置。 【标签】“系统工具”表明这是一个与操作系统紧密相关的辅助工具。系统工具通常包括系统清理、性能优化、磁盘管理等多种功能,而本工具专注于管理系统更新,使其成为系统维护中的一环。 【压缩包子文件的文件名称列表】“系统禁止更新工具”是压缩包内的文件名。由于文件格式为“.7z”,这说明该工具采用了7-Zip压缩格式。7-Zip是一款开源且免费的压缩软件,支持非常高的压缩比,并且能够处理各种压缩文件格式,如ZIP、RAR等。它支持创建密码保护的压缩文件和分卷压缩,这在需要转移大量数据时特别有用。然而在这个上下文中,“系统禁止更新工具”文件名暗示了该压缩包内只包含了一个程序,即专门用于关闭系统更新的工具。 根据标题和描述,我们可以推测该工具可能的实现机制,例如: 1. 修改系统服务的配置:在Windows系统中,可以通过修改Windows Update服务的属性来禁用该服务,从而阻止系统自动下载和安装更新。 2. 修改注册表设置:通过编辑Windows注册表中的某些特定键值,可以关闭系统更新功能。这通常涉及到对HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Microsoft\Windows\WindowsUpdate和HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Microsoft\Windows\WindowsUpdate\AU等路径下的设置进行修改。 3. 使用第三方软件:某些第三方工具提供了一键禁用系统更新的功能,通过修改操作系统的相关文件和配置来实现更新的禁用。这包括阻止Windows Update的运行、拦截更新下载等。 该工具的使用可能带来一些后果,比如系统安全风险的增加、系统漏洞得不到及时修复以及可能违反某些软件许可协议。用户在使用这类工具时应该清楚这些潜在的影响,并自行承担相应的风险。 总结来说,该“系统禁止更新工具”可以视为一个针对特定用户需求,尤其是企业用户或个人用户中对系统稳定性有较高要求的人群,提供的一个便捷的解决方案。它通过直接修改系统设置来禁止操作系统自动更新,但用户在使用此工具时需要谨慎,因为这可能会带来系统安全和稳定性的风险。
recommend-type

罗技GHUB驱动21.03.24版自定义设置与性能优化:专家级使用技巧

# 摘要 本文综合介绍了罗技GHUB驱动的安装、自定义设置、性能优化、进阶应用以及故障排除。通过对GHUB软件界面和功能的详细介绍,阐述了硬件识别、宏命令创建以及游戏特有设置的定制。同时,文中探讨了性能调整的理论基础,并提供实践中针对网络延迟和数据传输优化的具体技巧。进一步探讨了高级个性化配置和第三方软件集成的策略,最后针对
recommend-type

RX72M单片机读取差分编码器,输入输出滤波,差分转单端后将5V电压转为3.3v输入给单片机

<think>嗯,我需要帮助用户解决关于RX72M单片机读取差分编码器的问题。用户的需求很明确:如何用RX72M单片机读取差分编码器,实现输入输出滤波,将差分信号转为单端信号,并进行5V到3.3V的电平转换。首先回顾用户之前的几个引用。引用1提到ADC的差分输入模式,这让我想到用户可能需要处理模拟信号,但差分编码器通常是数字信号。用户的主要需求集中在数字信号处理,比如正交编码器的脉冲信号。因此,可能需要参考引用1中的差分输入设置,但注意这里适用的是数字接口而非ADC。引用2关于74HC245和SN74LVC1T45DBVR芯片的内容非常有价值。这两个都是电平转换方案,尤其是SN74LVC1T4
recommend-type

鼎捷易飞ERPV9.0委外进货单批量导入解决方案

根据提供的文件信息,我们可以从标题、描述、标签以及压缩包文件列表中提取以下知识点: 1. 委外进货单批量导入程序及模版格式 标题提到的“委外进货单批量导入程序”指的是一个软件应用,其主要功能是允许用户批量地将委外进货数据导入到ERP系统中。批量导入通常是指在ERP系统中不需要逐条手动输入数据,而是通过预先定义好的模板,一次性将大量数据导入系统。这样的程序对于提高工作效率、减少重复性工作以及避免人为错误具有重要意义。 2. 鼎捷易飞ERPV9.0 描述中提到的“鼎捷易飞ERPV9.0”是一个特定版本的ERP系统,由鼎捷软件公司开发。ERP(Enterprise Resource Planning,企业资源计划)系统是一种用于整合企业内部所有资源信息,实现信息流、物流、资金流、工作流的高度集成和自动化管理的软件。ERPV9.0是该系列产品的版本号,表明该程序和文件模板是为这一特定版本的ERP系统设计。 3. .NET C#源代码 标题中的“.NET C#源代码”表示程序是使用.NET框架和C#语言开发的。.NET是微软公司开发的一个软件框架,用于构建和运行Windows应用程序。C#(读作“C Sharp”)是.NET框架下的一种编程语言,具有面向对象、类型安全和垃圾回收等特点。开发者可能提供了源代码,以便企业用户可以自行修改、调整以满足特定需求。 4. 使用方法和步骤 描述中详细说明了程序的使用方法: - 首先编辑模版格式数据,即将需要导入的数据按照特定的格式要求填写到模板中。 - 然后在程序中选择单别(可能指的是单据类型)和日期等条件。 - 点击“导入数据”按钮,程序将提示用户选择含有数据的模板文件。 - 程序会进行数据校验,以确保数据的正确性。校验规则是特定的,如果用户不需要特定的校验条件,可以在程序中直接删除这部分代码。 - 最后,数据校验无误后,程序可以生成相应的进货单据。 5. 自定义程序和模板 在标签中提到的“易飞ERP委外进货单导入程序”、“委外进货单导入程序”和“易飞ERP自定义程序”表明,所提供的程序可以根据用户的特定需求进行定制。同时,模板格式的使用,也意味着用户可以根据自己的业务需要和ERP系统的要求调整模板内容,以便更好地适应数据导入过程。 6. 压缩包子文件的文件名称列表 提供的压缩包包含两个文件: - “委外进货单批量导入格式.xls”指的是一个Excel格式的文件,这个文件应该是一个符合要求的导入模板,用户需要按照这个模板的格式来准备需要导入的数据。 - “委外入库导入(源代码).zip”是一个包含源代码的压缩文件,其中可能包含程序的完整源代码,也可能仅包含与导入功能相关的部分代码。 7. 文件列表和数据导入流程 通过文件列表可以理解整个数据导入流程: - 用户首先需要准备好数据,并将其按照“委外进货单批量导入格式.xls”模板中的要求填入相应的数据。 - 用户然后使用“委外入库导入(源代码).zip”中的程序,根据程序使用说明进行配置。 - 最后,用户通过程序界面导入整理好的Excel模板文件,程序会自动处理数据导入的过程,并进行必要的数据校验,最终生成所需的进货单据。 以上总结的知识点涵盖了该压缩包文件的内容、用途、技术细节以及操作步骤,为了解和使用该委外进货单批量导入程序提供了充分的信息。