请问各位大佬,为什么不用这个办法检测中转站claude的真假?

RT~ 直接使用anthropic的SDK发起请求,查看返回值中的model字段,这样是不是也是一种办法? 以下是我使用站内某个公益站的claude,但是返回的model却是ZhipuAI/GLM-5.1 代码如下: from anthropic import Anthropic client = ...
请问各位大佬,为什么不用这个办法检测中转站claude的真假?
请问各位大佬,为什么不用这个办法检测中转站claude的真假?

RT~
直接使用anthropic的SDK发起请求,查看返回值中的model字段,这样是不是也是一种办法?

以下是我使用站内某个公益站的claude,但是返回的model却是ZhipuAI/GLM-5.1

代码如下:

from anthropic import Anthropic

client = Anthropic(
    api_key=os.getenv("ANTHROPIC_API_KEY"), 
    base_url=os.getenv("ANTHROPIC_BASE_URL"),  
)
model = "claude-opus-4-7"

def run_prompt():
    response = client.messages.create(
        model=model,
        max_tokens=1000,
        messages=messages,
        tools=[get_current_datetime_schema],
    )

    return response

返回内容如下(注意里面的model=‘ZhipuAI/GLM-5.1’):

Message(id='chatcmpl-86f33302-17dd-9ac5-8013-c627a62a25cb', container=None, content=[ToolUseBlock(id='tool-63cdfc8f45dc40728018b425d189a6c3', caller=None, input={'date_format': '%Y-%m-%d %H:%M:%S'}, name='get_current_datetime', type='tool_use')], model='ZhipuAI/GLM-5.1', role='assistant', stop_details=None, stop_reason='tool_use', stop_sequence=None, type='message', usage=Usage(cache_creation=None, cache_creation_input_tokens=0, cache_read_input_tokens=0, inference_geo=None, input_tokens=208, output_tokens=74, server_tool_use=None, service_tier=None, claude_cache_creation_5_m_tokens=0, claude_cache_creation_1_h_tokens=0))

4 个帖子 - 4 位参与者

阅读完整话题

来源: LinuxDo 最新话题查看原文