import autogen
# Настраиваем агентов
assistant = autogen.AssistantAgent(
name="assistant",
system_message="Отвечает на вопросы.",
llm_config={"config_list": [{"model": "gpt-4", "api_key": "YOUR_API_KEY"}]}
)
user_proxy = autogen.UserProxyAgent(
name="user",
human_input_mode="NEVER",
max_consecutive_auto_reply=1,
is_termination_msg=lambda x: True,
code_execution_config=False,
)
# Запускаем беседу
user_proxy.initiate_chat(assistant, message="Привет! Назови столицу Франции.")from crewai import Agent, Task, Crew, Process
# Создаем агента с ролью и целью
researcher = Agent(
role="Исследователь",
goal="Отвечает на простые вопросы.",
backstory="Эксперт, который предоставляет точную и краткую информацию.",
verbose=True
)
# Создаем задачу для агента
task = Task(
description="Назови столицу Франции.",
agent=researcher,
)
# Запускаем команду для выполнения задачи
crew = Crew(
agents=[researcher],
tasks=[task],
process=Process.sequential,
)
result = crew.kickoff()
print(result)from langgraph.graph import StateGraph, START, END, MessageGraph, V2
from langchain_openai import ChatOpenAI
from langchain_core.messages import HumanMessage
# Настраиваем LLM
llm = ChatOpenAI(model="gpt-4", temperature=0, api_key="YOUR_API_KEY")
# Создаем функцию-узел
def answer_question(state):
question = state["messages"][-1].content
response = llm.invoke(question)
return {"messages": [response]}
# Создаем граф
graph = MessageGraph()
graph.add_node("answer", answer_question)
graph.add_edge(START, "answer")
graph.add_edge("answer", END)
# Запускаем граф
app = graph.compile()
result = app.invoke(input={"messages": [HumanMessage(content="Назови столицу Франции.")]})
print(result["messages"][-1].content)