
Enviar un Prompt
OpenAI ChatGPT
Acción
Envía un Prompt a GPT, opcionalmente junto con una imagen y obtén un mensaje de texto como respuesta.
Información entregada
Al ejecutarse, esta operación entrega los siguientes datos, pudiendo ser utilizados en la misma tarea automática.
Etiquetas
-
Texto
{{content}}
Completado predictivo.
e.g. This is a test -
Razón de finalizado
{{finish_reason}}
Razón por la que el completado resultante ha terminado.
e.g. lenght -
Tokens del enunciado
{{prompt_tokens}}
Número total de tokens en el enunciado. 1 token ~= 4 caracteres en Inglés
-
Tokens del autocompletado
{{completion_tokens}}
Número de total de tokens en la respuesta. 1 token ~= 4 caracteres en Inglés
-
Total tokens
{{total_tokens}}
Tokens del enunciado + Tokens del autocompletado
Video tutoriales
Aprende a generar nuevos textos a partir de los datos que hay en cada fila de una hoja de cálculo.
Alimenta tu tienda WooCommerce con productos de afiliados vio scraping con ayuda de GPT.
Pasos para hacerte un bot que que genera contenido inédito y actual en Twitter de acuerdo a noticias o datos que obtiene en tiempo real de otras webs y distintas fuentes. Usando ChatGPT, RSS y Google News.
Pasos para crear una sencilla automatización que une Google News, ChatGPT, Whisper y Home Assistant.
Pasos para reproducir con voz en el altavoz de casa cualquier texto que obtengas de otras fuentes.
Pasos para crear un canal de chollos en Telegram con imágenes inéditas de productos de Amazon.
Preguntas frecuentes
¿Por qué ChatGPT responde de manera distinta a prompts aparentemente idénticos?
Las variaciones casi siempre se deben a uno (o varios) de estos factores:
• Temperatura muy alta: a mayor temperatura (≈ 0,8-1,0) el modelo introduce más aleatoriedad. Baja el valor a 0,2-0,4 si buscas consistencia.
• Faltan ejemplos o reglas claras: sin few-shot ni instrucciones precisas, el modelo rellena huecos con su propio criterio. Añade ejemplos concretos de entrada-salida o define reglas en el system prompt/instruction.
• Prompt ambiguo: si tu texto permite varias interpretaciones, el modelo elegirá una al azar. Reformula para que solo exista una lectura posible.
• Cambios de contexto: cualquier mensaje previo en la conversación influye. Reinicia el hilo o resume el contexto de forma explícita si necesitas reproducibilidad.
• Límites de tokens: si la conversación es muy larga, parte del historial puede truncarse y el modelo “olvida” detalles. Reduce el prompt o resume el contexto.
Aplicando estas recomendaciones obtendrás respuestas mucho más estables y previsibles.
Errores frecuentes
Invalid JSON response calling chatgpt: 210-Error You exceeded your current quota, please check your plan and billing details. For more information on this error, read the docs: https://platform.openai.com/docs/guides/error-codes/api-errors.
El error indica que has superado la cuota de uso asignada a tu cuenta en el API de OpenAI, impidiendo realizar más solicitudes.
Para solucionarlo, revisa los detalles de tu plan y consumo actual en la plataforma de OpenAI y considera actualizar a un plan con una cuota más alta si tu uso lo requiere en https://platform.openai.com.
Hablemos
Elige día y hora.
Compartimos pantalla y resolvemos todas tus dudas.