Menú
Inicio
Visitar el Sitio Zona Militar
Foros
Nuevos mensajes
Buscar en los foros
Qué hay de nuevo
Nuevos mensajes
Última actividad
Miembros
Visitantes actuales
Entrar
Registrarse
Novedades
Buscar
Buscar
Buscar sólo en títulos
Por:
Nuevos mensajes
Buscar en los foros
Menú
Entrar
Registrarse
Inicio
Foros
Area Militar General
Malvinas 1982
Malvinas y Davidoff segun ChatGPT
JavaScript is disabled. For a better experience, please enable JavaScript in your browser before proceeding.
Estás usando un navegador obsoleto. No se pueden mostrar estos u otros sitios web correctamente.
Se debe actualizar o usar un
navegador alternativo
.
Responder al tema
Mensaje
<blockquote data-quote="Princebaskar" data-source="post: 3350769" data-attributes="member: 67940"><p>Un Modelo de IA es capaz de resolver una pregunta de manera apropiada solo si fue entrenado para dar una respuesta a esa pregunta. En el caso especifico, basta recordar que OpenAi utilizó el corpus de datos presentes internet al 21 de Octubre de 2021, de fuentes preferentemente escritas en idioma inglés. Entonces, si ante esa pregunta específica contesta de la manera en que lo hace, la presunción sería:</p><p></p><p>1. La red alucina porque la secuencia de “tokens” en la pregunta no encuentra “tokens” de respuesta dentro del parámetro de “respuesta adecuada” y rellena la respuesta con cualquier otro “token”.</p><p></p><p>2. La red no alucina pero la respuesta esta sesgada o tiene una marcada tendencia. Tiene que ver con el entrenamiento recibido al momento de observar un tópico en particular y llamar a un experto para que él seleccione el órden de prioridad que una determinada respuesta tenga sobre otras. Tambien importa aquello que formo parte del corpus de datos. Si allí existen relatos inciertos sobre un hecho, que no se ha podido verificar fehacientemente, el resultado será, inevitablemente, incierto.</p><p></p><p>3. OpenAi ha establecido un entrenamiento reenforzado a partir de que los usuarios del modelo pueden calificar la respuesta recibida. Cada vez que un usuario interactua con el chatbot el resultado no solo es la respuesta al feedback, es tambien asumir que cuando no se recibe una acción interactiva es porque la respuesta fue correcta. La decision “detras de bambalinas” es una serie de cálculos que no podemos consultar, solo inferir.</p><p></p><p>Moraleja: en ciertos tópicos, ChatGPT alucinará, te proveerá una respuesta sesgada o directamente te mentirá descarnadamente a menos que alguien le ponga su firma y se pueda evaluar certezas sobre sus afirmaciones. Por eso es importante conocer las fuentes y entender que la Inteligencia Artificial se comporta inteligentemente aun cuando no tenga nada inteligente para decir…</p></blockquote><p></p>
[QUOTE="Princebaskar, post: 3350769, member: 67940"] Un Modelo de IA es capaz de resolver una pregunta de manera apropiada solo si fue entrenado para dar una respuesta a esa pregunta. En el caso especifico, basta recordar que OpenAi utilizó el corpus de datos presentes internet al 21 de Octubre de 2021, de fuentes preferentemente escritas en idioma inglés. Entonces, si ante esa pregunta específica contesta de la manera en que lo hace, la presunción sería: 1. La red alucina porque la secuencia de “tokens” en la pregunta no encuentra “tokens” de respuesta dentro del parámetro de “respuesta adecuada” y rellena la respuesta con cualquier otro “token”. 2. La red no alucina pero la respuesta esta sesgada o tiene una marcada tendencia. Tiene que ver con el entrenamiento recibido al momento de observar un tópico en particular y llamar a un experto para que él seleccione el órden de prioridad que una determinada respuesta tenga sobre otras. Tambien importa aquello que formo parte del corpus de datos. Si allí existen relatos inciertos sobre un hecho, que no se ha podido verificar fehacientemente, el resultado será, inevitablemente, incierto. 3. OpenAi ha establecido un entrenamiento reenforzado a partir de que los usuarios del modelo pueden calificar la respuesta recibida. Cada vez que un usuario interactua con el chatbot el resultado no solo es la respuesta al feedback, es tambien asumir que cuando no se recibe una acción interactiva es porque la respuesta fue correcta. La decision “detras de bambalinas” es una serie de cálculos que no podemos consultar, solo inferir. Moraleja: en ciertos tópicos, ChatGPT alucinará, te proveerá una respuesta sesgada o directamente te mentirá descarnadamente a menos que alguien le ponga su firma y se pueda evaluar certezas sobre sus afirmaciones. Por eso es importante conocer las fuentes y entender que la Inteligencia Artificial se comporta inteligentemente aun cuando no tenga nada inteligente para decir… [/QUOTE]
Insertar citas…
Verificación
¿Cuanto es 2 mas 6? (en letras)
Responder
Inicio
Foros
Area Militar General
Malvinas 1982
Malvinas y Davidoff segun ChatGPT
Este sitio usa cookies. Para continuar usando este sitio, se debe aceptar nuestro uso de cookies.
Aceptar
Más información.…
Arriba