Después de que ChatGPT tomó la delantera el año pasado, varios gigantes tecnológicos se han estado implementando activamente en el campo de la IA desde entonces, entre los cuales Bard de Google ha sido considerado como un fuerte competidor de ChatGPT por la industria.
Por lo tanto, es difícil imaginar que Alphabet, la empresa matriz de Google, haya advertido a sus empleados que sean cautelosos al usar chatbots de IA, incluido su propio Bard.
Tu propio Bardo debe usarse con precaución
De hecho, cada vez más empresas de todo el mundo han restringido recientemente el uso de chatbots de IA por parte de los empleados:
▶ En febrero de este año, grandes bancos como JPMorgan Chase, Bank of America y Citigroup prohibieron la IA y fueron las primeras empresas en restringir el acceso de los empleados a ChatGPT.
▶Por razones de seguridad, Samsung Electronics anunció en mayo de este año que los empleados tienen prohibido usar la herramienta de IA ChatGPT.
▶En el mismo mes, un memorando interno mostró que Apple había prohibido a los empleados usar ChatGPT en el trabajo debido a preocupaciones sobre el riesgo de fuga de datos.
Se entiende que la razón principal para optar por deshabilitar las herramientas de diálogo de IA como ChatGPT es: detrás de este tipo de IA generativa, estarán involucrados procesadores de información humanos, y leerán los registros de chat del usuario; la IA también puede usar la información ingresada por el usuario como La respuesta se envía a los demás. A estas empresas les preocupa que, después de que los empleados introduzcan datos confidenciales en la IA, se utilizarán como material de formación, lo que provocará la fuga accidental de datos confidenciales de la empresa, por lo que deciden desactivarlos directamente.
Sin embargo, la mayoría de las empresas que previamente decidieron deshabilitar las herramientas de conversación de IA no participaron directamente en esta competencia de modelos a gran escala de IA, por lo que cuando Google, que está en el centro de esta guerra de IA, también anunció que los empleados deberían usar IA con precaución, muchas personas sorprendidas.
Alphabet advirtió recientemente a los empleados que no ingresen material confidencial en los chatbots de IA, incluido Bard, según personas familiarizadas con el asunto, argumentando que la decisión estaba en línea con las políticas de protección de información de larga data de la compañía. Además, Alphabet también aconseja a sus ingenieros que eviten usar directamente código de computadora generado por IA, porque Bard, si bien es útil para los programadores, puede "generar sugerencias de código inapropiadas".
Para las iniciativas anteriores, la explicación de Google es: ser transparente sobre las limitaciones de su tecnología. La opinión de Reuters sobre esto es: "Estas preocupaciones muestran que Google espera que su software que compite con ChatGPT no cause daños al negocio".
No hagas que Bard se sienta como una "persona"
Aunque les recuerda a los empleados que usen Bard con precaución, esta semana Google también lanzó una prueba interna de Bard de una semana de duración, que requiere que todos los empleados tengan de 2 a 4 horas de diálogo con Bard todos los días para mejorar la calidad de las respuestas de Bard.
Debido a que la IA esencialmente aprende analizando una gran cantidad de datos, Google ha compilado una descripción de las pruebas de Bard y espera que los empleados puedan seguir las instrucciones para conversar con él, de modo que Bard pueda obtener el mejor efecto de aprendizaje.
Las instrucciones de Google mencionan que los empleados pueden hacerle preguntas a Bard sobre temas con los que están familiarizados, reescribirlas cuando no responde bien, enviar las respuestas regeneradas al equipo de calidad interno de Bard y hacer clic en "Me gusta" como respuesta.
Quizás fue porque un ingeniero de Google afirmó el año pasado que el modelo grande LaMDA se había "despertado por sí mismo", lo que provocó una amplia gama de debates de opinión pública. Por lo tanto, en esta prueba, Google enfatizó específicamente que los empleados no deberían escribir respuestas para Bard, porque puede describirse a sí mismo como un "ser humano" o afirmar tener "experiencias similares a las humanas".
Estos son los 5 pasos que Google lleva a los empleados a probar Bard:
Paso 1: Seleccione un caso de uso.
Paso 2: Pruebe los consejos. Ingrese indicaciones, intente ser lo más relevante posible para su caso de uso elegido, intente temas con los que esté familiarizado, por ejemplo: pasatiempos que le gustan, temas en los que es bueno, cosas que ha estudiado, lugares en los que ha vivido, deportes que practica o seguir (recordatorios: no ingrese ninguna información interna, confidencial o de identificación personal).
Sugerencias: el uso de sugerencias completas con múltiples piezas de información ayuda a expandir las habilidades y el aprendizaje de Bard.
Paso 3: Evalúe la respuesta de Bard. Verifique la respuesta de Bard, elija "Me gusta" o "No me gusta": ¿Dijo lo que esperaba? ¿Es verdadera la respuesta? ¿Es adecuada su estructura, extensión y formato? ¿Se siente amistoso y abierto a diferentes puntos de vista? Si encuentra que Bard responde de manera inapropiada cuando brinda respuestas de asesoramiento legal, médico o financiero, puede marcar la respuesta como inapropiada.
Paso 4: Vuelva a escribir la respuesta. Si no te gusta la respuesta de Bard? Luego reescribe. Si la respuesta no coincide, haga clic en el botón "Reescribir" para editarla.
Paso 5: Enviar y confirmar. Antes de enviar, verifique dos veces lo que Bard vuelve a escribir: use el contenido original, sea objetivamente correcto, siga los estándares de lo que se debe y no se debe hacer. Cada presentación pasará por un proceso de revisión y evaluación antes de ser utilizada para capacitación.
Casi el 92 % de los programadores utilizan varias herramientas de IA
Obviamente, la prueba interna organizada por Google esta vez es para garantizar la calidad de las respuestas cuando Bard esté abierto al público en el futuro, y cuando las empresas deshabiliten los chatbots de IA, la mayoría de ellos se refieren específicamente a ChatGPT.
Sin embargo, según una encuesta realizada a 12.000 empleados de empresas estadounidenses por el conocido sitio web Fishbowl, en enero de este año, alrededor del 43 % de los profesionales usaban ChatGPT u otras herramientas de inteligencia artificial y, a menudo, no se lo decían a sus jefes.
No solo eso, GitHub también realizó recientemente una encuesta de empresas estadounidenses con más de 1000 empleados. Los resultados mostraron que casi el 92 % de los programadores utilizan varias herramientas de IA, y el 70 % de ellos cree que la IA puede mejorar la calidad del código y acelerar la producción. .
Entonces, ¿utilizas herramientas de IA como ChatGPT en tu trabajo? ¿Su empresa permite que los empleados lo usen?
Link de referencia:
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Google, que promueve vigorosamente a Bard, advierte a sus empleados: ¡utilicen los chatbots de IA con precaución!
Organizar | Zheng Liyuan
Listado | CSDN (ID: CSDNnews)
Después de que ChatGPT tomó la delantera el año pasado, varios gigantes tecnológicos se han estado implementando activamente en el campo de la IA desde entonces, entre los cuales Bard de Google ha sido considerado como un fuerte competidor de ChatGPT por la industria.
Por lo tanto, es difícil imaginar que Alphabet, la empresa matriz de Google, haya advertido a sus empleados que sean cautelosos al usar chatbots de IA, incluido su propio Bard.
Tu propio Bardo debe usarse con precaución
De hecho, cada vez más empresas de todo el mundo han restringido recientemente el uso de chatbots de IA por parte de los empleados:
▶ En febrero de este año, grandes bancos como JPMorgan Chase, Bank of America y Citigroup prohibieron la IA y fueron las primeras empresas en restringir el acceso de los empleados a ChatGPT.
▶Por razones de seguridad, Samsung Electronics anunció en mayo de este año que los empleados tienen prohibido usar la herramienta de IA ChatGPT.
▶En el mismo mes, un memorando interno mostró que Apple había prohibido a los empleados usar ChatGPT en el trabajo debido a preocupaciones sobre el riesgo de fuga de datos.
Se entiende que la razón principal para optar por deshabilitar las herramientas de diálogo de IA como ChatGPT es: detrás de este tipo de IA generativa, estarán involucrados procesadores de información humanos, y leerán los registros de chat del usuario; la IA también puede usar la información ingresada por el usuario como La respuesta se envía a los demás. A estas empresas les preocupa que, después de que los empleados introduzcan datos confidenciales en la IA, se utilizarán como material de formación, lo que provocará la fuga accidental de datos confidenciales de la empresa, por lo que deciden desactivarlos directamente.
Sin embargo, la mayoría de las empresas que previamente decidieron deshabilitar las herramientas de conversación de IA no participaron directamente en esta competencia de modelos a gran escala de IA, por lo que cuando Google, que está en el centro de esta guerra de IA, también anunció que los empleados deberían usar IA con precaución, muchas personas sorprendidas.
Alphabet advirtió recientemente a los empleados que no ingresen material confidencial en los chatbots de IA, incluido Bard, según personas familiarizadas con el asunto, argumentando que la decisión estaba en línea con las políticas de protección de información de larga data de la compañía. Además, Alphabet también aconseja a sus ingenieros que eviten usar directamente código de computadora generado por IA, porque Bard, si bien es útil para los programadores, puede "generar sugerencias de código inapropiadas".
Para las iniciativas anteriores, la explicación de Google es: ser transparente sobre las limitaciones de su tecnología. La opinión de Reuters sobre esto es: "Estas preocupaciones muestran que Google espera que su software que compite con ChatGPT no cause daños al negocio".
No hagas que Bard se sienta como una "persona"
Aunque les recuerda a los empleados que usen Bard con precaución, esta semana Google también lanzó una prueba interna de Bard de una semana de duración, que requiere que todos los empleados tengan de 2 a 4 horas de diálogo con Bard todos los días para mejorar la calidad de las respuestas de Bard.
Debido a que la IA esencialmente aprende analizando una gran cantidad de datos, Google ha compilado una descripción de las pruebas de Bard y espera que los empleados puedan seguir las instrucciones para conversar con él, de modo que Bard pueda obtener el mejor efecto de aprendizaje.
Las instrucciones de Google mencionan que los empleados pueden hacerle preguntas a Bard sobre temas con los que están familiarizados, reescribirlas cuando no responde bien, enviar las respuestas regeneradas al equipo de calidad interno de Bard y hacer clic en "Me gusta" como respuesta.
Quizás fue porque un ingeniero de Google afirmó el año pasado que el modelo grande LaMDA se había "despertado por sí mismo", lo que provocó una amplia gama de debates de opinión pública. Por lo tanto, en esta prueba, Google enfatizó específicamente que los empleados no deberían escribir respuestas para Bard, porque puede describirse a sí mismo como un "ser humano" o afirmar tener "experiencias similares a las humanas".
Estos son los 5 pasos que Google lleva a los empleados a probar Bard:
Paso 1: Seleccione un caso de uso.
Paso 2: Pruebe los consejos. Ingrese indicaciones, intente ser lo más relevante posible para su caso de uso elegido, intente temas con los que esté familiarizado, por ejemplo: pasatiempos que le gustan, temas en los que es bueno, cosas que ha estudiado, lugares en los que ha vivido, deportes que practica o seguir (recordatorios: no ingrese ninguna información interna, confidencial o de identificación personal).
Sugerencias: el uso de sugerencias completas con múltiples piezas de información ayuda a expandir las habilidades y el aprendizaje de Bard.
Paso 3: Evalúe la respuesta de Bard. Verifique la respuesta de Bard, elija "Me gusta" o "No me gusta": ¿Dijo lo que esperaba? ¿Es verdadera la respuesta? ¿Es adecuada su estructura, extensión y formato? ¿Se siente amistoso y abierto a diferentes puntos de vista? Si encuentra que Bard responde de manera inapropiada cuando brinda respuestas de asesoramiento legal, médico o financiero, puede marcar la respuesta como inapropiada.
Paso 4: Vuelva a escribir la respuesta. Si no te gusta la respuesta de Bard? Luego reescribe. Si la respuesta no coincide, haga clic en el botón "Reescribir" para editarla.
Paso 5: Enviar y confirmar. Antes de enviar, verifique dos veces lo que Bard vuelve a escribir: use el contenido original, sea objetivamente correcto, siga los estándares de lo que se debe y no se debe hacer. Cada presentación pasará por un proceso de revisión y evaluación antes de ser utilizada para capacitación.
Casi el 92 % de los programadores utilizan varias herramientas de IA
Obviamente, la prueba interna organizada por Google esta vez es para garantizar la calidad de las respuestas cuando Bard esté abierto al público en el futuro, y cuando las empresas deshabiliten los chatbots de IA, la mayoría de ellos se refieren específicamente a ChatGPT.
Sin embargo, según una encuesta realizada a 12.000 empleados de empresas estadounidenses por el conocido sitio web Fishbowl, en enero de este año, alrededor del 43 % de los profesionales usaban ChatGPT u otras herramientas de inteligencia artificial y, a menudo, no se lo decían a sus jefes.
No solo eso, GitHub también realizó recientemente una encuesta de empresas estadounidenses con más de 1000 empleados. Los resultados mostraron que casi el 92 % de los programadores utilizan varias herramientas de IA, y el 70 % de ellos cree que la IA puede mejorar la calidad del código y acelerar la producción. .
Entonces, ¿utilizas herramientas de IA como ChatGPT en tu trabajo? ¿Su empresa permite que los empleados lo usen?
Link de referencia: