La plataforma de recompensas de errores de contrato inteligente Immunefi prohibió a 15 personas por supuestamente enviar informes de errores creados por la herramienta de inteligencia artificial generativa ChatGPT.
La plataforma de recompensas de hackers de sombrero blanco insistió en que ChatGPT no podía identificar errores porque no tiene capacidad técnica más allá de proporcionar respuestas a consultas humanas.
ChatGPT no debería reemplazar el informe de Whitehat
Según Immunefi, los whitehats pueden acelerar una resolución rápida de un error de software al describir el problema con sus propias palabras en lugar de usar herramientas de lenguaje de inteligencia artificial.
Immunefi es una plataforma de recompensas por errores que recompensa a los whitehats por encontrar problemas con los contratos inteligentes que impulsan proyectos financieros descentralizados como Aave, Compound y Synthetix. Para septiembre de 2022, la plataforma había pagado a los whitehats $65 millones, con $138 millones adicionales disponibles para futuros pagos.
Los propietarios de proyectos de software contratan a whitehats para probar éticamente la seguridad de su producto a cambio de una recompensa. Estos “buenos” hackers se contrastan con los blackhats, que explotan criminalmente las fallas de seguridad. Por otro lado, los llamados greyhats encuentran errores sin el permiso del propietario del proyecto.
Aún así, la plataforma de recompensas dijo que cualquier error genuino resaltado por la herramienta debe informarse a través de los canales adecuados.
ChatGPT usa un modelo de lenguaje grande llamado GPT-3 para conversar naturalmente con humanos. Su carta de as es su capacidad para responder preguntas centrándose en la intención de una pregunta más que en sus palabras. Por contexto, los principales motores de búsqueda generalmente clasifican los resultados según la cantidad y la calidad de los enlaces a una página web.
Por su propia admisión, los datos de entrenamiento a veces sesgados de ChatGPT significan que sus respuestas a menudo carecen de sentido común y contexto. Además, su articulación a veces puede embellecer información de baja calidad. Un moderador en el foro de programación StackOverflow recientemente confirmado que la presentación pulida de la herramienta a menudo disfraza con éxito las respuestas inexactas.
Al igual que Immunefi, StackOverflow prohibió las respuestas de ChatGPT en su plataforma.
A pesar de estas evidentes limitaciones, el director ejecutivo de OpenAI, la empresa detrás de ChatGPT, confía en que la herramienta evolucionará hasta convertirse en una herramienta competente para el lugar de trabajo.
“Podemos imaginar un ‘trabajador de oficina de IA’ que recibe solicitudes en lenguaje natural como lo hace un humano”. dicho Sam Altman en una publicación de blog el año pasado. La plataforma de auditoría de contratos inteligentes CertiK señaló que la plataforma no era “tan mala” para encontrar errores. Al mismo tiempo, el ingeniero de software canadiense Tomiwa Aswmidum supuestamente usó con éxito la herramienta para crear una billetera criptográfica enseñándole reglas criptográficas.
El promotor de Dogecoin y CEO de Tesla, Elon Musk, dijo en diciembre de 2022 que la IA de ChatGPT es “muy buena”, mientras que la capitalista de riesgo de Next47, Kate Reznykova, señaló la asombrosa tasa de adopción de usuarios de ChatGPT de un millón de usuarios en solo cinco días.
Sin embargo, Altman advirtió contra leer demasiado sobre las habilidades en desarrollo de ChatGPT, llamándolo una “vista previa del progreso” y agregando que no debe usarse para nada de misión crítica.
Es un error confiar en él para algo importante en este momento”, dijo. dicho.
Para ser[In]El último análisis de Bitcoin (BTC) de Crypto, haga clic aquí.
Descargo de responsabilidad
BeInCrypto se ha comunicado con la empresa o la persona involucrada en la historia para obtener una declaración oficial sobre los desarrollos recientes, pero aún no ha recibido respuesta.